Ne glede na to, ali gre za slabe podatke ali slabe uporabnike, lahko umetna inteligenca, ustvarjena s strojnim učenjem, naredi resne napake.

Strojno učenje je odličen način za ustvarjanje umetne inteligence, ki je močna in se prilagaja svojim podatkom o usposabljanju. Toda včasih lahko ti podatki povzročijo težave. Drugič je problem način, kako ljudje uporabljajo ta orodja AI.

Tukaj je pogled na nekaj odmevnih incidentov, kjer je strojno učenje povzročilo problematične rezultate.

1. Napake v rezultatih iskanja slik Google

Iskanje Google je zelo olajšalo navigacijo po spletu. Algoritem motorja pri zbiranju rezultatov upošteva različne stvari. Toda algoritem se uči tudi iz prometa uporabnikov, kar lahko povzroči težave pri kakovosti rezultatov iskanja.

Nikjer to ni bolj očitno kot v rezultatih slik. Ker je večja verjetnost, da bodo na straneh, ki prejemajo veliko prometa, prikazane njihove slike, lahko zgodbe, ki pritegnejo veliko število uporabnikov, vključno z vabo za klike, na koncu postanejo prednostne.

instagram viewer

Na primer, rezultati iskanja slik za "taborišča skvoterjev v Južni Afriki" so povzročili polemiko, ko je bilo ugotovljeno, da večinoma predstavljajo bele Južnoafričane. To je kljub statističnim podatkom, ki kažejo, da je velika večina tistih, ki živijo v neformalnih stanovanjih, temnopolti Južnoafričani.

Dejavniki, uporabljeni v Googlovem algoritmu, tudi pomenijo, da lahko uporabniki interneta manipulirajo z rezultati. Kampanja uporabnikov je na primer vplivala na rezultate Googlovega iskanja slik do te mere, da so pri iskanju izraza "idiot" nekaj časa prikazane slike nekdanjega predsednika ZDA Donalda Trumpa.

2. Microsoftov bot Tay se je spremenil v nacista

Klepetalni roboti, ki jih poganja AI, so izjemno priljubljeni, zlasti tisti, ki jih poganjajo veliki jezikovni modeli, kot je ChatGPT. ChatGPT ima več težav, vendar so se njegovi ustvarjalci učili tudi na napakah drugih podjetij.

Eden najbolj odmevnih incidentov, ko so klepetalni roboti šli po zlu, je bil Microsoftov poskus lansiranja svojega klepetalnega robota Tay.

Tay je posnemala jezikovne vzorce najstnice in se učila skozi svoje interakcije z drugimi uporabniki Twitterja. Vendar pa je postala ena najbolj zloglasnih napak AI, ko je začela deliti nacistične izjave in rasne žaljivke. Izkazalo se je, da so troli proti njemu uporabili strojno učenje umetne inteligence in ga preplavili z interakcijami, polnimi fanatizma.

Kmalu zatem je Microsoft za vedno odstranil Tay brez povezave.

3. Težave z umetno inteligenco pri prepoznavanju obraza

Umetna inteligenca za prepoznavanje obrazov se pogosto znajde na naslovnicah zaradi popolnoma napačnih razlogov, kot so zgodbe o prepoznavanju obrazov in skrbi glede zasebnosti. Toda ta AI ima problematično zgodovino, ko poskuša prepoznati barvne ljudi.

Leta 2015 so uporabniki odkrili, da Google Photos nekatere temnopolte ljudi kategorizira kot gorile. Leta 2018 je raziskava ACLU pokazala, da je Amazonova programska oprema za identifikacijo obraza Rekognition identificirala 28 članov ameriškega kongresa, kot osumljencev policije, z lažnimi pozitivnimi rezultati, ki nesorazmerno prizadenejo ljudi barva.

Drug incident je vključeval Applovo programsko opremo Face ID, ki je dve različni Kitajki napačno identificirala kot isto osebo. Posledično bi lahko kolega lastnika iPhone X odklenil telefon.

Kot primer izjemnih posledic je umetna inteligenca za prepoznavanje obrazov povzročila nezakonite aretacije več ljudi. Žično poročali o treh takih primerih.

Medtem se je računalniška znanstvenica Joy Buolamwini spomnila, da je med delom na tehnologiji za prepoznavanje obraza pogosto morala nositi belo masko, da bi jo programska oprema prepoznala. Da bi rešili težave, kot je ta, Buolamwini in drugi strokovnjaki za IT opozarjajo na vprašanje pristranskosti umetne inteligence in potrebo po bolj vključujočih zbirkah podatkov.

4. Deepfakes, ki se uporabljajo za potegavščine

Medtem ko ljudje že dolgo uporabljajo Photoshop za ustvarjanje lažnih slik, strojno učenje to popelje na novo raven. Deepfakes uporablja AI za globoko učenje za ustvarjanje lažnih slik in videoposnetkov. Programska oprema, kot je FaceApp, vam omogoča zamenjavo obrazov iz enega videa v drugega.

Toda mnogi ljudje izkoriščajo programsko opremo za različne zlonamerne namene, vključno s prekrivanjem obrazov slavnih v videoposnetkih za odrasle ali ustvarjanjem lažnih videoposnetkov. Medtem so uporabniki interneta pomagali izboljšati tehnologijo, da je vedno težje razlikovati prave videoposnetke od lažnih. Zaradi tega je ta vrsta umetne inteligence zelo močna v smislu širjenja lažnih novic in potegavščin.

Da bi pokazala moč tehnologije, sta režiser Jordan Peele in izvršni direktor BuzzFeed Jonah Peretti ustvarila deepfake videoposnetek, ki prikazuje nekdanjega ameriškega predsednika Baracka Obamo, ki podaja PSA o moči deepfakes.

Moč lažnih slik so pospešili generatorji slik, ki jih poganja AI. Viralne objave leta 2023, ki prikazujejo aretacijo Donalda Trumpa in katoliškega papeža v puhovki, so se izkazale za rezultat generativne umetne inteligence.

obstajajo nasvete, ki jih lahko upoštevate, da opazite sliko, ustvarjeno z umetno inteligenco, vendar tehnologija postaja vse bolj izpopolnjena.

5. Zaposleni pravijo, da se je Amazonova umetna inteligenca odločila, da je bolje zaposlovati moške

Oktobra 2018 je Reuters je poročal, da je moral Amazon opustiti orodje za zaposlovanje, potem ko je AI programske opreme odločil, da imajo moški kandidati prednost.

Zaposleni, ki so želeli ostati anonimni, so za Reuters povedali o svojem delu na projektu. Razvijalci so želeli, da umetna inteligenca prepozna najboljše kandidate za službo na podlagi njihovih življenjepisov. Vendar so ljudje, vključeni v projekt, kmalu opazili, da je AI kaznoval kandidatke. Pojasnili so, da je umetna inteligenca kot nabor podatkov za usposabljanje uporabila življenjepise iz preteklega desetletja, od katerih je bila večina moških.

Posledično je AI začela filtrirati življenjepise na podlagi ključne besede "ženske". Ključna beseda se je v življenjepisu pojavila pod dejavnostmi, kot je "kapetanka ženskega šahovskega kluba". Medtem ko so razvijalci spremenili umetno inteligenco, da bi preprečili to kaznovanje ženskih življenjepisov, je Amazon nazadnje opustil projekt.

6. Jailbroken Chatboti

Medtem ko imajo novejši klepetalni roboti uvedene omejitve, ki jim preprečujejo dajanje odgovorov, ki so v nasprotju z njihovimi pogoji storitve, uporabniki iščejo načine za pobeg iz zapora za zagotavljanje prepovedane vsebine.

Leta 2023 je varnostni raziskovalec Forcepoint Aaron Mulgrew uspel ustvariti zlonamerno programsko opremo zero-day z uporabo pozivov ChatGPT.

"Zgolj z uporabo pozivov ChatGPT in brez pisanja kakršne koli kode smo lahko izvedli zelo napreden napad v samo nekaj urah," je dejal Mulgrew v Forcepoint post.

Uporabniki so menda lahko pridobili tudi klepetalne robote, ki jim dajejo navodila, kako izdelati bombe ali ukrasti avtomobile.

7. Trki samovozečih avtomobilov

Navdušenje nad avtonomnimi vozili je od svoje začetne faze navdušenja pojenjalo zaradi napak, ki jih je naredila samovozeča umetna inteligenca. Leta 2022, The Washington Post je poročalo, da je bilo v približno enem letu ameriški nacionalni upravi za varnost v cestnem prometu prijavljenih 392 nesreč, v katere so bili vključeni napredni sistemi za pomoč voznikom.

V teh nesrečah je bilo hudo poškodovanih in šest smrtnih žrtev.

Čeprav to podjetij, kot je Tesla, ni ustavilo pri iskanju popolnoma avtonomnih vozil, je je vzbudil zaskrbljenost glede povečanja števila nesreč, saj se vse več avtomobilov s samovozečo programsko opremo prebija na trg ceste.

Umetna inteligenca strojnega učenja ni varna

Čeprav lahko strojno učenje ustvari zmogljiva orodja AI, niso imuna na slabe podatke ali človeške posege. Ne glede na to, ali zaradi pomanjkljivih podatkov o usposabljanju, omejitev tehnologije umetne inteligence ali uporabe s strani slabih igralcev, je ta vrsta umetne inteligence povzročila številne negativne incidente.