Klepetalni roboti z umetno inteligenco lahko halucinirajo in dajejo samozavestno napačne odgovore – kar lahko hekerji izkoristijo. Evo, kako hekerji oborožijo halucinacije.

AI velikih jezikovnih modelov so nepopolni in včasih ustvarjajo napačne informacije. Ti primeri, imenovani halucinacije, lahko predstavljajo kibernetsko grožnjo za podjetja in posamezne navdušence nad AI.

Na srečo lahko povečate obrambo pred halucinacijami umetne inteligence z večjo zavestjo in zdravim ugibanjem.

Zakaj AI halucinira?

Ni soglasja o tem, zakaj modeli umetne inteligence halucinirajo, čeprav obstaja nekaj verjetnih ugibanj.

Umetna inteligenca se usposablja iz ogromnih podatkovnih nizov, ki pogosto vsebujejo pomanjkljivosti, kot so miselne vrzeli, odstopanje vsebine ali škodljive pristranskosti. Kakršno koli usposabljanje iz teh nepopolnih ali neustreznih naborov podatkov je lahko koren halucinacij, tudi če so poznejše ponovitve nabora podatkov obravnavale podatkovne znanstvenike.

Sčasoma lahko podatkovni znanstveniki naredijo informacije natančnejše in vnesejo dodatno znanje, da zapolnijo prosta delovna mesta in zmanjšajo možnost halucinacij. Nadzorniki lahko napačno označijo podatke. Programska koda ima morda napake. Popravljanje teh elementov je bistveno, ker modeli AI napredujejo na podlagi algoritmov strojnega učenja.

instagram viewer

Ti algoritmi uporabljajo podatke za določanje. Razširitev tega je nevronska mreža umetne inteligence, ki ustvarja nove odločitve od izkušenj strojnega učenja do spominjajo na izvirnost človeških umov bolj natančno. Ta omrežja vsebujejo transformatorje, ki razčlenjujejo razmerja med oddaljenimi podatkovnimi točkami. Ko gredo transformatorji po zlu, se lahko pojavijo halucinacije.

Kako halucinacije umetne inteligence ponujajo priložnosti hekerjem

Na žalost ni splošno znano, da umetna inteligenca halucinira, in umetna inteligenca bo zvenela samozavestno, tudi če je popolnoma napačna. Vse to prispeva k temu, da so uporabniki bolj samozadovoljni in zaupajo umetni inteligenci, akterji groženj pa se zanašajo na to vedenje uporabnikov, da jih pripravijo do prenosa ali sprožitve njihovih napadov.

Na primer, model AI lahko halucinira lažno knjižnico kode in uporabnikom priporoči, da to knjižnico prenesejo. Verjetno bo model še naprej priporočal to isto halucinirano knjižnico številnim uporabnikom, ki bodo postavili podobno vprašanje. Če hekerji odkrijejo to halucinacijo, lahko ustvarijo pravo različico namišljene knjižnice, vendar polno nevarne kode in zlonamerne programske opreme. Zdaj, ko AI še naprej priporoča knjižnico kode, bodo nevede uporabniki prenesli kodo hekerjev.

Prenos škodljive kode in programov z izkoriščanjem halucinacij umetne inteligence ni presenetljiv naslednji korak za akterje groženj. Ni nujno, da hekerji ustvarjajo nešteto novih kibernetskih groženj – le iščejo nove načine, kako bi jih brez dvoma posredovali. Halucinacije umetne inteligence plenijo isto človeško naivnost, ki je odvisna od klikanja e-poštnih povezav (zato bi morali uporabite orodja za preverjanje povezav za preverjanje URL-jev).

Tudi hekerji ga lahko dvignejo na naslednjo raven. Če iščete pomoč pri kodiranju in prenesete ponarejeno, zlonamerno kodo, lahko povzročitelj grožnje povzroči, da koda dejansko deluje, v ozadju pa teče škodljiv program. Samo zato, ker deluje tako, kot ste predvidevali, še ne pomeni, da ni nevarno.

Pomanjkanje izobrazbe vas lahko spodbudi k prenosu priporočil, ustvarjenih z umetno inteligenco, zaradi vedenja spletnega avtopilota. Vsak sektor je pod kulturnim pritiskom, da sprejme umetno inteligenco v svoje poslovne prakse. Nešteto organizacij in panog, ki so oddaljene od tehnologije, se igrajo z orodji umetne inteligence z malo izkušnjami in še bolj redko kibernetsko varnostjo, da bi le ostale konkurenčne.

Kako ostati varen pred halucinacijami umetne inteligence z orožjem

Napredek je na obzorju. Ustvarjanje zlonamerne programske opreme z generativno umetno inteligenco je bilo enostavno, preden so podjetja prilagodila nabore podatkov ter določila in pogoje za preprečevanje neetičnih generacij. Če poznate družbene, tehnične in osebne slabosti, ki jih morda imate pred nevarnimi halucinacijami umetne inteligence, kakšni so načini, kako ostati varen?

Vsakdo v industriji lahko dela na izboljšanju tehnologije nevronske mreže in preverjanju knjižnice. Obstajati morajo zadržki in ravnovesja, preden odzivi zadenejo končne uporabnike. Čeprav je to nujen napredek v panogi, imate tudi vi vlogo pri zaščiti sebe in drugih pred generativnimi grožnjami umetne inteligence.

Povprečni uporabniki lahko vadi opazovanje halucinacij AI s temi strategijami:

  • Iskanje črkovalnih in slovničnih napak.
  • Oglejte si, kdaj se kontekst poizvedbe ne ujema s kontekstom odgovora.
  • Priznanje, kdaj se slike, ki temeljijo na računalniškem vidu, ne ujemajo s tem, kako bi koncept videle človeške oči.

Vedno bodite previdni pri prenašanju vsebine iz interneta, tudi če to priporoča AI. Če AI priporoča prenos kode, tega ne storite na slepo; preverite vse ocene, da zagotovite, da je koda zakonita, in preverite, ali lahko najdete informacije o ustvarjalcu.

Najboljši odpor proti halucinacijskim napadom umetne inteligence je izobraževanje. Govoriti o svojih izkušnjah in brati, kako so drugi spodbudili zlonamerne halucinacije, bodisi po naključju ali namerno testiranje, je neprecenljivo pri navigaciji AI v prihodnosti.

Izboljšanje kibernetske varnosti AI

Ko se pogovarjate z AI, morate biti previdni, kaj zahtevate. Omejite možnost nevarnih izidov tako, da ste čim bolj natančni in dvomite o vsem, kar se prikaže na zaslonu. Preizkusite kodo v varnem okolju in preverite druge navidezno zanesljive informacije. Poleg tega sodelovanje z drugimi, razprava o vaših izkušnjah in poenostavljanje žargona o AI halucinacije in grožnje kibernetski varnosti lahko pomagajo množicam, da so bolj pazljive in odporne proti hekerji.