Generativni AI je odličen, vendar svoje informacije vedno predstavlja z absolutno avtoriteto. Kar je super, razen če ne halucinira resnice.
Halucinacija umetne inteligence (AI) zveni begajoče. Verjetno si mislite: "Ali niso halucinacije človeški pojav?" No, ja, včasih je bil samo človek pojav, dokler umetna inteligenca ni začela kazati človeških lastnosti, kot so prepoznavanje obraza, samoučenje in govor priznanje.
Na žalost je AI prevzel nekatere negativne lastnosti, vključno s halucinacijami. Torej, ali je halucinacija umetne inteligence podobna halucinaciji, ki jo doživljajo ljudje?
Kaj je AI halucinacija?
Halucinacija umetne inteligence se pojavi, ko model AI ustvari rezultate, ki se razlikujejo od pričakovanih. Upoštevajte, da so nekateri modeli umetne inteligence usposobljeni za namerno ustvarjanje rezultatov, ki niso povezani z nobenim vhodom (podatki) iz resničnega sveta.
na primer vrhunski AI generatorji besedila v umetnost, kot je DALL-E 2, lahko ustvarjalno ustvari nove slike, ki jih lahko označimo kot "halucinacije", saj ne temeljijo na podatkih iz resničnega sveta.
Halucinacija umetne inteligence v modelih obdelave velikih jezikov
Razmislimo, kako bi izgledale halucinacije AI v velikem modelu jezikovne obdelave, kot je ChatGPT. Halucinacija ChatGPT bi povzročila, da bi vam bot dal napačno dejstvo z neko trditvijo, tako da bi taka dejstva seveda vzeli za resnico.
Preprosto povedano, gre za izmišljene izjave umetno inteligentnega chatbota. Tukaj je primer:
Pri nadaljnji poizvedbi se je ChatGPT pojavil s tem:
Halucinacije AI v računalniškem vidu
Razmislimo o drugem področju umetne inteligence, ki lahko doživi halucinacije umetne inteligence: Računalniški vid. Spodnji kviz prikazuje montažo 4x4 z dvema subjektoma, ki sta si zelo podobna. Slike so mešanica krompirjevega čipsa in listov za žar.
Izziv je izbrati krompirjev čips, ne da bi zadeli liste v montaži. Ta slika se lahko računalniku zdi zapletena in morda ne bo mogel razlikovati med krompirjevim čipsom BBQ in listi.
Tukaj je še ena montaža z mešanico podob pudlja in svinjske nitke. Računalnik najverjetneje ne bi mogel razlikovati med njimi, zato bi pomešal slike.
Zakaj pride do halucinacij AI?
Halucinacija umetne inteligence se lahko pojavi zaradi kontradiktornih primerov – vhodnih podatkov, ki zavedejo aplikacijo umetne inteligence, da jih napačno razvrsti. Na primer, pri usposabljanju aplikacij AI razvijalci uporabljajo podatke (sliko, besedilo ali druge); če so podatki spremenjeni ali popačeni, aplikacija interpretira vnos drugače in daje napačen izhod.
Nasprotno pa lahko človek še vedno natančno prepozna in identificira podatke kljub popačenju. To lahko označimo kot zdrav razum – človeška lastnost, ki je AI še nima. V tem videoposnetku si oglejte, kako je umetna inteligenca preslepljena z kontradiktornimi primeri:
Glede velikih modelov, ki temeljijo na jeziku, kot je npr ChatGPT in njegove alternative, lahko halucinacije nastanejo zaradi netočnega dekodiranja iz transformatorja (model strojnega učenja).
V AI je transformator model globokega učenja, ki uporablja samopozornost (pomenska razmerja med besedami v stavek) za ustvarjanje besedila, podobnega tistemu, kar bi človek napisal z uporabo kodirnika-dekoderja (vhod-izhod) zaporedje.
Tako lahko transformatorji, delno nadzorovani model strojnega učenja, ustvarijo novo telo besedila (izhod) iz velikega korpusa besedilnih podatkov, uporabljenih pri njegovem usposabljanju (vnos). To naredi tako, da na podlagi prejšnjih besed predvidi naslednjo besedo v nizu.
Kar zadeva halucinacije, če bi bil jezikovni model uren na nezadostnih in netočnih podatkih in virih, se pričakuje, da bi bil rezultat izmišljen in netočen. Jezikovni model lahko ustvari zgodbo ali pripoved brez logičnih nedoslednosti ali nejasnih povezav.
V spodnjem primeru je bil ChatGPT pozvan, naj navede besedo, ki je podobna "revolt" in se začne z "b." Tukaj je njegov odgovor:
Pri nadaljnjih preiskavah je vedno znova dajal napačne odgovore z visoko stopnjo zaupanja.
Zakaj torej ChatGPT ne more dati točnega odgovora na te pozive?
Lahko se zgodi, da jezikovni model ni opremljen za obravnavanje precej zapletenih pozivov, kot so ti ali oni ne more natančno razložiti poziva, pri čemer ignorira poziv o podajanju podobne besede z določeno abeceda.
Kako opazite halucinacije AI?
Zdaj je očitno, da lahko aplikacije umetne inteligence halucinirajo – ustvarijo odzive drugače od pričakovanega rezultata (dejstev ali resnice) brez kakršnih koli zlonamernih namenov. Zaznavanje in prepoznavanje halucinacij umetne inteligence pa je odvisno od uporabnikov takšnih aplikacij.
Tukaj je nekaj načinov za odkrivanje halucinacij AI med uporabo običajnih aplikacij AI:
1. Modeli obdelave velikih jezikov
Čeprav redko, če opazite slovnično napako v vsebini, ki jo ustvari velik model obdelave, kot je ChatGPT, bi to moralo dvigniti obrv in posumiti na halucinacije. Podobno, ko vsebina, ustvarjena z besedilom, ne zveni logično, ni v korelaciji z danim kontekstom ali se ujema z vhodnimi podatki, bi morali sumiti na halucinacije.
Uporaba človeške presoje ali zdravega razuma lahko pomaga odkriti halucinacije, saj lahko ljudje zlahka prepoznajo, kdaj besedilo nima smisla ali sledi resničnosti.
2. Računalniški vid
Računalniški vid kot veja umetne inteligence, strojnega učenja in računalništva omogoča računalnikom, da prepoznajo in obdelajo slike kot človeške oči. Uporaba konvolucijske nevronske mreže, se zanašajo na neverjetno količino vizualnih podatkov, ki jih uporabljajo pri svojem usposabljanju.
Odstopanje od vzorcev vizualnih podatkov, uporabljenih pri usposabljanju, bo povzročilo halucinacije. Na primer, če računalnik ni bil usposobljen s slikami teniške žogice, bi jo lahko prepoznal kot zeleno pomarančo. Ali če računalnik prepozna konja poleg človeškega kipa kot konja poleg pravega človeka, potem je prišlo do halucinacije AI.
Če želite opaziti halucinacije računalniškega vida, primerjajte ustvarjeni rezultat s tem, kar naj bi videl [normalen] človek.
3. Samovozeči avtomobili
Zahvaljujoč umetni inteligenci se samovozeči avtomobili postopoma infiltrirajo na avtomobilski trg. Pionirji, kot sta Tesla Autopilot in Fordov BlueCruise, so zagovarjali sceno samovozečih avtomobilov. Lahko se odjaviš kako in kaj vidi avtopilot Tesla da bi nekoliko razumeli, kako AI poganja samovozeče avtomobile.
Če ste lastnik enega od takih avtomobilov, bi radi vedeli, ali vaš avto z umetno inteligenco halucinira. Eden od znakov bo, če se zdi, da vaše vozilo med vožnjo odstopa od običajnih vzorcev obnašanja. Na primer, če vozilo zavira ali nenadoma zavije brez očitnega razloga, vaše vozilo z umetno inteligenco morda halucinira.
Tudi sistemi umetne inteligence lahko halucinirajo
Ljudje in modeli AI halucinacije doživljajo različno. Ko gre za umetno inteligenco, se halucinacije nanašajo na napačne rezultate, ki so kilometre oddaljeni od realnosti ali nimajo smisla v kontekstu danega poziva. Klepetalni robot z umetno inteligenco lahko na primer poda slovnično ali logično napačen odgovor ali napačno identificira predmet zaradi hrupa ali drugih strukturnih dejavnikov.
Halucinacije umetne inteligence niso posledica zavesti ali podzavesti, kot bi opazili pri ljudeh. Namesto tega je posledica neustreznosti ali nezadostnosti podatkov, uporabljenih pri usposabljanju in programiranju sistema AI.