Microsoftova umetna inteligenca Tay je v manj kot enem dnevu prešla iz obetavne umetne inteligence v popolno katastrofo. Evo, kaj se je podjetje naučilo.

Klepetalni roboti z umetno inteligenco, kot je ChatGPT, vse bolj postajajo sestavni del sodobne tehnologije, vendar mnogim neznana generativna umetna inteligenca ni bila vedno tako dobra, kot je danes. Pravzaprav nam je leta 2016 klepetalni robot Tay, ki ga je izdelal Microsoft, pokazal, kako hitro se lahko umetna inteligenca izogne.

Raziščimo, kaj je bil Microsoftov AI chatbot Tay, zakaj je propadel, njegove polemike in lekcije, ki se jih je podjetje naučilo po svojem katastrofalnem neuspehu.

Kaj je bil Microsoftov Tay?

Tay je bil klepetalni robot z umetno inteligenco, ki ga je razvil Microsoft in je bil na voljo prek Twitterja 23. marca 2016. Klepetalni robot je bil razvit za 18- do 24-letnike v ZDA za "razvedrilne namene" in za "eksperimentiranje in izvajanje raziskav o pogovornem razumevanju."

Tay ni bil mišljen kot prefinjen klepetalni robot, kot je ChatGPT, ampak prijazen bot z umetno inteligenco na Twitterju, s katerim bi se lahko pogovarjali – nekako tako

instagram viewer
Moj AI na Snapchatu, ampak za druženje.

Zakaj je Microsoft zaprl Tay?

Microsoft je odstranil Taya v 24 urah po objavi – z dobrim razlogom. Skoraj takoj po predstavitvi Taya so uporabniki Twitterja začeli zlorabljati storitev tako, da so hranili chatbot napačnih informacij, jih učijo slabšalnih izrazov in jih spodbujajo, da so vse bolj žaljivi, samo da bi videli, kako daleč bi šel.

In res je šlo daleč. V nekaj urah po lansiranju je Tay tvitnil nekaj najbolj žaljivih rasnih žalitev, širil sovražni govor, promoviral nacizem in celo navdihoval »rasno vojno«. Joj! Jasno je, da se je Microsoft imel grozno in ni mogel dovoliti, da se storitev nadaljuje.

V objavite na uradnem Microsoftovem blogu, Microsoftov korporativni podpredsednik Peter Lee je ponovil isto:

Zelo nam je žal za nenamerne žaljive in škodljive tvite Taya, ki ne predstavljajo, kdo smo ali za kaj se zavzemamo, niti tega, kako smo zasnovali Tay. Tay je zdaj brez povezave in Tay bomo poskušali vrniti šele, ko bomo prepričani, da lahko bolje predvidimo zlonamerne namere, ki so v nasprotju z našimi načeli in vrednotami.

Tayev debakel je le eden od mnogih nevarnosti umetne inteligence in močan opomnik, zakaj je treba njegov razvoj izvajati z največjo previdnostjo in nadzorom.

6 lekcij, ki se jih je Microsoft naučil po Tayu

Tay je bil popolna katastrofa, vendar je Microsoft tudi naučil nekaj ključnih lekcij, ko je šlo za razvoj orodij AI. In glede na to, kar je vredno, je verjetno na bolje, da se je Microsoft prej kot slej naučil svojih lekcij, kar mu je omogočilo prednost pred Googlom in razvoj novega Brskalnik Bing, ki ga poganja AI.

Tukaj je nekaj teh lekcij:

1. Internet je poln trolov

Internet je poln trolov in to ni ravno novica, kajne? Očitno je bilo Microsoftu leta 2016 tako. Ne trdimo, da je izdelava chatbota za "zabavne namene", namenjenega 18- do 24-letnikom, imela kaj opraviti s stopnjo zlorabe storitve. Vsekakor pa tudi to ni bila najbolj pametna ideja.

Ljudje seveda želijo preizkusiti meje novih tehnologij in navsezadnje je naloga razvijalca, da odgovarja za te zlonamerne napade. Na nek način notranji troli delujejo kot povratni mehanizem za zagotavljanje kakovosti, vendar to ne pomeni, da je treba chatbota izpustiti brez ustreznih zaščitnih ukrepov pred lansiranjem.

2. AI ne more intuitivno razlikovati med dobrim in slabim

Koncept dobrega in zla je nekaj, česar AI intuitivno ne razume. Programirati ga je treba tako, da simulira znanje o tem, kaj je prav in kaj narobe, kaj je moralno in nemoralno ter kaj je normalno in nenavadno.

Te lastnosti so ljudem kot družbenim bitjem bolj ali manj naravne, vendar umetna inteligenca ne more oblikovati neodvisne presoje, čutiti empatije ali občutiti bolečine. Zato je bot, ko so uporabniki Twitterja hranili Taya z vsemi vrstami propagande, preprosto sledil – ne zavedajoč se etičnosti informacij, ki jih je zbiral.

3. Ne trenirajte modelov AI z uporabo pogovorov ljudi

Tay je bil ustvarjen z "rudarjenjem ustreznih javnih podatkov in uporabo umetne inteligence ter uredništva, ki ga je razvilo osebje, vključno z improvizacijskih komikov." Usposabljanje modela AI z uporabo pogovorov ljudi na internetu je grozljivo ideja.

In preden za to krivite Twitter, vedite, da bi bil rezultat verjetno enak ne glede na platformo. Zakaj? Ker ljudje preprosto nismo najboljši na internetu. Postanejo čustveni, uporabljajo žargonske besede in izkoriščajo svojo anonimnost, da bi bili zlobni.

4. Umetni inteligenci manjka zdrava pamet in ne razume sarkazma

Umetna inteligenca se danes zdi bolj intuitivna (ali, natančneje rečeno, boljša je pri simulaciji intuicije), vendar se še vedno včasih spopada s prepoznavanjem sarkazma in figur govora. Še toliko bolj je to veljalo leta 2016. Kar je očitno ljudem, ni očitno AI; z drugimi besedami, nima zdrave pameti.

AI, kot je Tay, ne razumejo, zakaj smo ljudje takšni, kot smo, se obnašamo, kot se, in ekscentričnosti vsakega posameznika. Morda se obnaša in zveni človeško do presenetljive stopnje, vendar dobro programiranje lahko seže le tako daleč.

5. AI mora biti programiran za zavrnitev neveljavnih zahtev

AI je zelo vtisljiv in mora biti programiran tako, da zavrne zahteve, ki povzročajo škodo. Tudi danes, po vsem našem napredku pri obdelavi naravnega jezika, ljudje še vedno najdejo jezikovne vrzeli v narediti klepetalne robote z umetno inteligenco, kot je ChatGPT, "halucinirati" in zagotavljanje rezultatov, ki naj bi bili omejeni.

Gre za to, da je umetna inteligenca popolnoma poslušna, kar je morda njena največja prednost in slabost. Vse, česar ne želite, da chatbot počne, je treba vanj ročno programirati.

6. Klepetalni roboti z umetno inteligenco se nikoli ne smejo pustiti brez nadzora

Dokler se umetna inteligenca ne more regulirati, je ne moremo pustiti brez nadzora. O današnjem AI lahko razmišljate kot o čudežnem otroku; na nek način je sijajen, a je kljub temu še vedno otrok. Če ga pustite brez nadzora, bodo ljudje izkoristili njegove slabosti – in Tay je bil odličen primer tega.

Umetna inteligenca je orodje, tako kot internet, vendar sta stopnja in obseg, v katerem se lahko stvari z umetno inteligenco izognejo, veliko večji od tistega, kar smo izkusili v zgodnjih dneh interneta.

AI potrebuje stalen nadzor in regulacijo

Tay ni edini klepetalni robot, ki je postal lopov – podobnih primerov je bilo še veliko. Toda tisto, zaradi česar je izstopal, je velika hitrost, s katero je to storila – in dejstvo, da ga je izdelal tehnološki velikan, kot je Microsoft.

Primeri, kot je ta, kažejo, kako previdni moramo biti pri razvoju orodij AI, še posebej, če so namenjena uporabi običajnih ljudi.