Razprave o občutku umetne inteligence niso nič novega, vendar so novice o Googlovi umetni inteligenci LaMDA podžgale plamen. Potem ko je inženir trdil, da je bot pri zavesti, celo da ima dušo, so se spet pojavila nekatera znana vprašanja.
Ali je AI, kot je LaMDA, dejansko čuteč ali samozavedajoč se, in če je tako, kako lahko to poveste? Ali je pomembno?
Kaj je LaMDA?
LaMDA, okrajšava za Language Model for Dialogue Applications, se je prvič pojavila leta 2021 na Googlovi konferenci za razvijalce. Napredni sistem umetne inteligence naj bi pomagal graditi druge, manjše chatbote. Ko ga je Google prvič predstavil, je napovedal načrte za njegovo integracijo v vse, kar bo pomagalo storitvam, kot sta Google Assistant in Search, da se bodo počutile bolj človeške ali vsaj naravne.
Ko je Googlov inženir Blake Lemoine govoril z LaMDA, da bi ugotovil, ali uporablja sovražni govor, je dobil drugačen vtis. Lemoine je trdil, da je LaMDA čuteč, in če ne bi vedel, da je bot, bi mislil, da gre za osemletnega otroka.
Po pogovorih z LaMDA je Lemoine poskušal dokazati, da je pri zavesti, in braniti tisto, za kar je verjel, da so njegove zakonite pravice. V odgovor je Google Lemoinea poslal na plačan upravni dopust zaradi kršitve pogodbe o zaupnosti.
Ali je LaMDA dejansko čuteč?
Torej, ali je LaMDA dejansko čuteč? Večina strokovnjakov, ki so razmišljali o tem vprašanju, je skeptičnih. LaMDA je zelo napredna platforma za klepet z umetno inteligenco, ki analizira trilijone besed iz interneta, zato je vešča, da zveni kot prava oseba.
To ni prvič, da je eden od Googlovih AI ljudi preslepil, da so mislili, da je človek. Leta 2018 je Google predstavil svoj Duplex AI tako, da je poklical restavracijo, da rezervira mizo. Zdi se, da uslužbenec na drugi strani v nobenem trenutku ni dvomil, da se pogovarjajo z osebo.
Občutek je težko definirati, čeprav večina ljudi dvomim, da je AI dosegel to točko še. Vendar pa pomembno vprašanje morda ni, ali je LaMDA dejansko čuteča, ampak kakšna je razlika, če lahko ljudi zavede, da mislijo, da je.
Možne pravne posledice LaMDA
Položaj LaMDA odpira veliko pravnih in etičnih vprašanj. Prvič, nekateri ljudje se morda sprašujejo, ali je imel Google prav, da je Lemoina pustil na dopustu, ker je o tem spregovoril.
V skladu z oddelkom 740 newyorškega delovnega prava zaščita žvižgačev ščiti zaposlene pred takimi posledice, če menijo, da ravnanja njihovega delodajalca kršijo zakon ali predstavljajo veliko tveganje za javnost varnost. Domnevna občutljivost LaMDA ne izpolnjuje povsem te zakonske zahteve, a bi morala?
Podeljevanje pravic AI je zapletena tema. Medtem ko AI lahko ustvarjajo stvari in se zdijo človeški, lahko naletite na nekaj zapletenih situacij, če imajo ti stroji pravno zaščito. Zakonske pravice delujejo okoli nagrad in kazni, ki ne vplivajo na AI, kar otežuje pravosodje.
Če samovozeči avtomobil zbije pešca, ali je AI kriv, če ga zakon obravnava kot človeka? In če je tako, žrtvi ne priznava pravice, saj tehnično ne morete kaznovati umetne inteligence na enak način, kot bi človeka.
Drugo vprašanje, ki se pojavi pri LaMDA in podobnih klepetalnih robotih z umetno inteligenco, je njihova varnost. Če se ti boti zdijo prepričljivo resnični, jim bodo ljudje morda bolj zaupali in jih bili pripravljeni dati bolj občutljive informacije. To odpira vrata številnim pomislekom glede zasebnosti in varnosti, če ta tehnologija pade v napačne roke.
AI uvaja zapletena etična vprašanja
Umetne inteligence, kot je LaMDA, postajajo vse bolj izpopolnjene in realistične. Ko ta trend narašča, bi morala podjetja in zakonodajalci ponovno oceniti, kako obravnavajo umetno inteligenco in kako bi te odločitve lahko vplivale na pravico in varnost.
V sedanjem stanju Googlova umetna inteligenca LaMDA morda ni čuteča, vendar je dovolj dobra, da ljudi zavede, da mislijo, da je, kar bi moralo sprožiti nekaj alarmov.