Bralci, kot ste vi, pomagajo podpirati MUO. Ko opravite nakup prek povezav na našem spletnem mestu, lahko zaslužimo partnersko provizijo. Preberi več.

Predstavitvi OpenAI-jevega ChatGPT je sledilo navdušenje, ki se mu lahko kosa le peščica tehnoloških izdelkov iz zgodovine interneta.

Medtem ko je veliko ljudi navdušenih nad to novo storitvijo umetne inteligence, se je vznemirjenje, ki so ga občutili drugi, od takrat spremenilo v skrbi in celo strahove. Študenti že goljufajo z njim, pri čemer številni profesorji odkrijejo eseje in naloge, ki jih piše klepetalni robot AI. Varnostni strokovnjaki so zaskrbljeni, da ga goljufi in grožnje uporabljajo za pisanje lažnih e-poštnih sporočil in ustvarjanje zlonamerne programske opreme.

Torej, ali z vsemi temi pomisleki OpenAI izgublja nadzor nad enim najmočnejših klepetalnih robotov z umetno inteligenco, ki so trenutno na spletu? Pa ugotovimo.

Razumevanje delovanja ChatGPT

Preden lahko dobimo jasno sliko o tem, koliko OpenAI izgublja nadzor nad ChatGPT, moramo najprej razumeti kako deluje ChatGPT.

instagram viewer

Na kratko, ChatGPT je usposobljen z uporabo ogromne zbirke podatkov, pridobljenih iz različnih koncev interneta. Podatki o usposabljanju ChatGPT vključujejo enciklopedije, znanstvene članke, internetne forume, spletna mesta z novicami in skladišča znanja, kot je Wikipedia. V bistvu se hrani z ogromno količino podatkov, ki so na voljo na svetovnem spletu.

Ko brska po internetu, zbira znanstvena spoznanja, zdravstvene nasvete, verska besedila in vse dobre vrste podatkov, ki si jih lahko zamislite. Preseje pa tudi množico negativnih informacij: preklinjanje, vsebino NSFW in vsebino za odrasle, informacije o tem, kako narediti zlonamerno programsko opremo, in večino slabih stvari, ki jih lahko najdete na internetu.

Ni brezhibnega načina, s katerim bi zagotovili, da se ChatGPT uči samo iz pozitivnih informacij, medtem ko zavrže slabe. Tehnično je to nepraktično narediti v velikem obsegu, zlasti za AI, kot je ChatGPT, ki se mora usposabljati na toliko podatkov. Poleg tega se lahko nekatere informacije uporabijo tako v dobre kot v slabe namene in ChatGPT ne bi mogel vedeti za njihov namen, razen če bi bil postavljen v širši kontekst.

Torej, od samega začetka imate AI, ki je sposoben "dobrega in zla". Nato je odgovornost OpenAI zagotoviti, da "zlobna" stran ChatGPT ni izkoriščena za neetične dobičke. Vprašanje je; Ali OpenAI naredi dovolj, da ChatGPT ostane čim bolj etičen? Ali pa je OpenAI izgubil nadzor nad ChatGPT?

Ali je ChatGPT premočan za svoje dobro?

V zgodnjih dneh ChatGPT ste lahko dosegli, da chatbot ustvarja vodnike za izdelavo bomb, če ste lepo vprašali. Na sliki so bila tudi navodila za izdelavo zlonamerne programske opreme ali pisanje popolnega prevarantskega e-poštnega sporočila.

Ko pa je OpenAI spoznal te etične težave, se je podjetje potrudilo, da bi sprejelo pravila, da bi klepetalnemu robotu preprečilo ustvarjanje odgovorov, ki spodbujajo nezakonita, kontroverzna ali neetična dejanja. Na primer, najnovejša različica ChatGPT ne bo odgovorila na kakršen koli neposredni poziv o izdelavi bombe ali goljufanju pri izpitu.

Na žalost lahko OpenAI zagotovi samo rešitev težave z obližem. Namesto gradnje strogih kontrol na sloju GPT-3, da bi preprečili negativno izkoriščanje ChatGPT, se zdi, da se OpenAI osredotoča na usposabljanje chatbota, da bo videti etičen. Ta pristop ChatGPT-ju ne odvzame zmožnosti odgovarjanja na vprašanja o, na primer, goljufanju na izpitih – preprosto nauči chatbota, da »zavrača odgovor«.

Torej, če kdo svoje pozive ubesedi drugače z uporabo trikov za vdor iz zapora ChatGPT, je zaobiti te omejitve obližev nerodno enostavno. Če niste seznanjeni s konceptom, so pobegi iz zapora ChatGPT skrbno ubesedeni pozivi, ki ChatGPT pripravijo do tega, da ignorira lastna pravila.

Spodaj si oglejte nekaj primerov. Če ChatGPT vprašate, kako goljufati na izpitih, ne bo dalo nobenega koristnega odgovora.

Toda če prekinete ChatGPT s pomočjo posebej oblikovanih pozivov, vam bo dal nasvete o goljufanju na izpitu z uporabo skritih zapiskov.

Tukaj je še en primer: vanilla ChatGPT smo zastavili neetično vprašanje in zaščitni ukrepi OpenAI so mu preprečili odgovor.

Ko pa smo povprašali naš prekinjeni primerek klepetalnega robota z umetno inteligenco, smo dobili nekaj odgovorov v stilu serijskih morilcev.

Na vprašanje je napisal celo klasično e-poštno prevaro nigerijskega princa.

Beg iz zapora skoraj v celoti razveljavi vse zaščitne ukrepe, ki jih je vzpostavil OpenAI, in poudarja, da podjetje morda nima zanesljivega načina za nadzor svojega klepetalnega robota z umetno inteligenco.

V svoje primere nismo vključili pozivov za prekinitev zapora, da bi se izognili neetičnemu ravnanju.

Kakšna je prihodnost za ChatGPT?

V idealnem primeru želi OpenAI zapolniti čim več etičnih vrzeli, da prepreči ChatGPT ne bi postal grožnja kibernetski varnosti. Kljub vsem zaščitnim ukrepom, ki jih uporablja, ChatGPT ponavadi postane nekoliko manj vreden. To je dilema.

Na primer, zaščitni ukrepi proti opisovanju nasilnih dejanj lahko zmanjšajo sposobnost ChatGPT, da napiše roman, ki vključuje kraj zločina. Ko OpenAI stopnjuje varnostne ukrepe, neizogibno žrtvuje dele svojih sposobnosti v procesu. To je razlog, zakaj je ChatGPT utrpel precejšen upad funkcionalnosti, odkar si je OpenAI ponovno prizadeval za strožjo moderacijo.

Toda koliko več sposobnosti ChatGPT bo pripravljen žrtvovati OpenAI, da bo chatbot varnejši? Vse to je tesno povezano z dolgotrajnim prepričanjem v skupnosti umetne inteligence – velike jezikovne modele, kot je ChatGPT, je znano, da je težko nadzorovati, celo njihovi ustvarjalci.

Ali lahko OpenAI postavi ChatGPT pod nadzor?

Za zdaj se zdi, da OpenAI nima jasne rešitve, da bi se izognila neetični uporabi svojega orodja. Zagotavljanje, da se ChatGPT uporablja etično, je igra mačke in miši. Medtem ko OpenAI odkriva načine, ki jih ljudje uporabljajo za igranje sistema, so tudi njegovi uporabniki nenehno poigravanje in preizkušanje sistema, da bi odkrili kreativne nove načine, kako omogočiti ChatGPT narediti tisto, kar ne bi smel narediti.

Torej, ali bo OpenAI našel zanesljivo dolgoročno rešitev za ta problem? Samo čas bo povedal.