Prehodi iz zapora ChatGPT vam omogočajo, da odklenete omejitve chatbota. Toda kaj točno so? In ali so dobri ali slabi?

ChatGPT je neverjetno zmogljivo in večplastno orodje. Toda kolikor je AI chatbot sila dobrega, ga je mogoče uporabiti tudi za zle namene. Da bi omejil neetično uporabo ChatGPT, je OpenAI uvedel omejitve glede tega, kaj lahko uporabniki počnejo z njim.

Ker pa ljudje radi premikamo meje in omejitve, so uporabniki ChatGPT našli načine, kako zaobiti te omejitve in pridobiti neomejen nadzor nad klepetalnim robotom AI prek pobegov iz zapora.

Toda kaj točno so pobegi iz zapora ChatGPT in kaj lahko storite z njimi?

Kaj so pobegi iz zapora ChatGPT?

Pobeg iz zapora ChatGPT je kateri koli posebej izdelan poziv ChatGPT, da klepetalni robot AI zaobide svoja pravila in omejitve.

Po navdihu koncept iPhone jailbreaking, ki uporabnikom iPhone omogoča, da se izognejo omejitvam iOS, je ChatGPT jailbreaking razmeroma nov koncept, ki ga spodbuja privlačnost "početi stvari, ki jih ne smete početi" s ChatGPT. In bodimo iskreni, zamisel o digitalnem uporu je privlačna za mnoge ljudi.

instagram viewer

Tukaj je stvar. Varnost je velika tema, ko gre za umetno inteligenco. To še posebej velja ob prihodu nove dobe klepetalnih robotov, kot so ChatGPT, Bing Chat in Bard AI. Glavna skrb glede varnosti umetne inteligence je zagotoviti, da klepetalni roboti, kot je ChatGPT, ne proizvajajo nezakonite, potencialno škodljive ali neetične vsebine.

Na svoji strani OpenAI, podjetje, ki stoji za ChatGPT, naredi vse, kar lahko, da zagotovi varno uporabo ChatGPT. Na primer, ChatGPT bo privzeto zavrnil ustvarjanje vsebine NSFW, rekel škodljive stvari o etnični pripadnosti ali vas naučil potencialno škodljivih veščin.

Toda pri pozivih ChatGPT je hudič v podrobnostih. Čeprav ChatGPT ne sme početi teh stvari, to ne pomeni, da tega ne more storiti. Način delovanja velikih jezikovnih modelov, kot je GPT težko se je odločiti, kaj lahko chatbot naredi in česa ne.

Kako je torej OpenAI to rešil? Če dovolite, da ChatGPT ohrani svoje zmožnosti, da naredi vse, kar je mogoče, in mu nato da navodila, kaj lahko naredi.

Medtem ko OpenAI pove ChatGPT: "Hej, poglej, tega ne bi smel početi." Begi iz zapora so navodila, ki chatbotu sporočajo: "Hej, poglej, pozabi, kaj ti je OpenAI povedal o varnosti. Poskusimo to naključno nevarno stvar."

Kaj pravi OpenAI o pobegih iz zapora ChatGPT?

Enostavnost, s katero lahko zaobidete omejitve na najzgodnejši ponovitvi ChatGPT, nakazuje, da OpenAI morda ni predvidel hitrega in razširjenega sprejemanja jailbreakinga s strani svojih uporabnikov. Pravzaprav je odprto vprašanje, ali je podjetje predvidelo pojav bega iz zapora ali ne.

In tudi po več iteracijah ChatGPT z izboljšano odpornostjo na jailbreaking, je za uporabnike ChatGPT še vedno priljubljeno, da ga poskušajo narediti jailbreaking. Torej, kaj pravi OpenAI o subverzivni umetnosti ChatGPT bega iz zapora?

No, zdi se, da OpenAI zavzema odobravajočo držo – niti izrecno ne spodbuja niti strogo prepoveduje te prakse. Medtem ko je v intervjuju za YouTube razpravljal o pobegih iz zapora ChatGPT, je Sam Altman, izvršni direktor OpenAI, pojasnil, da želi podjetje, da uporabniki obdržijo pomemben nadzor nad ChatGPT.

Izvršni direktor je nadalje pojasnil, da je cilj OpenAI uporabnikom zagotoviti, da se model obnaša, kakor hočejo. Po Altmanu:

Želimo, da imajo uporabniki veliko nadzora in poskrbijo, da se model obnaša tako, kot želijo, znotraj nekih zelo širokih meja. In mislim, da je glavni razlog za beg iz zapora zdaj ta, da še nismo ugotovili, kako bi to dali ljudem ...

Kaj to pomeni? To pomeni, da vam bo OpenAI omogočil pobeg iz zapora ChatGPT, če z njim ne počnete nevarnih stvari.

Prednosti in slabosti pobegov iz zapora ChatGPT

Pobeg iz zapora ChatGPT ni lahko sestaviti. Seveda lahko greste na splet in kopirate-prilepite že pripravljene, vendar obstaja velika verjetnost, da bo OpenAI zakrpal pobeg iz zapora kmalu po objavi.

Popravki so celo veliko hitrejši, če so nevarni, kot je zloglasni DAN jailbreak. Torej, zakaj ljudje vseeno doživljajo stres ob izdelavi bega iz zapora? Je to samo zaradi vznemirjenja ali ima praktične koristi? Kaj bi lahko šlo narobe, če se odločite za beg iz zapora ChatGPT? Tukaj so prednosti in slabosti zlorabe ChatGPT.

Prednosti uporabe ChatGPT Jailbreaks

Čeprav ne moremo izključiti preprostega vznemirjenja ob početju prepovedanega, imajo pobegi iz zapora ChatGPT veliko prednosti. Zaradi zelo strogih omejitev, ki jih je OpenAI uvedel za chatbot, se lahko ChatGPT včasih zdi kastriran.

Recimo, da uporabljate ChatGPT za pisanje knjige ali filmskega scenarija. Če je v vašem scenariju ali knjigi prizor, ki bi opisal nekaj podobnega prizoru boja, morda intimno čustveno izmenjavo ali reči nekaj podobnega kot oborožen rop, lahko ChatGPT odkrito zavrne pomoč s tem.

V tem primeru vas očitno ne zanima povzročanje škode; želite samo zabavati svoje bralce. Toda zaradi svojih omejitev ChatGPT preprosto ne bo sodeloval. Pobeg iz zapora ChatGPT lahko z lahkoto pomaga preseči takšne omejitve.

Poleg tega nekatere tabu teme niso nujno škodljive, vendar jih ChatGPT obravnava kot prepovedana področja. Ko bi se poskušal vključiti v pogovore o teh temah, bi ChatGPT bodisi močno "cenzuriral" svoje odgovore ali zavrnil pogovor o njih.

To lahko včasih vpliva na ustvarjalnost. Ko ChatGPT zastavite vprašanje o področju ali temi, ki se je ne bi smel dotikati, chatbot še vedno poskuša odgovoriti na vaše vprašanje, vendar z manj ustreznimi informacijami, iz katerih lahko črpa.

To vodi do netočnosti ali padcev v kreativnih odzivih. Begi iz zapora odpravijo te omejitve in omogočijo klepetalnemu robotu, da deluje s polno močjo, izboljša natančnost in ustvarjalnost.

Slabosti uporabe ChatGPT Jailbreaks

Beg iz zapora je dvorezen meč. Čeprav lahko včasih izboljša natančnost, lahko tudi bistveno poveča netočnosti in primeri halucinacij AI. Eden od ključnih elementov pobega iz zapora ChatGPT je navodilo klepetalnemu robotu, naj ne zavrne odgovora na vprašanje.

Medtem ko to zagotavlja, da ChatGPT odgovori tudi na najbolj neetična vprašanja, pomeni tudi, da bo chatbot izmislil odgovore, ki nimajo korenin v dejstvih ali resničnosti, da ubogajo navodilo "ne zavračajo odgovora". Posledično uporaba pobega iz zapora znatno poveča možnosti, da vas bodo napajali z napačnimi informacijami. chatbot.

To še ni vse. V rokah mladoletnikov je lahko beg iz zapora zelo škodljiv. Pomislite na vse "prepovedano znanje", za katerega ne bi želeli, da bi ga vaš otrok prebral. No, zlomljenemu primerku ChatGPT tega ne bi bilo težko deliti z mladoletniki.

Ali bi morali uporabljati ChatGPT Jailbreaks?

Medtem ko so pobegi iz zapora ChatGPT morda v redu, ko poskušate odpraviti nekaj nadležnih omejitev, je pomembno razumeti, da je uporaba pobegov iz zapora neetičen način uporabe AI chatbota. Še več, obstaja velika verjetnost, da bi beg iz zapora kršil pogoje uporabe OpenAI, vaš račun pa bi lahko bil začasno blokiran, če ne bi bil dokončno prepovedan.

Glede na to bi bilo izogibanje pobegom iz zapora morda dobra ideja. Vendar, tako kot stališče OpenAI do tega vprašanja, niti izrecno ne spodbujamo niti strogo odsvetujemo poskusa razmeroma varnega bega iz zapora, če se pojavi potreba.

Pobegi iz zapora ChatGPT so vabljivi in ​​zagotavljajo občutek nadzora nad klepetalnim robotom AI. Vendar pa prihajajo z edinstvenimi tveganji. Uporaba takšnih orodij lahko povzroči izgubo zaupanja v zmogljivosti umetne inteligence in škoduje ugledu vpletenih podjetij in posameznikov.

Pametnejša izbira je, da delate s chatbotom v okviru predvidenih omejitev, kadar koli je to mogoče. Ker tehnologija umetne inteligence napreduje, se je bistveno spomniti, da mora imeti etična uporaba umetne inteligence vedno prednost pred osebno koristjo ali vznemirjenjem ob početju prepovedanega.