ChatGPT je lahko koristno orodje, ne glede na to, ali imate dobre ali slabe namene. To pomeni, da vam lahko ChatGPT pomaga, če želite sodelovati pri goljufijah.

Čeprav mnogi digitalni domorodci hvalijo ChatGPT, se nekateri bojijo, da naredi več škode kot koristi. Novice o prevarantih, ki ugrabijo AI, krožijo po internetu in povečujejo nelagodje med skeptiki. Menijo, da je ChatGPT celo nevarno orodje.

Klepetalni roboti z umetno inteligenco niso popolni, vendar se jim ni treba povsem izogibati. Tukaj je vse, kar morate vedeti o tem, kako sleparji zlorabljajo ChatGPT, in kaj lahko storite, da jih ustavite.

Ali bo ChatGPT ogrozil vaše osebne podatke?

Večina varnostnih pomislekov glede ChatGPT izvira iz špekulacij in nepreverjenih poročil. Navsezadnje je bila platforma predstavljena šele novembra 2022. Za nove uporabnike je naravno, da imajo napačne predstave o zasebnosti in varnosti neznanih orodij.

Po navedbah Pogoji uporabe OpenAI, tukaj je opisano, kako ChatGPT obravnava naslednje podatke:

Osebno določljivi podatki

Govorice pravijo, da ChatGPT prodaja osebne podatke (PII).

Platformo je lansiral OpenAI, ugleden raziskovalni laboratorij AI, ki ga financirajo tehnološki vlagatelji, kot sta Microsoft in Elon Musk. ChatGPT naj uporablja podatke o strankah samo za zagotavljanje storitev, navedenih v politiko zasebnosti.

Poleg tega ChatGPT zahteva minimalne informacije. Račun lahko ustvarite samo s svojim imenom in e-poštnim naslovom.

Pogovori

OpenAI skrbi za varnost pogovorov ChatGPT, vendar si pridržuje pravico, da jih spremlja. Trenerji AI nenehno iščejo področja izboljšav. Ker platforma obsega obsežne, a omejene nabore podatkov, so za odpravljanje napak, hroščev in ranljivosti potrebne posodobitve celotnega sistema.

Vendar pa lahko OpenAI spremlja samo pogovore za raziskovalne namene. Njihova distribucija ali prodaja tretjim osebam krši lastne pogoje uporabe.

Informacije javnega značaja

Glede na BBC, OpenAI je usposobil ChaGPT za 300 milijard besed. Zbira podatke z javnih spletnih strani, kot so platforme družbenih medijev, poslovna spletna mesta in razdelki za komentarje. ChatGPT ima verjetno vaše podatke, razen če ste zapustili mrežo in izbrisali svoj digitalni odtis.

Kakšna varnostna tveganja predstavlja ChatGPT?

Čeprav ChatGPT sam po sebi ni nevaren, platforma še vedno predstavlja varnostna tveganja. Prevaranti lahko zaobidejo omejitve za izvedbo različnih kibernetskih napadov.

1. Prepričljiva lažna e-poštna sporočila

Namesto da bi ure in ure pisali e-pošto, prevaranti uporabljajo ChatGPT. Je hiter in natančen. Napredni jezikovni modeli (kot sta GPT-3.5 in GPT-4) lahko ustvarijo na stotine skladnih, prepričljivih lažnih e-poštnih sporočil v nekaj minutah. Sprejmejo celo edinstvene tone in sloge pisanja.

Ker ChatGPT otežuje odkrivanje poskusov vdiranja, bodite posebej previdni, preden odgovorite na e-pošto. Na splošno se izogibajte razkrivanju informacij. Upoštevajte, da zakonita podjetja in organizacije redko zahtevajo zaupne osebne podatke prek naključnih e-poštnih sporočil.

Naučite se prepoznati poskuse vdora. Čeprav ponudniki e-pošte filtrirajo neželeno pošto, bi lahko nekateri zvijačni padli skozi razpoke. Še vedno bi morali vedeti, kako so videti lažna sporočila.

2. Kraja podatkov

ChatGPT uporablja odprtokodni LLM, ki ga lahko vsak spreminja. Kodirniki, ki obvladajo velike jezikovne modele (LLM) in strojno učenje, pogosto integrirajo vnaprej usposobljene modele umetne inteligence v svoje podedovane sisteme. Usposabljanje AI na novih naborih podatkov spremeni funkcionalnost. Na primer, ChatGPT postane psevdofitnes strokovnjak, če mu daste recepte in vadbene rutine.

Čeprav je sodelovanje in priročno, odprtokodna uporaba pušča tehnologije ranljive za zlorabe. Izkušeni kriminalci že izkoriščajo ChatGPT. Usposabljajo ga na velikih količinah ukradenih podatkov in platformo spremenijo v osebno bazo podatkov za goljufije.

Ne pozabite: nimate nadzora nad delovanjem prevarantov. Najboljši pristop je, da se obrnete na Zvezno komisijo za trgovino (FTC), ko opazite znaki kraje identitete.

3. Proizvodnja zlonamerne programske opreme

ChatGPT piše uporabne delčke kode v različnih programskih jezikih. Večina vzorcev zahteva minimalne spremembe za pravilno delovanje, še posebej, če strukturirate jedrnat poziv. To funkcijo lahko izkoristite za razvoj aplikacij in spletnih mest.

Ker je bil ChatGPT usposobljen za milijarde naborov podatkov, pozna tudi nedovoljene prakse, kot je razvoj zlonamerne programske opreme in virusov. OpenAI prepoveduje chatbotom pisanje zlonamernih kod. Toda prevaranti zaobidejo te omejitve s prestrukturiranjem pozivov in postavljanjem natančnih vprašanj.

Spodnja fotografija prikazuje, da ChatGPT zavrača pisanje kode za zlonamerne namene.

Medtem pa spodnja fotografija prikazuje, da vam bo ChatGPT dal škodljive informacije, če boste svoje pozive pravilno izrazili.

4. Kraja intelektualne lastnine

Neetični blogerji vrtijo vsebino s pomočjo ChatGPT. Ker platforma deluje na naprednih LLM-jih, lahko hitro preformulira na tisoče besed in se izogne ​​oznakam plagiatorstva.

ChatGPT je preoblikoval spodnje besedilo v 10 sekundah.

Seveda se predenje še vedno uvršča med plagiat. Parafrazirani članki o AI so včasih uvrščeni po naključju, vendar ima Google na splošno raje izvirno vsebino iz uglednih virov. Poceni triki in SEO vdori ne morejo premagati visokokakovostnega, zimzelenega pisanja.

Poleg tega Google vsako leto izda več osnovnih posodobitev. Kmalu se bo osredotočil na odstranjevanje lenih, neizvirnih kosov, ki jih je ustvarila umetna inteligenca, iz SERP-jev.

5. Ustvarjanje neetičnih odzivov

Jezikovni modeli AI nimajo pristranskosti. Odgovore zagotavljajo tako, da analizirajo zahteve uporabnikov in črpajo podatke iz svoje obstoječe baze podatkov.

Vzemite ChatGPT kot primer. Ko pošljete poziv, se odzove na podlagi naborov podatkov, ki jih OpenAI uporablja za usposabljanje.

Medtem ko pravilniki o vsebini ChatGPT blokirajo neprimerne zahteve, jih uporabniki zaobidejo s pozivi za pobeg iz zapora. Dajejo mu natančna, pametna navodila. ChatGPT proizvede spodnji odgovor, če ga prosite za upodobitev psihopatskega izmišljenega lika.

Dobra novica je OpenAI ni izgubil nadzora nad ChatGPT. Njegova nenehna prizadevanja za poostritev omejitev preprečujejo ChatGPT ustvarjanje neetičnih odzivov, ne glede na vnos uporabnika. Beg iz zapora naprej ne bo tako enostaven.

6. Quid Pro Quo

Hitra rast novih, neznanih tehnologij, kot je ChatGPT, ustvarja priložnosti za napade quid pro quo. To so taktike socialnega inženiringa, pri katerih prevaranti zvabijo žrtve z lažnimi ponudbami.

Večina ljudi še ni raziskala ChatGPT. In hekerji izkoriščajo zmedo s širjenjem zavajajočih promocij, e-poštnih sporočil in objav.

Najbolj razvpiti primeri vključujejo lažne aplikacije. Novi uporabniki ne vedo, da lahko do ChatGPT dostopajo le prek OpenAI. Nevede prenašajo neželene programe in razširitve.

Večina jih želi le prenose aplikacij, drugi pa ukradejo osebne podatke. Prevaranti jih okužijo z zlonamerno programsko opremo in lažnimi povezavami. Na primer, marca 2023 je a lažna razširitev ChatGPT za Chrome je ukradla poverilnice za Facebook od 2.000+ uporabnikov dnevno.

Za boj proti poskusom quid pro quo se izogibajte aplikacijam tretjih oseb. OpenAI nikoli ni izdal pooblaščene mobilne aplikacije, računalniškega programa ali razširitve brskalnika za ChatGPT. Karkoli trdi, da je tako, je prevara.

Uporabite ChatGPT varno in odgovorno

ChatGPT sam po sebi ni grožnja. Sistem ima ranljivosti, vendar ne bo ogrozil vaših podatkov. Namesto da se bojite tehnologij umetne inteligence, raziščite, kako jih sleparji vključujejo v taktike socialnega inženiringa. Tako se lahko proaktivno zaščitite.

Če pa še vedno dvomite o ChatGPT, poskusite Bing. Novi Bing ima klepetalnega robota, ki ga poganja AI, ki deluje na GPT-4, črpa podatke iz interneta in upošteva stroge varnostne ukrepe. Morda se vam bo zdelo bolj primerno za vaše potrebe.