Zaposleni pri Samsungu so pomotoma razkrili zasebne podatke podjetja prek ChatGPT – primer, zakaj je umetna inteligenca tako velika grožnja vaši zasebnosti in varnosti.

ChatGPT je postal velika varnostna in zasebnostna težava, ker preveč nas odsotno deli svoje zasebne podatke na njem. ChatGPT beleži vsak pogovor, ki ga imate z njim, vključno z vsemi osebnimi podatki, ki jih delite. Kljub temu tega ne bi vedeli, razen če bi prebrskali politiko zasebnosti OpenAI, pogoje storitve in stran s pogostimi vprašanji, da bi vse skupaj sestavili.

Dovolj nevarno je razkriti lastne podatke, a glede na to, da ogromna podjetja vsak dan uporabljajo ChatGPT za obdelavo informacij, je to lahko začetek katastrofe zaradi uhajanja podatkov.

Samsung je razkril zaupne informacije prek ChatGPT

Po navedbah Gizmodo, so zaposleni pri Samsungu trikrat v 20 dneh pomotoma razkrili zaupne podatke prek ChatGPT. To je samo en primer, kako enostavno je za podjetja ogroziti zasebne podatke.

ChatGPT je javno na udaru kritik zaradi težav z zasebnostjo, zato je to, da je Samsung to dovolil, precejšen spregled.

instagram viewer
Nekatere države so celo prepovedale ChatGPT zaščititi svoje državljane, dokler ne izboljša svoje zasebnosti, zato bi mislili, da bodo podjetja bolj previdna pri tem, kako jih uporablja njihovo osebje.

Na srečo se zdi, da so Samsungove stranke varne - vsaj za zdaj. Kršeni podatki se nanašajo samo na notranje poslovne prakse, nekaj lastniške kode, s katero so odpravljali težave, in zapisnik s sestanka skupine, vse so predložili zaposleni. Vendar bi bilo za osebje prav tako enostavno razkriti osebne podatke potrošnikov in samo vprašanje časa je, kdaj bomo videli, da bo drugo podjetje storilo točno to. Če se to zgodi, lahko pričakujemo, da bomo videli ogromen porast prevar z lažnim predstavljanjem in krajo identitete.

Tukaj je tudi druga plast tveganja. Če zaposleni uporabljajo ChatGPT za iskanje hroščev, kot so to storili pri uhajanju podatkov Samsung, bo koda, ki jo vnesejo v polje za klepet, prav tako shranjena na strežnikih OpenAI. To bi lahko povzročilo kršitve, ki bi močno vplivale na podjetja, ki odpravljajo težave z neizdanimi izdelki in programi. Morda bomo celo videli, da informacije, kot so neobjavljeni poslovni načrti, prihodnje izdaje in prototipi, uhajajo, kar povzroči velike izgube prihodkov.

Kako pride do uhajanja podatkov ChatGPT?

Politika zasebnosti ChatGPT jasno pove, da snema vaše pogovore in deli dnevnike z drugimi podjetji in svojimi trenerji AI. Ko nekdo (na primer uslužbenec Samsunga) vnese zaupne informacije v pogovorno okno, se zabeležijo in shranijo na strežnike ChatGPT.

Zelo malo verjetno je, da so zaposleni to storili namerno, a to je strašljivo. Večino kršitev podatkov povzroči človeška napaka. Pogosto je to zato, ker podjetju ni uspelo poučiti svojega osebja o tveganjih za zasebnost pri uporabi orodij, kot je AI.

Na primer, če v klepet prilepijo velik seznam stikov in prosijo AI, da iz podatkov izloči telefonske številke strank, ima ChatGPT ta imena in telefonske številke v svojih zapisih. Vaši zasebni podatki so prepuščeni na milost in nemilost podjetjem, s katerimi jih niste delili, ki jih morda ne varujejo dovolj dobro, da bi vas zaščitila. Obstaja nekaj stvari, ki jih lahko storite zaščitite se po kršitvi podatkov, vendar bi morala podjetja biti odgovorna za preprečevanje uhajanja.

Morala zgodbe: ChatGPT ne povejte svojih skrivnosti

ChatGPT lahko varno uporabljate za stotine različnih opravil, vendar organiziranje zaupnih informacij ni eno izmed njih. Paziti morate, da v polje za klepet ne vnesete ničesar osebnega, vključno z imenom, naslovom, e-pošto in telefonsko številko. To napako je enostavno narediti, zato bodite previdni in preverite svoje pozive, da se prepričate, da ni kaj pomotoma prišlo noter.

Puščanje podatkov Samsung nam pokaže, kako resnično je tveganje uhajanja podatkov, povezanih s ChatGPT. Na žalost bomo videli več tovrstnih napak, morda z veliko večjimi vplivi, saj bo umetna inteligenca postala osrednji del procesov večine podjetij.