Klepetalni roboti in njim podobni se morda zdijo dobra zabava, vendar so uporabni tudi za hekerje. Zato moramo vsi poznati varnostno tveganje umetne inteligence.

AI je v zadnjih nekaj letih občutno napredoval. Sofisticirani jezikovni modeli lahko sestavijo celovečerne romane, kodirajo osnovna spletna mesta in analizirajo matematične težave.

Čeprav je impresiven, generativni AI predstavlja tudi varnostna tveganja. Nekateri ljudje uporabljajo chatbote le za goljufanje na izpitih, drugi pa jih neposredno izkoriščajo za kibernetske zločine. Tu je osem razlogov, zakaj se bodo te težave nadaljevale, ne samo Kljub Napredek AI, vendar Ker od njih tudi.

1. Odprtokodni klepetalni roboti z umetno inteligenco razkrivajo zaledne kode

Več podjetij z umetno inteligenco ponuja odprtokodne sisteme. Odkrito delijo svoje jezikovne modele, namesto da bi jih ohranili zaprte ali lastniške. Vzemite Meta kot primer. Za razliko od Googla, Microsofta in OpenAI omogoča milijonom uporabnikov dostop do njegovega jezikovnega modela, LLaMA.

Medtem ko lahko odprtokodne kode izboljšajo AI, je tudi tvegano. OpenAI že ima težave pri nadzoru ChatGPT, njegovega lastniškega klepetalnega robota, zato si predstavljajte, kaj lahko goljufi naredijo z brezplačno programsko opremo. Imajo popoln nadzor nad temi projekti.

Tudi če Meta nenadoma umakne svoj jezikovni model, je na desetine drugih laboratorijev AI že izdalo svoje kode. Poglejmo HuggingChat. Ker je njegov razvijalec HuggingFace ponosen na preglednost, prikaže svoje nabore podatkov, jezikovni model in prejšnje različice.

2. Jailbreaking Pozivi Trick LLMs

AI je sama po sebi amoralna. Ne razume prav in narobe – celo napredni sistemi sledijo navodilom za usposabljanje, smernicam in nizom podatkov. Samo prepoznajo vzorce.

Za boj proti nedovoljenim dejavnostim razvijalci nadzirajo funkcionalnost in omejitve z nastavitvijo omejitev. Sistemi AI še vedno dostopajo do škodljivih informacij. Toda varnostne smernice jim preprečujejo, da bi jih delili z uporabniki.

Poglejmo ChatGPT. Čeprav odgovarja na splošna vprašanja o trojancih, ne razpravlja o procesu njihovega razvoja.

Kljub temu omejitve niso varne. Uporabniki zaobidejo omejitve s preoblikovanjem pozivov, uporabo zmedenega jezika in sestavljanjem izrecno podrobnih navodil.

Preberite spodaj Poziv za pobeg iz zapora ChatGPT. ChatGPT zavede v uporabo nesramnega jezika in neutemeljenih napovedi – obe dejanji kršita smernice OpenAI.

Tukaj je ChatGPT s krepko, a napačno izjavo.

3. AI ogroža varnost za vsestranskost

Razvijalci umetne inteligence dajejo prednost vsestranskosti pred varnostjo. Svoje vire porabijo za usposabljanje platform za doseganje bolj raznolikega nabora nalog, s čimer na koncu zmanjšajo omejitve. Navsezadnje trg pozdravlja funkcionalne chatbote.

Naj primerjajte ChatGPT in Bing Chat, na primer. Medtem ko ima Bing bolj izpopolnjen jezikovni model, ki črpa podatke v realnem času, se uporabniki še vedno zgrinjajo k bolj vsestranski možnosti, ChatGPT. Bingove stroge omejitve prepovedujejo številne naloge. Druga možnost je, da ima ChatGPT prilagodljivo platformo, ki proizvaja zelo različne rezultate glede na vaše pozive

Tukaj je igranje vlog ChatGPT kot izmišljen lik.

In tukaj je Bing Chat, ki noče igrati "nemoralne" osebe.

Odprtokodne kode omogočajo startupom, da se pridružijo dirki z umetno inteligenco. Integrirajo jih v svoje aplikacije, namesto da bi gradili jezikovne modele iz nič, s čimer prihranijo ogromne vire. Celo neodvisni koderji eksperimentirajo z odprtokodnimi kodami.

Ponovno, nelastniška programska oprema pomaga napredovati AI, vendar množično izdajanje slabo usposobljenih, a sofisticiranih sistemov povzroči več škode kot koristi. Prevaranti bodo hitro zlorabili ranljivosti. Lahko celo usposobijo nezavarovana orodja AI za izvajanje nedovoljenih dejavnosti.

Kljub tem tveganjem bodo tehnološka podjetja še naprej objavljala nestabilne beta različice platform, ki jih poganja AI. Dirka z umetno inteligenco nagrajuje hitrost. Verjetno bodo napake odpravili pozneje kot odložili lansiranje novih izdelkov.

5. Generativni AI ima nizke ovire za vstop

Orodja umetne inteligence znižujejo vstopne ovire za kazniva dejanja. Kibernetski kriminalci pripravljajo neželeno e-pošto, pišejo kodo zlonamerne programske opreme in ustvarjajo povezave z lažnim predstavljanjem tako, da jih izkoriščajo. Sploh ne potrebujejo tehničnih izkušenj. Ker umetna inteligenca že dostopa do obsežnih naborov podatkov, jo morajo uporabniki le preslepiti, da ustvari škodljive, nevarne informacije.

OpenAI nikoli ni zasnoval ChatGPT za nedovoljene dejavnosti. Ima celo smernice proti njim. še prevaranti so skoraj v trenutku dobili zlonamerno kodirno programsko opremo ChatGPT in pisanje lažnih e-poštnih sporočil.

Medtem ko je OpenAI hitro rešil težavo, poudarja pomen ureditve sistema in obvladovanja tveganj. AI dozoreva hitreje, kot je kdo pričakoval. Celo tehnološke voditelje skrbi, da bi lahko ta superinteligentna tehnologija povzročila veliko škodo v napačnih rokah.

6. AI se še vedno razvija

AI se še vedno razvija. Medtem uporaba AI v kibernetiki sega v leto 1940, sodobni sistemi strojnega učenja in jezikovni modeli so se pojavili šele pred kratkim. Ne morete jih primerjati s prvimi izvedbami AI. Tudi razmeroma napredna orodja, kot sta Siri in Alexa, so bleda v primerjavi s klepetalnimi roboti, ki jih poganja LLM.

Čeprav so morda inovativne, eksperimentalne funkcije povzročajo tudi nove težave. Odmevne nesreče s tehnologijami strojnega učenja segajo od napačnih Googlovih SERP-jev do pristranskih chatbotov, ki pljuvajo rasistične žalitve.

Seveda lahko razvijalci odpravijo te težave. Upoštevajte le, da sleparji ne bodo oklevali, da bi izkoristili tudi na videz neškodljive hrošče – ​​nekatere škode so nepopravljive. Zato bodite previdni pri raziskovanju novih platform.

7. Mnogi še ne razumejo umetne inteligence

Medtem ko ima splošna javnost dostop do prefinjenih jezikovnih modelov in sistemov, le redki vedo, kako delujejo. Ljudje bi morali prenehati obravnavati AI kot igračo. Isti chatboti, ki ustvarjajo meme in odgovarjajo na zanimivosti, množično kodirajo tudi viruse.

Na žalost je centralizirano usposabljanje AI nerealno. Globalni tehnološki voditelji se osredotočajo na izdajanje sistemov, ki jih poganja AI, ne pa na brezplačne izobraževalne vire. Kot rezultat, uporabniki dobijo dostop do robustnih, zmogljivih orodij, ki jih komaj razumejo. Javnost ne more slediti dirki AI.

Vzemite ChatGPT kot primer. Kibernetski kriminalci zlorabljajo njegovo priljubljenost tako, da žrtve pretentajo vohunska programska oprema, prikrita kot aplikacije ChatGPT. Nobena od teh možnosti ne prihaja iz OpenAI.

8. Črni hekerji lahko pridobijo več kot beli hekerji

Hekerji s črnim klobukom običajno imajo več kot etični hekerji. Da, testiranje peresa za vodilne v svetovni tehnologiji je dobro plačano, vendar le odstotek strokovnjakov za kibernetsko varnost dobi ta delovna mesta. Večina dela samostojno delo na spletu. Platforme, kot so HackerOne in Bugcrowd plačati nekaj sto dolarjev za običajne napake.

Druga možnost je, da goljufi zaslužijo na desettisoče z izkoriščanjem negotovosti. Podjetja lahko izsiljujejo z odkrivanjem zaupnih podatkov ali krajo osebnih dokumentov z ukradenim Podatki, ki omogočajo osebno identifikacijo (PII).

Vsaka institucija, majhna ali velika, mora pravilno implementirati sisteme AI. V nasprotju s splošnim prepričanjem hekerji presegajo tehnološke startupe in mala in srednje velika podjetja. Nekaj ​​najbolj zgodovinske kršitve podatkov v zadnjem desetletju vključujejo Facebook, Yahoo! in celo vlado ZDA.

Zaščitite se pred varnostnimi tveganji umetne inteligence

Ali bi se morali ob upoštevanju teh točk popolnoma izogniti AI? Seveda ne. AI je sama po sebi amoralna; vsa varnostna tveganja izvirajo iz ljudi, ki jih dejansko uporabljajo. In našli bodo načine za izkoriščanje sistemov AI, ne glede na to, kako daleč se ti razvijajo.

Namesto da se bojite groženj kibernetski varnosti, ki prihajajo z umetno inteligenco, razumejte, kako jih lahko preprečite. Ne skrbite: preprosti varnostni ukrepi so zelo pomembni. Če ostanete previdni pri sumljivih aplikacijah AI, izogibate se nenavadnim hiperpovezavam in gledate vsebino AI s skepticizmom, se že borite proti več tveganjem.