Umetna inteligenca (AI) ima potencial, da spremeni samo naravo naše družbe. In če so orodja umetne inteligence, ki jih trenutno imamo na voljo, kakršen koli znak tega, kar prihaja, se moramo veliko veseliti.
Tudi na marsikaj moramo biti pozorni. Namreč kibernetski kriminalci in drugi akterji groženj oborožijo AI. To ni teoretična skrb in niti generatorji slik AI niso imuni na zlorabe.
Kaj so generatorji slik AI? Kako delujejo?
Če ste kdaj uporabljali generator slik z umetno inteligenco, imate precej dobro predstavo, za kaj gre. Tudi če ga še nikoli niste uporabljali, ste najverjetneje na družbenih medijih in drugod naleteli na slike, ki jih je ustvarila umetna inteligenca. Programska oprema, ki je danes priljubljena, deluje po zelo preprostem principu: uporabnik vnese besedilo, AI pa na podlagi tega besedila ustvari sliko.
Kar se dogaja pod pokrovom, je veliko bolj zapleteno. AI je v zadnjih letih postal veliko boljši in večina
generatorji besedila v sliko so danes tako imenovani difuzijski modeli. To pomeni, da se dolgo "trenirajo" na ogromnem številu besedil in slik, zaradi česar so njihove stvaritve tako impresivne in osupljivo realistične.Zaradi česar so ta orodja AI še bolj impresivna, je dejstvo, da ne samo spreminjajo obstoječih slik ali združujejo na tisoče slik v eno, ampak tudi ustvarjajo nove, izvirne slike iz nič. Več ko ljudje uporabljajo te generatorje besedila v sliko, več informacij dobijo in boljše postanejo njihove stvaritve.
Nekaj najbolj znanih Generatorji slik AI so Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor in Craiyon. Nove se pojavljajo levo in desno, tehnološki velikani – vključno z Googlom – izdajajo svoje, tako da lahko le ugibamo, kaj bo prinesla prihodnost.
4 načini, kako akterji groženj oborožijo generatorje slik z umetno inteligenco
Tako kot skoraj vso tehnologijo lahko tudi generatorje slik AI zlorabljajo zlonamerni akterji. Pravzaprav se že uporabljajo za najrazličnejše zlobne namene. Toda kakšne točno vrste prevar in kibernetskih napadov lahko izvede kriminalec s pomočjo generatorjev slik z umetno inteligenco?
1. Socialni inženiring
Ena očitna stvar, ki bi jo akterji groženj lahko storili z generatorji slik AI, je ukvarjajo s socialnim inženiringom; ustvarite na primer lažne profile v družabnih medijih. Nekateri od teh programov lahko ustvarijo neverjetno realistične slike, ki so videti kot pristne fotografije resničnih ljudi, prevarant pa bi lahko uporabil te lažne profile družbenih medijev za lovljenje mačk.
V nasprotju s fotografijami resničnih ljudi tistih, ki jih je ustvarila umetna inteligenca, ni mogoče odkriti z povratnim iskanjem slik, kiberkriminalcu pa ni treba delati z omejeno število fotografij, s katerimi lahko prevarajo svojo tarčo – z uporabo umetne inteligence jih lahko ustvarijo, kolikor želijo, in iz njih zgradijo prepričljivo spletno identiteto. praskati.
Obstajajo pa resnični primeri akterjev groženj, ki uporabljajo generatorje slik AI za prevare ljudi. aprila 2022 TechTalks bloger Ben Dickinson je prejel e-pošto od odvetniške pisarne, ki trdi, da je uporabil sliko brez dovoljenja. Odvetniki so po e-pošti poslali obvestilo o kršitvi avtorskih pravic DMCA in povedali Dickinsonu, da se mora povezati nazaj z njihovo stranko ali odstraniti sliko.
Dickinson je iskal odvetniško družbo v Googlu in našel uradno spletno stran. Vse se je zdelo povsem legitimno; stran je imela celo fotografije 18 odvetnikov, skupaj z njihovimi biografijami in poverilnicami. Toda nič od tega ni bilo resnično. Vse fotografije je ustvaril AI, obvestila o domnevni kršitvi avtorskih pravic pa so bila poslana nekoga, ki želi od nič hudega slutečih blogerjev izsiliti povratne povezave, kot del neetičnega, črnega klobuk SEO (Optimizacija iskalnikov) strategijo.
2. Dobrodelne prevare
Ko sta Turčijo in Sirijo februarja 2023 prizadela uničujoča potresa, je na milijone ljudi po vsem svetu izrazilo svojo solidarnost z žrtvami z donacijami oblačil, hrane in denarja.
Po poročilu iz BBC, so prevaranti to izkoristili in z AI ustvarili realistične slike in zbirali donacije. En prevarant je na TikTok Live pokazal slike ruševin, ustvarjene z umetno inteligenco, in svoje gledalce prosil za donacije. Drugi je objavil sliko grškega gasilca, ki iz ruševin rešuje poškodovanega otroka, ustvarjeno z umetno inteligenco, in svoje sledilce prosil za donacije v bitcoinih.
Lahko si le predstavljamo, kakšne vrste dobrodelnih goljufij bodo kriminalci izvajali s pomočjo umetne inteligence v prihodnosti, vendar lahko domnevamo, da bodo pri zlorabi te programske opreme le še boljši.
3. Deepfakes in dezinformacije
Vlade, aktivistične skupine in možganski trusti že dolgo opozarjajo na nevarnosti globokih ponaredkov. Generatorji slik AI k temu problemu dodajo še eno komponento, glede na to, kako realistične so njihove stvaritve. Pravzaprav v Združenem kraljestvu obstaja celo humoristična oddaja Deep Fake Neighbor Wars, ki najde humor v malo verjetnih parih slavnih. Kaj bi dezinformatorju preprečilo ustvarjanje lažne podobe in njeno promocijo na družbenih medijih s pomočjo botov?
To ima lahko posledice v resničnem življenju, kot se je skoraj zgodilo marca 2022, ko je po spletu zaokrožil lažni videoposnetek, ki prikazuje ukrajinskega predsednika Volodimirja Zelenskega, ki Ukrajincem govori, naj se predajo. NPR. Toda to je samo en primer, saj so možnosti skoraj neskončne in obstaja nešteto načinov akter grožnje bi lahko škodoval ugledu nekoga, promoviral lažno pripoved ali širil lažne novice s pomočjo AI.
4. Oglasna goljufija
TrendMicro raziskovalci so leta 2022 odkrili, da prevaranti uporabljajo vsebino, ustvarjeno z umetno inteligenco, za ustvarjanje zavajajočih oglasov in promocijo sumljivih izdelkov. Ustvarili so slike, ki so predlagale, da priljubljene zvezdnice uporabljajo določene izdelke, in na podlagi teh slik izvajali oglaševalske akcije.
Na primer, en oglas za "priložnost finančnega svetovanja" je predstavljal milijarderja Elona Muska, ustanovitelja in izvršnega direktorja Tesle. Seveda Musk ni nikoli podprl zadevnega izdelka, vendar je prikazani posnetek, ustvarjen z umetno inteligenco, poskrbel, da je bilo tako, kar je verjetno privabilo nič hudega sluteče gledalce, da kliknejo oglase.
Umetna inteligenca in kibernetska varnost: zapleteno vprašanje, ki se ga moramo lotiti
V prihodnje bodo vladni regulatorji in strokovnjaki za kibernetsko varnost verjetno morali sodelovati pri reševanju nastajajoče grožnje kibernetske kriminalitete, ki jo poganja umetna inteligenca. Toda kako lahko reguliramo umetno inteligenco in zaščitimo navadne ljudi, ne da bi dušili inovacije in omejevali digitalne svoboščine? To vprašanje bo v prihodnjih letih veliko.
Dokler ni odgovora, naredite vse, kar lahko, da se zaščitite: natančno preglejte vse informacije, ki jih vidite na spletu, izogibajte se sumljivih spletnih mestih, uporabljajte varno programsko opremo, posodabljajte svoje naprave in se naučite uporabljati umetno inteligenco za prednost.