S tehnologijo Deepfake je lahko zabavno igrati, vendar je njen potencial za škodo velik. Evo, kaj bi lahko prinesla prihodnost globokih ponaredkov.

Signalne znake globoko ponarejene slike je bilo včasih enostavno opaziti, vendar nas zaradi generativne umetne inteligence dvomi o skoraj vsem, kar zdaj vidimo in slišimo. Z vsakim izdanim novim modelom umetne inteligence se znaki ponarejene slike zmanjšujejo. zmede, zdaj lahko ustvarjate globoko ponarejene videoposnetke, glasovne klone svojih najdražjih in izdelujete lažne članke v zgolj sekund.

Da bi se izognili preslepitvi globokih ponaredkov AI, je vredno vedeti, kakšne nevarnosti predstavljajo.

Evolucija Deepfake

Deepfake prikazuje osebo, ki počne nekaj, kar se v resničnem življenju nikoli ni zgodilo. To je popolnoma lažno. Smejimo se globokim ponaredkom, ko jih delimo na internetu kot meme ali šalo, vendar se zelo malo ljudi zdi smešno, ko se uporabljajo za zavajanje.

V preteklosti so bili deepfake ustvarjeni tako, da so posneli obstoječo fotografijo in jo spremenili v programski opremi za urejanje slik, kot je Photoshop. Toda tisto, kar loči AI deepfake, je, da ga je mogoče ustvariti iz nič z uporabo algoritmov globokega učenja.

instagram viewer

The Slovar Merriam-Webster definira deepfake kot:

Slika ali posnetek, ki je bil prepričljivo spremenjen in manipuliran, da bi nekoga napačno predstavili, kot da dela ali govori nekaj, kar dejansko ni bilo storjeno ali rečeno.

Toda z napredkom tehnologije umetne inteligence se ta definicija začenja zdeti zastarela. Z uporabo orodij AI globoke ponaredke zdaj vključujejo slike, besedilo, videoposnetke in kloniranje glasu. Včasih se uporabljajo vsi štirje načini generiranja AI hkrati.

Ker gre za avtomatiziran postopek, ki je neverjetno hiter in poceni za uporabo, je popolno orodje za ustvarjanje globoko ponarejanje s hitrostjo, kot je še nismo videli – vse to, ne da bi morali vedeti eno stvar o urejanju fotografij, videoposnetkov ali zvok.

Velike nevarnosti AI Deepfakes

Gostiteljica AI video generatorji že obstajajo, poleg številnih AI glasovni generatorji. Vrzi a velik jezikovni model, kot je GPT-4 in imate recept za ustvarjanje najbolj verjetnih globokih ponaredkov, kar smo jih do sedaj videli v moderni zgodovini.

Eden od načinov, da se izognete zavajanju, je zavedanje o različnih vrstah globokih ponaredkov AI in o tem, kako bi jih lahko uporabili za pretentanje. Tukaj je le nekaj resnih primerov, kako tehnologija AI deepfake predstavlja resnično grožnjo.

1. Kraja identitete AI

Morda ste jih videli. Med prvimi resnično virusnimi globokimi ponaredki umetne inteligence, ki so se razširili po svetu, sta bili podoba aretiranega Donalda Trumpa in slika papeža Frančiška v belem napihnjenem jopiču.

Medtem ko se zdi kot nedolžna ponovna predstava o tem, kaj bi znana verska figura lahko oblekla na hladen dan v Rimu; druga podoba, ki prikazuje politično osebnost v resnem položaju z zakonom, ima veliko večje posledice, če jo vzamemo za resnično.

Doslej so ljudje pri ustvarjanju globokih ponaredkov AI ciljali predvsem na znane osebnosti, politične osebnosti in druge znane posameznike. Deloma je to zato, ker imajo znani posamezniki na internetu veliko svojih fotografij, kar je verjetno pomagalo pri usposabljanju modela.

V primeru generatorja slik z umetno inteligenco, kot je Midjourney, ki se uporablja tako v globokem ponarejanju Trumpa kot papeža, mora uporabnik preprosto vnesti besedilo, ki opisuje, kaj želi videti. S ključnimi besedami je mogoče določiti umetniški slog, kot je fotografija ali fotorealizem, rezultate pa je mogoče natančno nastaviti s povečanjem ločljivosti.

Prav tako lahko naučite se uporabljati Midjourney in to preizkusite sami, vendar se zaradi očitnih moralnih in pravnih razlogov izogibajte javni objavi teh slik.

Na žalost tudi to, da ste povprečno, neznano človeško bitje, ne zagotavlja, da ste varni pred globokimi ponaredki AI.

Težava je v ključni funkciji, ki jo ponujajo generatorji slik AI: zmožnost nalaganja lastne slike in obdelave z AI. In podobno orodje Preslikava v DALL-E 2 lahko razširi obstoječo sliko preko njenih meja z vnosom besedilnega poziva in opisom, kaj bi še radi ustvarili.

Če bi to z vašimi fotografijami naredil nekdo drug, bi bila nevarnost bistveno večja od deepfakea papeža v belem suknjiču – uporabijo ga lahko kjer koli in se pretvarjajo, da ste vi. Medtem ko večina ljudi na splošno uporablja AI z dobrimi nameni, je zelo malo omejitev, ki ljudem preprečujejo, da bi z njo povzročili škodo, zlasti v primerih kraje identitete.

2. Prevare Deepfake Voice Clone

S pomočjo umetne inteligence so globoke ponaredke prestopile mejo, na katero večina od nas ni bila pripravljena: lažni glasovni kloni. Z le majhno količino izvirnega zvoka – morda iz videoposnetka TikTok, ki ste ga nekoč objavili, ali videoposnetka YouTube, v katerem se pojavite – lahko model AI posnema vaš edinstveni glas.

Nenavadno in zastrašujoče si je predstavljati, da prejmete telefonski klic, ki zveni tako kot družinski član, prijatelj ali kolega. Deepfake glasovni kloni so dovolj resna skrb, da Zvezna komisija za trgovino (FTC) je o tem izdal opozorilo.

Ne zaupajte glasu. Pokličite osebo, ki naj bi vas kontaktirala in preverite zgodbo. Uporabite telefonsko številko, za katero veste, da je njihova. Če ne morete priti do ljubljene osebe, poskusite stopiti v stik z njo prek drugega družinskega člana ali njegovih prijateljev.

Washington Post je poročal primer para v 70-ih, ki ju je poklical nekdo, ki je zvenel tako kot njun vnuk. Bil je v zaporu in je nujno potreboval denar za varščino. Ker niso imeli nobenega drugega razloga, da bi dvomili, s kom se pogovarjajo, so šli naprej in prevarantu predali denar.

Ogrožena pa ni le starejša generacija, Guardian je poročal še en primer bančnega menedžerja, ki je odobril transakcijo v vrednosti 35 milijonov dolarjev po seriji "ponarejenih klicev" nekoga, za katerega je verjel, da je direktor banke.

3. Množično proizvedene lažne novice

Veliki jezikovni modeli, npr ChatGPT so zelo, zelo dobri pri ustvarjanju besedila, ki zveni tako kot človek, in trenutno nimamo učinkovitih orodij za odkrivanje razlike. V napačnih rokah bo proizvodnja lažnih novic in teorij zarote poceni, razkritje pa bo trajalo dlje.

Širjenje dezinformacij seveda ni nič novega, ampak raziskovalna naloga objavljeno na arXiv januarja 2023 pojasnjuje, da je težava v tem, kako preprosto je povečati rezultate z orodji AI. To imenujejo "kampanje vpliva, ki jih ustvari umetna inteligenca", za katere pravijo, da bi jih politiki lahko na primer uporabili za zunanje izvajanje svojih političnih kampanj.

Združevanje več kot enega vira, ustvarjenega z umetno inteligenco, ustvari globoko ponaredek na visoki ravni. Na primer, model umetne inteligence lahko ustvari dobro napisano in prepričljivo novico, ki se poda poleg lažne podobe aretacije Donalda Trumpa. To ji daje večjo legitimnost, kot če bi bila slika deljena sama.

Tudi lažne novice niso omejene na slike in pisanje, razvoj videoposnetkov z umetno inteligenco pomeni, da se pojavlja vse več ponarejenih videoposnetkov. Tukaj je eden od Roberta Downeyja Jr., cepljen na video Elona Muska, ki ga je objavil YouTube kanal Deepfakery.

Ustvarjanje deepfake je lahko tako preprosto kot prenos aplikacije. Uporabite lahko aplikacijo, kot je TokkingHeads za spreminjanje fotografij v animirane avatarje, ki vam omogoča nalaganje lastne slike in zvoka, da se zdi, kot da oseba govori.

Večinoma je zabavno in zabavno, vendar obstaja tudi možnost za težave. Pokaže nam, kako enostavno je uporabiti podobo kogar koli, da se zdi, kot da je ta oseba izrekla besede, ki jih ni nikoli spregovorila.

Naj vas AI Deepfake ne zavede

Deepfake je mogoče hitro namestiti z zelo nizkimi stroški in z nizko stopnjo strokovnega znanja ali potrebne računalniške moči. Imajo lahko obliko ustvarjene slike, glasovnega klona ali kombinacije slik, zvoka in besedila, ustvarjenih z AI.

Včasih je bilo veliko težje in delovno intenzivnejše ustvariti deepfake, zdaj pa, ko je na voljo veliko aplikacij z umetno inteligenco, ima skoraj vsakdo dostop do orodij, ki se uporabljajo za ustvarjanje deepfakov. Ker tehnologija AI deepfake postaja vedno bolj napredna, je vredno pozorno spremljati nevarnosti, ki jih predstavlja.