Deepfakes in videoposnetki, ustvarjeni z umetno inteligenco, so tukaj, da ostanejo. Toda v zadnjih nekaj letih sta se kakovost in količina povečala, zaradi česar je veliko ljudi zaskrbljenih zaradi nacionalne varnosti in osebne zasebnosti.
Kljub temu, da so se anonimni uporabniki na spletu trudili, da bi svoj ponarejen videoposnetek naredili realnega, nikoli niso mogli mimo napredne programske opreme za prepoznavanje obrazov. Do zdaj.
Neumni API -ji za prepoznavanje obrazov
Raziskovalci na univerzi Sungkyunkwan v Suwonu v Južni Koreji, preizkusil kakovost sedanje deepfake tehnologije. Preizkusili so API-je Amazon in Microsoft z odprtokodno in pogosto uporabljeno programsko opremo za ustvarjanje globokih videoposnetkov, da bi ugotovili, kako uspešni so.
Raziskovalci so uporabili obraze hollywoodskih zvezdnikov. Za ustvarjanje trdnih globokih ponaredkov potrebuje programska oprema veliko kakovostnih slik iz različnih zornih kotov istih oseb, ki jih je slavnih veliko lažje pridobiti namesto navadnih ljudi.
Raziskovalci so se tudi odločili, da bodo kot merila za študij uporabili Microsoftov in Amazonov API, saj obe podjetji ponujata storitve prepoznavanja obrazov slavnih. Uporabili so javno dostopne nabore podatkov in ustvarili nekaj več kot 8.000 globokih ponaredkov. Iz vsakega posnetega videoposnetka so izvlekli več posnetkov obrazov in jih posredovali API -jem.
Z Microsoftovimi kognitivnimi storitvami Azure so raziskovalci 78 odstotkov časa lahko prevarali sistem z uporabo globokih ponaredkov. Amazonovi rezultati so bili nekoliko boljši, saj je bilo 68 odstotkov prijavljenih obrazov identificiranih kot resničnih.
Kaj pa detektorji Deepfake?
Deepfake detektorji delujejo bolj ali manj enako kot deepfake. Detektorji so programska oprema, ki je bila s pomočjo modelov strojnega učenja usposobljena za odkrivanje posnetih videoposnetkov.
Namesto da bi se osredotočili na ustvarjanje hiperrealističnega videa, ki bi zavedel detektorje, lahko globoki ponaredki zdaj v vsak okvir vključijo kontradiktorne primere, da bi zmedli sistem AI. Dejansko so takšni napadi globoko ponarejeni zelo uspešni od 78 do 99 odstotkov.
Vse slabše je
Deepfakes so aplikacija za strojno učenje. Če želite ustvariti tako daleč prepričljivo, potrebujete na stotine slik obraza iste osebe iz različnih zornih kotov in prikazujejo različna čustva.
Zaradi potrebe po ogromnih količinah podatkov bi človek pomislil, da so ogroženi le ljudje z veliko prisotnostjo na spletu, kot so znane osebnosti in politiki. A temu ni več tako.
Po podatkih Deeptrace se je število spletnih ponaredkov v manj kot enem letu - od oktobra 2019 do junija 2020 - povečalo za 330 odstotkov. Da ne omenjam, programska oprema in algoritmi, ki jih uporabljajo izdelovalci globokih ponaredkov, postajajo vse močnejši in lažje dostopni in dostopni.
Kdo je v nevarnosti Deepfakes?
Ko so deepfakes prvič postali mainstream, primarni skrbi so bile za zasebnost in nacionalno varnost. Ljudje so se bali, da video posnetkom politikov in uradnih vladnih delavcev ni več mogoče zaupati.
Čeprav bi bilo neodgovorno zanemariti pozabo, ki predstavlja varnostno tveganje, je več raziskav pokazalo, da ustvarjalcev globokih ponaredkov še ne zanimajo motenje politike. Večino posnetkov deepfakes na spletu lahko razdelimo v dve kategoriji: smešne videoposnetke intervjujev s slavnimi osebami ter filme in pornografsko gradivo.
Medtem ko je bila nedavna študija izvedena z obrazi znanih oseb, da bi zagotovili, da so globoki ponaredki visoke kakovosti, da bi prevarali API -je, to ne pomeni, da ne morete narediti globokih ponaredkov z manj podatkov. Seveda morda ne bodo imeli možnosti za prevaro naprednih sistemov za prepoznavanje obrazov, vendar so lahko dovolj prepričljivi, da bodo prevarali druge ljudi.
Dandanes je mogoče globoko ponarediti vsakogar s socialno prisotnostjo prepričljivo. Vse, kar potrebujejo, je nekaj vaših fotografij in morda video, v katerem se pojavite. Nastala globinska napaka je morda nizke kakovosti, vendar je še vedno izvedljiva in je lahko škodljiva.
Prihodnost je še neznana
Obstaja veliko nasprotujočih si napovedi o stanju globokih ponaredkov, saj ne bodo kmalu izginili.
Nekateri pričakujejo apokaliptično kibernetsko prihodnost, kjer ne morete zaupati nobenemu posnetku, na katerega naletite na spletu. Drugi so bolj optimistični in primerjajo globoke ponaredke z animacijo in pravijo, da ima morda prihodnost v produkciji vsebin.
Deepfakes postaja vse bolj razširjen. Tukaj je opisano, kako lahko ogrozijo vašo zasebnost na spletu in kako se jim izogniti.
Preberite Naprej
- Varnost
- Internet
- Prepoznavanje obrazov
- Spletna zasebnost
- Spletna varnost
Anina je samostojna pisateljica tehnologije in internetne varnosti pri MakeUseOf. Začela je pisati o kibernetski varnosti pred tremi leti v upanju, da bo postala dostopnejša za povprečnega človeka. Rad se uči novih stvari in velik astronomski norček.
Naročite se na naše novice
Pridružite se našemu glasilu za tehnične nasvete, ocene, brezplačne e -knjige in ekskluzivne ponudbe!
Kliknite tukaj, če se želite naročiti