Vsi mislijo, da lahko opazijo globoko ponarejen videoposnetek, a zaradi hitrega izboljšanja tehnologije, vključno z orodji umetne inteligence, je odkrivanje ponarejenega videa težje kot kdaj koli prej.

Ključni zaključki

  • Deepfakes predstavljajo veliko grožnjo družbi, vključno s širjenjem dezinformacij, škodovanjem ugledu z lažnim predstavljanjem in spodbujanjem konfliktov za nacionalno varnost.
  • Čeprav tehnologija umetne inteligence ponuja orodja za odkrivanje globokih ponaredkov, ta niso popolna in človeška presoja ostaja ključna pri prepoznavanju globokih ponaredkov.
  • Ljudje in orodja za odkrivanje AI imajo različne prednosti in slabosti pri prepoznavanju globokih ponaredkov in združevanje njihovih sposobnosti lahko izboljša stopnjo uspešnosti pri odkrivanju in ublažitvi nevarnosti deepfake tehnologija.

Deepfakes ogrožajo vse vidike družbe. Naša sposobnost prepoznavanja lažne vsebine je ključnega pomena za izničenje dezinformacij, toda ko se tehnologija umetne inteligence izboljšuje, komu lahko zaupamo odkrivanje globokih ponaredkov: človeku ali stroju?

instagram viewer

Nevarnosti Deepfake

Ko tehnologija umetne inteligence napreduje, nevarnosti globokih ponaredkov vse večja grožnja za vse nas. Tukaj je kratek povzetek nekaterih najbolj perečih težav, ki jih povzročajo deepfakes:

  • Dezinformacije: Deepfaked videi in glasovni posnetki lahko širijo dezinformacije, kot so lažne novice.
  • Lažno predstavljanje: Z lažnim predstavljanjem posameznikov lahko globoke ponaredke škodijo ugledu ljudi ali zavedejo vsakogar, ki ga poznajo.
  • Državna varnost: Očiten scenarij sodnega dne z globokimi ponaredki je izmišljen posnetek ali zvok svetovnega voditelja, ki spodbuja konflikt.
  • Civilni nemiri: Zavajajoče posnetke in zvok lahko stranke uporabijo tudi za netenje jeze in državljanskih nemirov med določenimi skupinami.
  • Spletna varnost: Kibernetski kriminalci že uporabljajo orodja za kloniranje glasu z umetno inteligenco, da ciljajo na posameznike s prepričljivimi sporočili ljudi, ki jih poznajo.
  • Zasebnost in soglasje: Zlonamerna uporaba globokih ponaredkov jemlje podobo posameznikov brez njihove privolitve.
  • Zaupanje in zaupanje: Če ne morete razlikovati med resnico in prevaro, postanejo točne informacije enako nezaupljive.

Globinske ponaredke bodo le še bolj prepričljive, zato potrebujemo robustna orodja in procese za njihovo odkrivanje. AI zagotavlja eno takšno orodje v obliki modelov za odkrivanje globokih ponaredkov. Vendar, kot algoritmi, zasnovani za prepoznavanje pisanja, ki ga ustvari umetna inteligenca, orodja za odkrivanje deepfake niso popolna.

V tem času je človeška diskretnost edino drugo orodje, na katerega se lahko zanesemo. Ali smo torej kaj boljši od algoritmov pri prepoznavanju globokih ponaredkov?

Ali lahko algoritmi zaznajo Deepfake bolje kot ljudje?

Deepfakes so dovolj resna grožnja, da tehnološki velikani in raziskovalne skupine namenjajo ogromna sredstva raziskavam in razvoju. Leta 2019 so podjetja, kot so Meta, Microsoft in Amazon, ponudila 1.000.000 $ nagrad med Deepfake Detection Challenge za najbolj natančen model zaznavanja.

Najuspešnejši model je bil 82,56 % natančen glede na nabor podatkov javno dostopnih videoposnetkov. Ko pa so bili isti modeli testirani glede na "nabor podatkov črne skrinjice" 10.000 nevidenih videoposnetkov, je bil najuspešnejši model le 65,18-odstotno natančen.

Imamo tudi veliko študij, ki analizirajo učinkovitost orodij za odkrivanje globokih ponaredkov AI proti ljudem. Seveda se rezultati razlikujejo od ene študije do druge, a na splošno so ljudje enaki ali boljši od stopnje uspešnosti orodij za odkrivanje globokih ponaredkov.

Ena študija iz leta 2021, objavljena na PNAS ugotovili, da so "navadni človeški opazovalci" dosegli nekoliko višjo stopnjo natančnosti kot vodilna orodja za odkrivanje globokih ponaredkov. Vendar pa je študija tudi ugotovila, da so bili človeški udeleženci in modeli AI dovzetni za različne vrste napak.

Zanimivo je, da je raziskava, ki jo je opravil Univerza v Sydneyju je ugotovil, da so človeški možgani nezavedno učinkovitejši pri odkrivanju globokih ponaredkov kot naša zavestna prizadevanja.

Odkrivanje vizualnih namigov v Deepfake

Znanost o odkrivanju globokih ponaredkov je zapletena in zahtevana analiza se razlikuje glede na naravo posnetka. Na primer, razvpiti deepfake videoposnetek severnokorejskega voditelja Kim Jong-una iz leta 2020 je v bistvu videoposnetek govoreče glave. V tem primeru bi lahko bila najučinkovitejša metoda odkrivanja globokih ponaredkov analiza visemov (gibanja ust) in fonemov (fonetičnih zvokov) za nedoslednosti.

Človeški strokovnjaki, naključni gledalci in algoritmi lahko izvedejo to vrsto analize, tudi če se rezultati razlikujejo. The MIT opredeljuje osem vprašanj za pomoč prepoznati videoposnetke deepfake:

  • Bodite pozorni na obraz. Vrhunske manipulacije DeepFake so skoraj vedno transformacije obraza.
  • Bodite pozorni na lica in čelo. Je koža preveč gladka ali preveč nagubana? Ali je staranje kože podobno staranju las in oči? DeepFakes so lahko v nekaterih dimenzijah neskladni.
  • Bodite pozorni na oči in obrvi. Ali se sence pojavijo na mestih, ki bi jih pričakovali? DeepFakes morda ne bodo v celoti predstavili naravne fizike prizora.
  • Bodite pozorni na očala. Je kaj bleščanja? Je preveč bleščanja? Ali se kot bleščanja spreminja, ko se oseba premika? Še enkrat, DeepFakes morda ne bo v celoti predstavil naravne fizike osvetlitve.
  • Bodite pozorni na dlake na obrazu ali njihovo pomanjkanje. Ali so te dlake na obrazu videti prave? DeepFakes lahko doda ali odstrani brke, zalizce ali brado. Vendar DeepFakes morda ne bo uspel narediti preobrazb obraznih dlak popolnoma naravnih.
  • Bodite pozorni na madeže na obrazu. Je madež videti pravi?
  • Bodite pozorni na utripanje. Ali oseba mežika dovolj ali preveč?
  • Bodite pozorni na gibanje ustnic. Nekateri deepfaki temeljijo na sinhronizaciji ustnic. Ali so gibi ustnic videti naravni?

Najnovejša orodja za odkrivanje globokih ponaredkov z umetno inteligenco lahko ponovno analizirajo iste dejavnike z različnimi stopnjami uspeha. Podatkovni znanstveniki nenehno razvijajo tudi nove metode, kot je zaznavanje naravnega pretoka krvi v obrazih zvočnikov na zaslonu. Novi pristopi in izboljšave obstoječih bi lahko povzročili, da bodo orodja za odkrivanje globokih ponaredkov z umetno inteligenco v prihodnosti dosledno prekašala ljudi.

Zaznavanje zvočnih namigov v Deepfake

Odkrivanje globokega lažnega zvoka je povsem drugačen izziv. Brez vizualnih znakov videa in možnosti prepoznavanja avdiovizualnih nedoslednosti, deepfake zaznavanje je v veliki meri odvisno od analize zvoka (v nekaterih primerih lahko pomagajo tudi druge metode, kot je preverjanje metapodatkov primeri).

Študija, ki jo je objavil University College London leta 2023 je bilo ugotovljeno, da lahko ljudje zaznajo deepfake govor v 73 % časa (angleščina in mandarinščina). Tako kot pri videoposnetkih deepfake poslušalci pogosto intuitivno zaznajo nenaravne govorne vzorce v govoru, ki ga ustvari umetna inteligenca, tudi če ne morejo določiti, kaj se zdi napačno.

Pogosti znaki vključujejo:

  • Neumno
  • Pomanjkanje izražanja
  • Hrup v ozadju ali motnje
  • Vokalne ali govorne nedoslednosti
  • Pomanjkanje "polnosti" v glasovih
  • Preveč skriptirana dostava
  • Pomanjkanje nepopolnosti (napačni začetki, popravki, čiščenje grla itd.)

Še enkrat, algoritmi lahko analizirajo tudi govor za iste signale deepfake, vendar nove metode naredijo orodja učinkovitejša. Raziskave avtorja USENIX identificiral vzorce pri rekonstrukciji vokalnega trakta z umetno inteligenco, ki ne posnemajo naravnega govora. Povzema, da glasovni generatorji umetne inteligence proizvajajo zvok, ki se ujema z ozkimi glasovnimi trakti (približno velikosti slamice) brez naravnih gibov človeškega govora.

Prejšnje raziskave iz Inštitut Horsta Görtza analiziral pristen in globoko ponarejen zvok v angleščini in japonščini ter razkril subtilne razlike v višjih frekvencah pristnega govora in globokih ponaredkov.

Tako vokalni trakt kot visokofrekvenčna neskladja so zaznavni za človeške poslušalce in modele zaznavanja AI. V primeru visokofrekvenčnih razlik bi lahko modeli umetne inteligence teoretično postali vse bolj natančni - čeprav bi lahko enako rekli za globoke ponaredke umetne inteligence.

Deepfake preslepijo ljudi in algoritme, vendar na različne načine

Študije kažejo, da so ljudje in najnovejša orodja za odkrivanje umetne inteligence podobno sposobni prepoznati globoke ponaredke. Stopnje uspešnosti se lahko razlikujejo med 50% in 90+%, odvisno od parametrov testa.

Poleg tega so ljudje in stroji v podobnem obsegu preslepljeni z globokimi ponaredki. Bistveno pa je, da smo dovzetni na različne načine in to bi lahko bila naša največja prednost pri spopadanju z nevarnostmi tehnologije deepfake. Združevanje prednosti ljudi in orodij za odkrivanje globokih ponaredkov bo ublažilo slabosti vsakega od njih in izboljšalo stopnjo uspeha.

na primer MIT raziskava je pokazala, da so ljudje boljši pri prepoznavanju globokih ponaredkov svetovnih voditeljev in slavnih ljudi kot modeli AI. Razkrilo je tudi, da se modeli umetne inteligence spopadajo s posnetki z več ljudmi, čeprav je predlagalo, da je to lahko posledica urjenja algoritmov na posnetkih z enimi zvočniki.

Nasprotno pa je ista študija pokazala, da so modeli AI boljši od ljudi z nizkokakovostnimi posnetki (zamegljenimi, zrnatimi, temnimi itd.), ki bi jih lahko namerno uporabili za zavajanje gledalcev. Podobno nedavne metode zaznavanja z umetno inteligenco, kot je spremljanje pretoka krvi v določenih predelih obraza, vključujejo analize, ki jih ljudje niso sposobni.

Ko bo razvitih več metod, se bo izboljšala le sposobnost umetne inteligence za zaznavanje znakov, ki jih ne moremo, pa tudi njena sposobnost zavajanja. Veliko vprašanje je, ali bo tehnologija zaznavanja deepfake še naprej prehitela same deepfake.

Videti stvari drugače v dobi Deepfake

Orodja za odkrivanje deepfake AI se bodo še naprej izboljševala, prav tako kakovost same vsebine deepfake. Če zmožnost umetne inteligence za goljufanje prekaša njeno zmožnost zaznavanja (kot pri besedilu, ki ga ustvari umetna inteligenca), je človeška presoja morda edino orodje, ki nam je ostalo za boj proti globokim ponaredkom.

Vsi so odgovorni, da se naučijo znakov globokih ponaredkov in kako jih prepoznati. Poleg tega, da se zaščitimo pred prevarami in varnostnimi grožnjami, je vse, o čemer razpravljamo in delimo na spletu, ranljivo za dezinformacije, če izgubimo razumevanje realnosti.