Umetna inteligenca lahko zveni kot predsednik. Lahko pa zveni kot ti ali jaz. Kakšno tveganje za kibernetsko varnost torej predstavlja programska oprema za kloniranje glasu z umetno inteligenco?
Umetna inteligenca (AI) je močna tehnologija, ki obljublja, da bo spremenila naša življenja. Še nikoli ni bilo tako jasno kot danes, ko so zmogljiva orodja na voljo vsakomur z internetno povezavo.
To vključuje glasovne generatorje z umetno inteligenco, napredno programsko opremo, ki je sposobna tako kompetentno posnemati človeški govor, da je nemogoče razlikovati med obema. Kaj to pomeni za kibernetsko varnost?
Kako delujejo glasovni generatorji AI?
Sinteza govora, proces umetnega ustvarjanja človeškega govora, obstaja že desetletja. In tako kot vsa tehnologija je tudi ta z leti doživela korenite spremembe.
Tisti, ki so uporabljali Windows 2000 in XP, se morda spomnijo Microsoft Sama, privzetega moškega glasu operacijskega sistema za pretvorbo besedila v govor. Microsoft Sam je opravil delo, vendar so bili zvoki, ki jih je proizvajal, robotski, togi in nenaravni. Orodja, ki jih imamo danes na voljo, so precej naprednejša, predvsem po zaslugi globokega učenja.
Globoko učenje je a metoda strojnega učenja ki temelji na umetnih nevronskih mrežah. Zaradi teh nevronskih mrež je sodobna umetna inteligenca sposobna obdelave podatkov skoraj tako, kot nevroni v človeških možganih interpretirajo informacije. To pomeni, da bolj kot je AI podoben človeku, boljši je pri posnemanju človeškega vedenja.
Na kratko, tako delujejo sodobni glasovni generatorji AI. Več govornih podatkov, ki so jim izpostavljeni, bolj spretni postanejo pri posnemanju človeškega govora. Zaradi sorazmerno nedavnega napredka te tehnologije lahko najsodobnejša programska oprema za pretvorbo besedila v govor v bistvu posnema zvoke, ki jih dovaja.
Kako akterji groženj uporabljajo AI glasovne generatorje
Ni presenetljivo, da akterji groženj zlorabljajo to tehnologijo. In ne le kibernetski kriminalci v tipičnem pomenu besede, ampak tudi dezinformatorji, goljufi, tržniki s črnimi klobuki in troli.
V trenutku, ko je ElevenLabs januarja 2023 izdal beta različico svoje programske opreme za pretvorbo besedila v govor, so jo skrajno desni troli na oglasni deski 4chan začeli zlorabljati. Z uporabo napredne umetne inteligence so reproducirali glasove posameznikov, kot sta David Attenborough in Emma Watson, zaradi česar se je zdelo, kot da zvezdniki izvajajo podle, sovražne tirade.
Kot podpredsednik poročal takrat, je ElevenLabs priznal, da ljudje zlorabljajo njegovo programsko opremo, zlasti kloniranje glasu. Ta funkcija omogoča vsakomur, da "klonira" glas druge osebe; vse kar morate storiti je, da naložite enominutni posnetek in pustite, da AI naredi ostalo. Predvidoma daljši kot je posnetek, boljši je rezultat.
Marca 2023 je pozornost pritegnil viralni videoposnetek na TikToku The New York Times. V videu sta slavnega podcasterja Joeja Rogana in dr. Andrewa Hubermana, pogostega gosta v oddaji The Joe Rogan Experience, slišala razpravljati o kofeinskem napitku, ki "povečuje libido". Iz videoposnetka je bilo videti, kot da Rogan in Huberman nedvoumno podpirata izdelek. V resnici so bili njihovi glasovi klonirani z AI.
Približno v istem času je banka Silicon Valley Bank s sedežem v Santa Clari v Kaliforniji propadla zaradi napak pri upravljanju tveganj in drugih težav in jo je prevzela državna vlada. To je bil največji propad banke v Združenih državah po finančni krizi leta 2008, zato je povzročil šok po svetovnih trgih.
K paniki je prispeval lažni zvočni posnetek ameriškega predsednika Joeja Bidna. Na posnetku je očitno slišati, kako Biden opozarja na neizbežen "propad" in svoji administraciji naroča, naj "uporabi vso moč medijev, da pomiri javnost". Preverjevalci dejstev kot PolitiFact so hitro ovrgli posnetek, vendar je verjetno, da so ga do takrat že slišali milijoni.
Če se glasovni generatorji AI lahko uporabljajo za lažno predstavljanje slavnih oseb, jih je mogoče uporabiti tudi za lažno predstavljanje običajnih ljudi in prav to so počeli kibernetski kriminalci. Po navedbah ZDNet, tisoče Američanov nasede prevaram, znanim kot vishing ali glasovno lažno predstavljanje vsako leto. En starejši par je leta 2023 prišel na naslovnice nacionalnih časopisov, ko ju je poklical njun "vnuk", ki je trdil, da je v zaporu, in prosil za denar.
Če ste kdaj naložili videoposnetek YouTube (ali se pojavili v njem), sodelovali v velikem skupinskem klicu z ljudmi, ki jih ne veste ali naložili vaš glas na internet v določeni vlogi, ste lahko vi ali vaši ljubljeni teoretično v nevarnosti. Kaj bi prevaranta preprečilo, da bi naložil vaš glas v generator umetne inteligence, ga kloniral in stopil v stik z vašo družino?
Glasovni generatorji z umetno inteligenco motijo krajino kibernetske varnosti
Ni potreben strokovnjak za kibernetsko varnost, da bi ugotovil, kako nevarna je lahko umetna inteligenca v napačnih rokah. In čeprav je res, da lahko enako rečemo za vso tehnologijo, je umetna inteligenca edinstvena grožnja iz več razlogov.
Prvič, je razmeroma nov, kar pomeni, da pravzaprav ne vemo, kaj od njega pričakovati. Sodobna orodja umetne inteligence omogočajo kiberkriminalcem, da povečajo in avtomatizirajo svoje operacije na način brez primere, hkrati pa izkoriščajo relativno nevednost javnosti glede te zadeve. Poleg tega generativni AI akterjem groženj z malo znanja in spretnosti omogoča, da ustvari zlonamerno kodo, ustvarjanje prevarantskih mest, širjenje neželene pošte, pisanje e-poštnih sporočil z lažnim predstavljanjem, ustvarite realistične slike, in proizvajajo neskončne ure lažne avdio in video vsebine.
Bistveno je, da to deluje v obe smeri: umetna inteligenca se uporablja tudi za zaščito sistemov in verjetno bo še desetletja. Ne bi bilo nerazumno domnevati, da nas čaka nekakšna oboroževalna tekma z umetno inteligenco med kibernetskimi kriminalci in industrijo kibernetske varnosti, saj so obrambne in ofenzivne zmogljivosti teh orodij same po sebi enaka.
Za povprečnega človeka prihod razširjene generativne umetne inteligence zahteva radikalnost ponoven razmislek o varnostnih praksah. Čeprav je umetna inteligenca vznemirljiva in uporabna, lahko vsaj zabriše mejo med tem, kar je resnično, in ni, in v najslabšem primeru poslabša obstoječe varnostne težave in ustvari nov prostor za manevriranje akterjev groženj v.
Glasovni generatorji kažejo uničevalni potencial umetne inteligence
Takoj ko je ChatGPT prišel na trg, so se pogovori o regulaciji AI povečali. Vsak poskus omejevanja te tehnologije bi verjetno zahteval mednarodno sodelovanje do stopnje, ki je nismo videli že desetletja, zaradi česar je malo verjeten.
Duh je iz steklenice in najboljše, kar lahko storimo, je, da se ga navadimo. To in upam, da se bo sektor kibernetske varnosti temu ustrezno prilagodil.