Lažne novice, deepfake, zavajajoče slike: vse to je mogoče ustvariti z uporabo umetne inteligence. Evo, kako umetna inteligenca pomeni, da se napačne informacije širijo.

Umetna inteligenca (AI) ima zdaj pomembno vlogo v različnih vidikih našega življenja. Natančneje, generativna orodja AI, kot so ChatGPT in druga, so se znatno povečala. To pomeni, da bo v prihodnosti na voljo obilo vsebin, ustvarjenih z umetno inteligenco.

Vendar pa generativna umetna inteligenca predstavlja tudi tveganje dezinformacij, ki jih ustvari umetna inteligenca. Njegove lastnosti oportunističnim posameznikom olajšajo širjenje lažnih informacij. Torej, raziščimo, kako se generativna umetna inteligenca uporablja za dezinformacije.

Možna tveganja generativne umetne inteligence za širjenje dezinformacij

Generativna umetna inteligenca ljudem predstavlja veliko groženj, na primer odvzemanje delovnih mest, več nadzora in kibernetski napadi. In varnostne težave z AI se bodo še poslabšale. Obstaja pa še ena skrb: ljudje ga lahko uporabijo za širjenje laži. Zavajajoči posamezniki lahko uporabljajo generativno umetno inteligenco za deljenje lažnih novic prek vizualne, slušne ali besedilne vsebine.

instagram viewer

Lažne novice lahko razvrstimo v tri vrste:

  1. Napačne informacije: Nenamerna napačna ali lažna informacija.
  2. Dezinformacije: Namerna uporaba manipulativnih ali zavajajočih informacij.
  3. Napačne informacije: Zavajajoče novice ali pretirana različica resnice.

Kdaj v kombinaciji s tehnologijo deepfakegenerativna orodja umetne inteligence lahko ustvarijo vsebino, ki izgleda in se sliši resnično, kot so slike, videi, zvočni posnetki in dokumenti. Obstaja veliko možnosti za ustvarjanje lažne vsebine, zato morate vedeti kako se zaščititi pred deepfake videi je pomembno.

Razširjevalci lažnih novic lahko ustvarijo velike količine vsebine, kar olajša širjenje med množicami prek družbenih medijev. Ciljno usmerjene dezinformacije se lahko uporabijo za vplivanje na politične kampanje, kar lahko vpliva na volitve. Poleg tega uporaba orodij za ustvarjanje besedil in slik z umetno inteligenco vzbuja pomisleke glede zakonov o avtorskih pravicah, kot poroča kongresna raziskovalna služba: ugotavljanje lastništva vsebine, ustvarjene s temi orodji, postane zahtevno.

Kako bo zakon obravnaval širjenje lažnih novic prek generativne umetne inteligence? Kdo bo odgovoren za širjenje lažnih informacij – uporabniki, razvijalci ali orodja sama?

4 načini uporabe generativne umetne inteligence za širjenje dezinformacij

Da bi ostali varni na spletu, morajo vsi razumeti tveganja generativne umetne inteligence pri širjenju dezinformacij, saj se pojavlja v številnih različnih oblikah. Tukaj je nekaj načinov, kako se lahko uporablja za manipulacijo ljudi.

1. Ustvarjanje lažne spletne vsebine

Ustvarjanje lažne vsebine z uporabo generativne umetne inteligence je pogosta strategija tistih, ki širijo lažne novice. Za ustvarjanje različnih vrst vsebin uporabljajo priljubljena generativna orodja AI, kot so ChatGPT, DALL-E, Bard, Midjourney in druga. na primer ChatGPT lahko ustvarjalcem vsebin pomaga na več načinov. Lahko pa ustvari tudi objave v družabnih medijih ali novice, ki lahko zavedejo ljudi.

Da bi to dokazal, sem ChatGPT pozval, naj napiše izmišljen članek o aretaciji ameriškega predsednika Joeja Bidna zaradi obtožb korupcije. Zahtevali smo tudi, da vključi izjave ustreznih organov, da bo videti bolj verodostojno.

Tukaj je izmišljen članek, ki ga je pripravil ChatGPT:

Presenetljivo je bil rezultat zelo prepričljiv. Vseboval je imena in izjave avtoritativnih osebnosti, da bi bil članek bolj prepričljiv. To kaže, kako lahko vsakdo uporabi takšna orodja za ustvarjanje lažnih novic in njihovo preprosto širjenje po spletu.

2. Uporaba klepetalnih robotov za vplivanje na mnenja ljudi

Klepetalni roboti, ki se opirajo na generativne modele umetne inteligence, lahko uporabljajo različne taktike za vplivanje na mnenja ljudi, vključno z:

  • Čustvena manipulacija: AI lahko uporablja modele čustvene inteligence za izkoriščanje čustvenih sprožilcev in pristranskosti za oblikovanje vaših perspektiv.
  • Odmevne komore in potrditvena pristranskost: Klepetalni roboti lahko okrepijo obstoječa prepričanja z ustvarjanjem odmevnih komor, ki potrjujejo vaše pristranskosti. Če že imate določeno stališče, ga lahko AI okrepi s predstavitvijo informacij, ki so v skladu z vašimi mnenji.
  • Družbeni dokaz in močan učinek: Umetna inteligenca lahko manipulira z javnim mnenjem z ustvarjanjem družbenih dokazov. To ima lahko pomembne posledice, saj lahko posameznike pripelje do tega, da se prilagodijo priljubljenemu mnenju ali sledijo množici.
  • Ciljna personalizacija: Klepetalni roboti imajo dostop do ogromnih količin podatkov, ki jih lahko zberejo za ustvarjanje prilagojenih profilov. To jim omogoča, da prilagodijo vsebino glede na vaše želje. S ciljno usmerjeno personalizacijo lahko AI prepriča posameznike ali dodatno okrepi njihova mnenja.

Vsi ti primeri ponazarjajo, kako je mogoče chatbote uporabiti za zavajanje ljudi.

3. Ustvarjanje AI DeepFakes

Nekdo lahko uporabi deepfake za ustvarjanje lažnih videoposnetkov posameznika, ki govori ali počne stvari, ki jih nikoli ni storil. Takšna orodja lahko uporabijo za socialni inženiring ali vodenje klevetniških kampanj proti drugim. Poleg tega lahko v današnji kulturi memov deepfake služijo kot orodje za spletno ustrahovanje na družbenih medijih.

Poleg tega lahko politični nasprotniki uporabljajo globoko ponarejene zvoke in videoposnetke, da bi omadeževali ugled svojih nasprotnikov in s pomočjo umetne inteligence manipulirali z javnimi čustvi. torej Deepfake, ki jih ustvari umetna inteligenca, predstavljajo številne grožnje v prihodnosti. Glede na leto 2023 Poročilo Reutersa, bi lahko vzpon tehnologije AI vplival na ameriške volitve leta 2024. Poročilo poudarja dostopnost orodij, kot sta Midjourney in DALL-E, ki zlahka ustvarijo izmišljeno vsebino in vplivajo na kolektivna mnenja ljudi.

Ključno je torej, da lahko prepoznati videoposnetke, ustvarjene z deepfakes in jih ločiti od izvirnikov.

4. Kloniranje človeških glasov

Generativna umetna inteligenca skupaj s tehnologijo deepfake omogoča manipulacijo govora nekoga. Tehnologija Deepfake hitro napreduje in ponuja različna orodja, ki lahko posnemajo glas kogar koli. To zlonamernim posameznikom omogoča, da se lažno predstavljajo za druge in zavajajo nič hudega sluteče posameznike. En tak primer je uporaba glasbe deepfake.

Morda ste naleteli na orodja, kot je Podoben AI, Speechify, Lažen tiin drugi, ki lahko posnemajo glasove slavnih. Čeprav so ta avdio orodja AI lahko zabavna, predstavljajo velika tveganja. Prevaranti lahko uporabijo tehnike kloniranja glasu za različne goljufive sheme, kar povzroči finančne izgube.

Prevaranti lahko uporabijo globoko ponarejene glasove, da posnemajo vaše ljubljene in vas pokličejo ter se pretvarjajo, da so v stiski. S sintetičnim zvokom, ki zveni prepričljivo, vas lahko pozivajo, da nujno pošljete denar, zaradi česar postanete žrtev njihovih prevar. Incident, o katerem poroča The Washington Post marca 2023 ponazarja to težavo: prevaranti so uporabili globoko ponarejene glasove, da bi ljudi prepričali, da so njihovi vnuki v zaporu in potrebujejo denar ...

Kako opaziti dezinformacije, ki jih širi umetna inteligenca

Boj proti širjenju dezinformacij, ki jih omogoča umetna inteligenca, je v današnjem svetu pereče vprašanje. Kako lahko torej opazite lažne informacije, ki jih je ustvaril AI?

  1. Do spletnih vsebin pristopite s skepso. Če naletite na nekaj, kar se zdi manipulativno ali neverjetno, to preverite z navzkrižnim preverjanjem.
  2. Preden zaupate novicam ali objavi v družabnem omrežju, se prepričajte, da izvira iz uglednega vira.
  3. Bodite pozorni na znake globokih ponaredkov, kot so nenaravno mežikanje ali gibi obraza, slaba kakovost zvoka, popačene ali zamegljene slike in pomanjkanje pristnih čustev v govoru.
  4. Uporabite spletna mesta za preverjanje dejstev, da preverite točnost informacij.

Če sledite tem korakom, se lahko prepoznate in zaščitite pred napačnimi informacijami, ki jih poganja AI.

Pazite se dezinformacij, ki jih širi AI

Generativna programska oprema je igrala ključno vlogo pri napredku AI. Kljub temu pa so lahko tudi pomemben vir dezinformacij v družbi. Ta cenovno dostopna orodja so vsakomur omogočila ustvarjanje različnih vrst vsebin z uporabo prefinjenih modelov AI; njihova sposobnost ustvarjanja vsebine v velikih količinah in vključevanja globokih ponaredkov jih naredi še bolj nevarne.

Pomembno je, da se zavedate izzivov dezinformacij v dobi umetne inteligence. Razumevanje, kako je mogoče AI uporabiti za širjenje lažnih novic, je prvi korak k zaščiti pred napačnimi informacijami.