Ideja, da je treba tehnologije umetne inteligence regulirati, je splošno mnenje. Večina vlad, razvijalcev izdelkov AI in celo običajnih uporabnikov izdelkov AI se strinja s tem. Na žalost je najboljši način za ureditev tega hitro rastočega področja nerešena uganka.
Če jih ne nadzorujemo, lahko tehnologije umetne inteligence negativno motijo naš način življenja in ogrozijo naš obstoj. Toda kako lahko vlade krmarijo v labirintu izzivov, ki jih prinaša to hitro razvijajoče se področje?
1. Predpisi o zasebnosti in varstvu podatkov
Ena glavnih skrbi tehnologij umetne inteligence je zasebnost in varnost podatkov. Sistemi umetne inteligence so stroji, lačni podatkov. Potrebujejo podatke za delovanje, več podatkov za učinkovitost in še več podatkov za izboljšave. Čeprav to ni problem, je način pridobivanja teh podatkov, njihova narava ter način njihove obdelave in shranjevanja ena največjih tem pogovorov v zvezi s predpisi o umetni inteligenci.
Glede na to je logična pot uvedba strogih predpisov o zasebnosti podatkov, ki urejajo podatke zbiranje, shranjevanje in obdelava ter pravice posameznikov – katerih podatki se uporabljajo – do dostopa in nadzora njihove podatke. Vprašanja, ki bi jih ti predpisi verjetno obravnavali, so:
- Kakšne podatke je mogoče zbirati?
- Ali bi morali nekateri zasebni podatki v AI veljati za tabu?
- Kako naj podjetja z umetno inteligenco ravnajo z občutljivimi osebnimi podatki, kot so zdravstveni kartoni ali biometrični podatki?
- Ali bi morala podjetja AI izvajati mehanizme, s katerimi lahko posamezniki preprosto zahtevajo izbris ali popravek svojih osebnih podatkov?
- Kakšne so posledice za podjetja z umetno inteligenco, ki ne upoštevajo predpisov o zasebnosti podatkov? Kako je treba spremljati skladnost in kako zagotoviti izvrševanje?
- Morda najpomembneje, kateri standard bi morala podjetja z umetno inteligenco uvesti, da bi zagotovila varnost občutljive narave informacij, ki jih imajo?
Ta in nekatera druga vprašanja so bila bistvo zakaj je bil ChatGPT začasno prepovedan v Italiji. Če teh pomislekov ne bomo obravnavali, bo prostor umetne inteligence morda divji zahod za zasebnost podatkov, italijanska prepoved pa se lahko izkaže kot vzorec za prepovedi v drugih državah po vsem svetu.
2. Razvoj etičnega okvira AI
Podjetja z umetno inteligenco se pogosto hvalijo s svojo zavezanostjo etičnim smernicam pri razvoju sistemov umetne inteligence. Vsaj na papirju so vsi zagovorniki odgovornega razvoja umetne inteligence. V medijih so vodje Googla poudarili, kako podjetje resno jemlje varnost in etiko umetne inteligence. Podobno je "Varna in etična umetna inteligenca" mantra za izvršnega direktorja OpenAI, Sama Altmana. Te so zelo pohvalne.
Toda kdo postavlja pravila? Kdo odloča, katere etične smernice AI so dovolj dobre? Kdo odloča o tem, kako izgleda varen razvoj AI? Trenutno se zdi, da ima vsako podjetje z umetno inteligenco svojo lastno vlogo pri odgovornem in etičnem razvoju umetne inteligence. OpenAI, Anthropic, Google, Meta, Microsoft, vsi. Preprosto zanašanje na podjetja z umetno inteligenco, da bodo naredila pravo stvar, je nevarno.
The posledice nepreverjenega prostora AI so lahko katastrofalne. Dovoliti posameznim podjetjem, da se odločijo, katere etične smernice naj sprejmejo in katere zavreči, je podobno, kot da bi hodili v spanju v apokalipso umetne inteligence. Rešitev? Jasen etični okvir AI, ki zagotavlja:
- Sistemi umetne inteligence ne postavljajo nepravično v slabši položaj ali diskriminirajo posameznikov ali določenih skupin na podlagi rase, spola ali socialno-ekonomskega statusa.
- Sistemi umetne inteligence so varni, zanesljivi in zanesljivi ter zmanjšujejo tveganje nenamernih posledic ali škodljivega vedenja.
- Sistemi umetne inteligence so zgrajeni ob upoštevanju širšega družbenega vpliva tehnologij umetne inteligence.
- Da ljudje obdržijo končni nadzor nad sistemi umetne inteligence in njihovo transparentno sprejemanje odločitev.
- Sistemi AI so namerno omejeni na načine, ki so koristni za ljudi.
3. Namenska regulativna agencija
Zaradi njegovega možnega vpliva na človeško civilizacijo se razprave o varnosti umetne inteligence običajno vlečejo vzporedno s tveganjem zdravstvene krize ali jedrske katastrofe. Da bi se izognili morebitnim jedrskim incidentom, je potrebna namenska agencija, kot je ameriška NRC (Jedrska regulativna komisija). Da bi se izognili tveganju nevarnih zdravstvenih kriz, je treba ustanoviti FDA (Food and Drug Administration)
Podobno je za zagotovitev, da stvari ne gredo narobe v prostoru umetne inteligence, potrebna posebna agencija, podobna FDA in NRC, saj umetna inteligenca še naprej agresivno prodira na vsa področja našega življenja. Na žalost je vprašanje regulacije umetne inteligence v državi zapleteno. Delo katere koli namenske regulativne agencije bo verjetno izjemno težko brez čezmejnega sodelovanja. Tako kot mora ameriška NRC (Jedrska regulativna komisija) sodelovati z roko v roki z Mednarodno agencijo za atomsko energijo Da bi bila agencija (IAEA) v najboljšem primeru, bi vsaka namenska regulativna agencija za umetno inteligenco v državi potrebovala tudi mednarodno analogijo.
Takšna agencija bi bila odgovorna za naslednje:
- Razvoj predpisov o AI
- Zagotavljanje skladnosti in uveljavljanja
- Nadzor nad procesom etične presoje projektov umetne inteligence
- Sodelovanje in meddržavno sodelovanje na področju varnosti in etike umetne inteligence
4. Reševanje pomislekov glede avtorskih pravic in intelektualne lastnine
Obstoječi zakoni o avtorskih pravicah in pravni okviri se rušijo zaradi umetne inteligence. Zaradi načina, na katerega so zasnovana orodja AI, zlasti generativna orodja AI, se zdijo kot javno odobren stroj za kršenje avtorskih pravic, proti kateremu ne morete storiti ničesar.
kako No, veliko današnjih sistemov AI se usposablja z avtorsko zaščitenim gradivom. Saj veste, avtorsko zaščiteni članki, avtorsko zaščitene pesmi, avtorsko zaščitene slike itd. Tako so všeč orodja ChatGPT, Bing AI in Google Bard lahko delajo čudovite stvari, ki jih počnejo oni.
Čeprav ti sistemi očitno izkoriščajo intelektualno lastnino ljudi, način, na katerega ti sistemi AI to počnejo se ne razlikuje od človeka, ki bere avtorsko zaščiteno knjigo, posluša avtorsko zaščitene pesmi ali gleda avtorsko zaščitene slike.
Lahko preberete avtorsko zaščiteno knjigo, se iz nje naučite novih dejstev in ta dejstva uporabite kot osnovo za svojo knjigo. Poslušate lahko tudi avtorsko zaščiteno pesem za navdih pri ustvarjanju lastne glasbe. V obeh primerih ste uporabili avtorsko zaščitena gradiva, vendar to ne pomeni nujno, da izpeljani izdelek krši avtorske pravice izvirnika.
Čeprav je to logična razlaga za razlago nereda, ki ga umetna inteligenca dela z zakoni o avtorskih pravicah, še vedno škodi lastnikom avtorskih pravic in intelektualne lastnine. Glede na to so predpisi potrebni za:
- Jasno opredelite odgovornosti in obveznosti vseh strani, ki sodelujejo v življenjskem ciklu sistema umetne inteligence. To vključuje pojasnitev vlog vsake strani, od razvijalcev umetne inteligence do končnih uporabnikov, da se zagotovi odgovornost stranke so odgovorne za kakršno koli kršitev avtorskih pravic ali kršitev intelektualne lastnine, ki jih zagreši AI sistemi.
- Okrepite obstoječe okvire avtorskih pravic in morda uvedite zakone o avtorskih pravicah, specifične za AI.
- Da bi zagotovili inovacije v prostoru umetne inteligence, hkrati pa zaščitili pravice izvirnih ustvarjalcev, AI predpisi bi morali na novo opredeliti pojma poštene uporabe in transformativnega dela v kontekstu Vsebina, ustvarjena z AI. Potrebne so jasnejše definicije in smernice za zagotovitev, da se bo prostor AI lahko še naprej izboljševal ob spoštovanju meja avtorskih pravic. Nujno je najti ravnotežje med inovativnostjo in ohranjanjem pravic ustvarjalcev vsebin.
- Jasne poti za sodelovanje z imetniki pravic. Če bodo sistemi umetne inteligence vseeno uporabljali intelektualno lastnino ljudi, morajo biti jasne poti ali okviri za razvijalce in lastnikom pravic za sodelovanje, zlasti v smislu finančnih nadomestil, če je izpeljanka takšne intelektualne lastnine komercializirana.
Regulacija umetne inteligence je obupno potreben popravek
Medtem ko se je umetna inteligenca pokazala kot obetavna rešitev za številne naše družbene težave, umetna inteligenca sama hitro postaja težava, ki jo je treba nujno rešiti. Čas je, da stopimo korak nazaj, razmislimo in naredimo potrebne popravke, da zagotovimo pozitiven vpliv umetne inteligence na družbo. Nujno potrebujemo ponovno kalibracijo našega pristopa k gradnji in uporabi sistemov AI.