Razvoj umetne inteligence hitro napreduje, toda kdo naj vodi umetno inteligenco in njen vpliv na svet?

Ključni zaključki

  • Umetna inteligenca potrebuje strožje spremljanje, saj se še vedno pojavljajo ranljivosti kibernetske varnosti in skrbi glede zasebnosti.
  • Vlada, tehnološka podjetja in končni uporabniki imajo svojo vlogo pri urejanju umetne inteligence, vendar ima vsak pristop svoje omejitve.
  • K regulaciji umetne inteligence prispevajo tudi medijske hiše, neprofitne organizacije, združenja tehnološke industrije, akademske ustanove in organi pregona.

Splošna javnost ima različne poglede na umetno inteligenco – nekateri verjamejo, da bodo stroji v celoti nadomestili človeške delavce, medtem ko drugi trdijo, da je umetna inteligenca modna muha. Vendar pa se vsi strinjajo, da AI potrebuje strožje spremljanje.

Kljub pomembnosti regulacije umetne inteligence je ta zapustila usposabljanje. Razvijalci so tako obsedeni z izgradnjo naslednjega največjega modela umetne inteligence, da kibernetsko varnost zamenjajo za hiter napredek. Vprašanje ni, ali AI potrebuje regulacijo; odvisno od tega, kateri upravni organ z ustreznim financiranjem, človeškimi viri in tehnološko zmogljivostjo bo prevzel pobudo.

instagram viewer

Torej, kdo bi moral regulirati AI?

Državni organi

Različni ljudje, od potrošnikov do tehnološki voditelji, upajo, da bo vlada uredila AI. Javno financirane ustanove imajo sredstva za to. Tudi Elon Musk in Sam Altman, dva glavna voznika dirke AI, menita, da nekateri skrbi glede zasebnosti v zvezi z AI so preveč nevarni, da bi jih upravni organi spregledali.

Vlada bi se morala osredotočiti na zaščito zasebnosti in državljanskih svoboščin svojih volivcev, če prevzame regulacijo AI. Kibernetski kriminalci še naprej iščejo načine za izkoriščanje sistemov umetne inteligence v svojih shemah. Posameznike, ki niso dobro seznanjeni z umetno inteligenco, lahko zlahka preslepijo sintetizirani glasovi, videoposnetki deepfake in spletni profili, ki jih upravljajo boti.

Vendar pa je ena glavnih težav z vlado, ki ureja umetno inteligenco, ta, da bi lahko nenamerno zadušila inovacije. AI je kompleksna, razvijajoča se tehnologija. Če uradniki, ki nadzorujejo smernice za uvajanje, razvoj in usposabljanje, ne razumejo, kako deluje umetna inteligenca, lahko sprejmejo prezgodnje in neučinkovite presoje.

Razvijalci AI, tehnološka podjetja in laboratoriji

Glede na morebitne ovire, ki bi lahko nastale zaradi vladnega spremljanja umetne inteligence, bi mnogi raje imeli tehnološka podjetja na čelu regulacije. Menijo, da bi morali biti razvijalci odgovorni za tehnologijo, ki jo izdajo. Samoregulacija jim omogoča spodbujanje inovacij in osredotočanje na učinkovito napredovanje teh sistemov.

Poleg tega jim bo njihovo poglobljeno razumevanje umetne inteligence pomagalo pri oblikovanju poštenih, informiranih smernic, ki bodo dajale prednost varnosti uporabnikov brez ogrožanja funkcionalnosti. Tako kot pri vsaki tehnologiji strokovno znanje v panogi poenostavi spremljanje. Določanje neusposobljenih uradnikov za urejanje tehnologij, ki jih komaj razumejo, bi lahko povzročilo več težav kot koristi.

Kot primer vzemite zaslišanje v ameriškem senatu leta 2018 o Facebookovih zakonih o zasebnosti podatkov. V tem poročilu avtorja The Washington Post, boste videli, da veliko zakonodajalcev zamenjujejo osnovne funkcije Facebooka. Torej, razen če ameriški senat ustanovi edini oddelek tehničnih strokovnjakov, verjetno niso usposobljeni za urejanje tako naprednega, nenehno spreminjajočega se sistema, kot je umetna inteligenca.

Vendar pa je glavna težava tehnoloških podjetij, ki se regulirajo sama, ta, da lahko sumljive korporacije zlorabijo svojo moč. Brez posredovanja tretje osebe lahko v bistvu svobodno počnejo, kar hočejo.

Končni uporabniki

Nekateri se bojijo, da bodo vlada in zasebni subjekti zlorabili sisteme umetne inteligence. Niso prepričani, ali bodo peščici upravnih organov podelili popoln nadzor nad tako zmogljivimi tehnologijami, zlasti ker se umetna inteligenca še vedno razvija. Morda se bodo sčasoma borili za oblast, namesto da bi si prizadevali za učinkovito ureditev.

Da bi ublažili ta tveganja, skeptiki verjamejo, da si končni uporabniki zaslužijo proste roke pri uporabi modelov umetne inteligence, kot želijo. Pravijo, da bi se morali vladni organi vmešavati le, ko uporabniki umetne inteligence kršijo zakon. To je ambiciozen cilj, vendar bi ga tehnično lahko dosegli, če bi odprtokodni razvijalci umetne inteligence prevladovali na tržnih deležih.

Kljub temu ta nastavitev postavlja posameznike, ki niso tehnično podkovani, v slabši položaj. Uporabniki so odgovorni za nastavitev omejitev znotraj svojih sistemov - žal nimajo vsi sredstev za to.

Prav tako je kratkovidno odstraniti lastniške modele s trga. Širjenje Odprtokodni modeli umetne inteligence imajo več pozitivnih in negativnih učinkov; za nekatere slabosti odtehtajo prednosti.

Drugi subjekti, ki igrajo vlogo pri regulaciji umetne inteligence

Čeprav bodo glavni subjekti vodili regulacijo umetne inteligence, obstajajo organi, ki igrajo pomembno vlogo:

Mediji igrajo ključno vlogo pri oblikovanju dojemanja javnosti o AI. Poročajo o razvoju v panogi, delijo nova orodja, ozaveščajo o škodljivih uporabah umetne inteligence in intervjuvajo strokovnjake o pomembnih vprašanjih.

Večina dejstev, ki jih končni uporabniki vedo o AI, izvira predvsem iz medijskih hiš. Objavljanje lažnih podatkov, namerno ali nenamerno, bo povzročilo nepopravljivo škodo – ne smete podcenjevati, kako hitro se napačne informacije širijo.

2. Nevladne organizacije

Več neprofitnih organizacij se osredotoča na zaščito zasebnosti in državljanskih svoboščin uporabnikov umetne inteligence. Izobražujejo javnost z brezplačnimi viri, zagovarjajo nove politike, sodelujejo z vladnimi uradniki in izražajo spregledane skrbi.

Edina težava neprofitnih organizacij je, da jim običajno primanjkuje sredstev. Ker niso povezani z vlado, se za vsakodnevno delovanje zanašajo na zasebna zbiranja in donacije. Žal le redke organizacije dobijo ustrezna sredstva.

3. Združenja tehnološke industrije

Združenja tehnološke industrije, osredotočena na AI, lahko zastopajo pravice in interese javnosti. Tako kot neprofitne organizacije sodelujejo z zakonodajalci, zastopajo zadevne posameznike, zagovarjajo pravične politike in ozaveščajo o določenih vprašanjih.

Razlika pa je v tem, da so pogosto povezani z zasebnimi podjetji. Njihovi člani še vedno nagovarjajo, vendar bodo običajno dobili dovolj sredstev od svojih matičnih organizacij, če le prinašajo rezultate.

4. Akademske ustanove

Čeprav umetna inteligenca prinaša več tveganj, je sama po sebi nevtralna. Vse pristranskosti, težave z zasebnostjo, varnostne napake in morebitne dejavnosti kibernetske kriminalitete izvirajo iz ljudi, zato se umetne inteligence same po sebi ni treba bati.

Toda le redki že razumejo, kako delujejo sodobni modeli umetne inteligence. Napačne predstave izkrivljajo dojemanje umetne inteligence pri ljudeh in ohranjajo neutemeljene strahove, kot je umetna inteligenca, ki prevzema človeštvo ali krade delovna mesta.

Akademske ustanove bi lahko te izobraževalne vrzeli zapolnile z dostopnimi viri. Znanstvenih del o sodobnih LLM in NLP sistemih še ni preveč. Javnost lahko umetno inteligenco uporablja bolj odgovorno in se bori proti kibernetskemu kriminalu, če popolnoma razume, kako deluje.

5. Agencije kazenskega pregona

Organi pregona bi morali pričakovati, da bodo naleteli na več Kibernetski napadi, ki jih podpira AI. S širjenjem generativnih modelov lahko prevaranti hitro sintetizirajo glasove, ustvarjajo globoko lažne slike, strgajo osebne podatke (PII) in celo ustvariti povsem nove osebe.

Večina agencij ni opremljenih za obravnavanje teh kaznivih dejanj. Morali bi vlagati v nove sisteme in usposabljati svoje uradnike o sodobnem kibernetskem kriminalu; sicer bodo imeli težave pri ulovu teh prevarantov.

Prihodnost regulacije umetne inteligence

Glede na hitro razvijajočo se naravo umetne inteligence je malo verjetno, da bi jo nadzoroval en sam upravni organ. Da, tehnološki voditelji bodo imeli večjo moč kot potrošniki, vendar morajo različni subjekti sodelovati pri obvladovanju tveganj umetne inteligence, ne da bi ovirali napredek. Najbolje je, da nadzorne ukrepe določite zdaj, medtem ko je umetna splošna inteligenca (AGI) še vedno oddaljen cilj.

Kljub temu je regulacija AI prav tako oddaljena kot AGI. Medtem morajo uporabniki upoštevati varnostne prakse za boj proti grožnjam, ki jih poganja umetna inteligenca. Dobre navade, kot je omejevanje ljudi, s katerimi se povezujete v spletu, in varovanje vaših digitalnih podatkov, ki omogočajo osebno prepoznavo, že veliko pripomorejo.