Umetna inteligenca (AI) je tako kontroverzna kot impresivna. Lahko olajša številne dele dela in vsakdanjega življenja, sproža pa tudi nekatera etična vprašanja. Zlasti uporaba umetne inteligence s strani ameriške vlade povzroča nelagodje pri nekaterih ljudeh.
Danes je v uporabi ali razvoju veliko vladnih projektov umetne inteligence, nekateri pa so naredili veliko dobrega. Hkrati pa sprožajo veliko pomislekov glede zasebnosti umetne inteligence. Tukaj je podrobnejši pogled na te projekte in kaj pomenijo za javno zasebnost.
Primeri vladnih projektov umetne inteligence in avtomatizacije
Najosnovnejši primeri umetne inteligence, ki jih uporablja ameriška vlada, vključujejo avtomatizacijo rutinskega pisarniškega dela. Leta 2019 je uporabljal Seattle Robotska avtomatizacija procesov (RPA) skrbeti za vnos in obdelavo podatkov aplikacij. Od takrat je mesto prešlo skozi več kot 6000 zaostankov vlog in prihranilo na stotine delovnih ur.
Drugi vladni projekti umetne inteligence so bolj privlačni. Newyorška gasilska služba testira pse robote iz
Boston Dynamics za merjenje strukturnih poškodb in strupenih hlapov, preden vstopijo gasilci. Pred projektom gasilskih robotov je newyorška policijska uprava načrtovala implementacijo istih robotov.Policijske službe in druge vladne agencije po vsej državi razmišljajo o uporabi podobnih tehnologij. Ko pa se ti vladni projekti umetne inteligence razvijajo, so njihove morebitne pomanjkljivosti glede zasebnosti postale jasnejše.
Ali je umetna inteligenca grožnja zasebnosti in varnosti?
Ali boste v prihodnosti videli policijske robote, je še vedno negotovo, a zdi se, da gredo stvari v to smer. Ti projekti imajo veliko prednosti, vendar pomisleki glede zasebnosti umetne inteligence postajajo resnejši, ko se ukvarjamo z vlado. Tukaj je nekaj največjih težav s temi tehnologijami.
Umetna inteligenca temelji na zbiranju in analizi podatkov. Posledično več vladnih projektov umetne inteligence pomeni, da bodo te agencije zbirale in hranile dodatne informacije o svojih državljanih. Nekateri ljudje menijo, da vse te informacije zbirajo krši njihovo zasebnost in krši njihove pravice.
Tehnologije, kot je projekt gasilskih psov, so še posebej zaskrbljujoče, ker lahko vladni nadzor naredijo zavajajoče. Agencije pravijo, da je robot tam, da preveri varnostne pomisleke, vendar ljudje ne morejo povedati, katere podatke zbira. Lahko ima kamere in senzorje, ki skenirajo njihove obraze ali sledijo njihovim mobilnim telefonom, ne da bi oni vedeli.
Nekateri ljudje skrbijo, da bo robotov "kul faktor" skril njihov potencial nadzora. Policijski roboti bi v prihodnosti lahko vohunili za državljane, ne da bi vzbujali veliko suma, saj ljudje samo vidijo novo tehnologijo, namesto da bi kršili njihovo zasebnost.
Nejasne odgovornosti
Ti projekti umetne inteligence in avtomatizacije postavljajo tudi vprašanje odgovornosti. Če robot naredi napako, ki povzroči škodo, kdo je zanjo odgovoren? Ko državni uslužbenec prekorači svoje meje in posega v pravice nekoga, ga lahko sodišča zahtevajo, da odgovarja, kaj pa robot?
To težavo lahko opazite pri samovozečih avtomobilih. Ljudje so proizvajalcu zaračunali zahtevek za odgovornost za izdelek v nekaterih primerih nesreče avtopilota, medtem ko drugi krivijo voznika. V enem primeru, Nacionalni odbor za varnost v prometu je odgovornost naložila tako proizvajalcu kot vozniku, vendar je treba o tem odločati za vsak primer posebej. Policijski roboti blatijo vodo na enak način. Če kršijo vašo zasebnost, ni jasno, ali kriviti proizvajalca, policijo ali nadzornike.
Ta zmeda bi lahko upočasnila in zapletla sodne postopke. Morda bo trajalo nekaj časa, da žrtve kršitev zasebnosti ali njihovih pravic dobijo pravico, ki si jo zaslužijo. Novi zakoni in pravni precedens bi lahko razjasnili stvari in rešili to vprašanje, a trenutno je negotovo.
Tveganja kršitve podatkov
Umetna inteligenca, ki jo uporablja ameriška vlada, bi lahko razširila tudi pomisleke glede zasebnosti AI, ki jih vidite v zasebnem sektorju. Zbiranje nekaterih podatkov je morda povsem zakonito, a več ko jih organizacije zberejo, bolj so ogrožene. Podjetje ali vlada podatkov morda ne bo uporabljala za karkoli nezakonitega, lahko pa ljudi naredi ranljive za kibernetski kriminal.
Tam so bili več kot 28.000 kibernetskih napadov samo v letu 2019 proti ameriški vladi. Če imajo agencije več zasebnih podatkov državljanov, bi ti napadi lahko prizadeli več kot samo vlado. Uspešna kršitev podatkov bi lahko ogrozila številne ljudi, ne da bi ti vedeli. Kršitve pogosto ostanejo neopažene, zato jih morate preverite, ali vaši podatki še niso naprodaj.
Na primer, če policijski robot v prihodnosti uporablja prepoznavanje obrazov za iskanje iskanih kriminalcev, lahko shrani številne biometrične podatke državljanov. Hekerji, ki vstopijo v sistem, bi lahko ukradli te podatke in jih uporabili za vdor v bančne račune ljudi. Vladni projekti AI morajo imeti močne ukrepe za kibernetsko varnost, če ne želijo ogroziti podatkov ljudi.
Umetna inteligenca vlade ima koristi, vendar vzbuja pomisleke
Še vedno ni jasno, kako bo ameriška vlada uporabljala umetno inteligenco v prihodnosti. Nove zaščite in zakoni bi lahko rešili te težave in prinesli vse prednosti umetne inteligence brez njenih tveganj. Za zdaj pa te skrbi vzbujajo nekaj alarmov.
Pomislekov glede zasebnosti je veliko povsod, kjer deluje AI. Ta vprašanja postajajo resnejša, saj igra večjo vlogo v vladi. Državni projekti umetne inteligence bi lahko naredili veliko dobrega, vendar imajo tudi znaten potencial škode.
Microsoft opozarja, da se lahko "1984" uresniči čez tri leta
Preberite Naprej
Povezane teme
- Varnost
- Umetna inteligenca
- Spletna zasebnost
O avtorju
Shannon je ustvarjalka vsebine, ki se nahaja v Philly, PA. Na tehnološkem področju piše že približno 5 let po diplomi iz IT. Shannon je glavna urednica revije ReHack Magazine in pokriva teme, kot so kibernetska varnost, igre na srečo in poslovna tehnologija.
Naročite se na naše novice
Pridružite se našemu glasilu za tehnične nasvete, ocene, brezplačne e-knjige in ekskluzivne ponudbe!
Kliknite tukaj, da se naročite