Samo v zadnjih nekaj letih so zmogljivosti AI drastično napredovale. Danes lahko uporabljamo AI za ustvarjanje umetnosti, pisanje zgodb, spoznavanje sveta in še veliko več. Toda ali se vse to dogaja malo prezgodaj? Ali se umetna inteligenca razvija prehitro in kateri znaki kažejo na to?

Zakaj so ljudje zaskrbljeni zaradi umetne inteligence?

Konec marca 2023 je Inštitut Future of Life na spletu objavil dokument z naslovom "Zaustavitev ogromnih poskusov umetne inteligence: odprto pismo". Dokument je vseboval argumente proti razvoju umetne inteligence mimo sofisticiranosti GPT-4, najnovejše različice klepetalnega robota OpenAI, ki ga poganja AI.

V pismu je bilo zapisano, da "lahko sistemi umetne inteligence s človekovo-konkurenčno inteligenco predstavljajo velika tveganja za družbo in človeštvo," in da je treba "zmogljive sisteme umetne inteligence razviti šele, ko smo prepričani, da bodo njihovi učinki pozitivni in njihova tveganja obvladljiv."

Številne ugledne osebnosti na tehnološkem področju, vključno s Stevom Wozniakom in

instagram viewer
Elon Musk je podpisal pismo in želi začasno ustaviti razvoj AI. Ta prošnja za ustavitev razvoja umetne inteligence je postavila pod vprašaj, kako nevarna postaja umetna inteligenca in kakšna tveganja predstavlja za človeško življenje.

Torej, kateri znaki kažejo, da se AI premika prehitro?

1. Tekmovanje z ljudmi

Videli smo že, da je tehnologija nadomestila človeške delavce v neštetih scenarijih. Ko se odpravite v restavracijo s hitro prehrano, lahko zdaj naročate prek računalniškega zaslona, ​​ko želite kupiti živila, pa opravite blagajno z avtomatiziranim sistemom. To je lahko hitra in priročna možnost, a ko postaja avtomatizacija vse pomembnejša v različnih panogah, potreba po človeških delavcih upada.

Tukaj se začne težava. Seveda morajo ljudje delati, da se preživljajo, vendar je zaradi porasta avtomatizacije to veliko težje. To še posebej velja za delavce z minimalno plačo, kot so tisti v gostinstvu, proizvodnji in maloprodaji. Osnovna opravila, kot so preverjanje naročil, prevzem tovora in čiščenje, lahko opravijo stroji. Integracija umetne inteligence pomeni, da morda kmalu ne bomo več potrebovali operaterjev za to tehnologijo.

O tem je poročal FormStack da 76 % podjetij uporablja avtomatizacijo za standardizacijo ali avtomatizacijo dnevnih delovnih tokov. In s Zapier poročajo, da je 94 % delavcev izjavilo, da njihovo delo vključuje ponavljajoče se in dolgotrajne naloge, Avtomatizacija, ki jo poganja umetna inteligenca, bi lahko zelo zlahka postala večinski del globalne delovne sile industrije.

2. Spodbujanje človeške lenobe

Ena od ključnih prednosti umetne inteligence je, da lahko poenostavi toliko nalog. Toda to udobje se lahko zelo hitro umakne lenobi. In v nekaterih primerih je že.

Vzemite na primer ChatGPT. ChatGPT lahko uporabljate za različne stvari kot je pisanje esejev, raziskovanje tem, ustvarjanje šal, prevajanje besedil in še veliko več. Imeti storitev, ki lahko hitro izvede naloge za vas, je super, vendar nas tudi vodi k samozadovoljstvu. Zaviranje truda in ustvarjalnosti na ta način lahko zagotovo negativno vpliva na človeštvo kot celoto, kar je ključni razlog, zakaj je toliko ljudi zaskrbljenih zaradi umetne inteligence.

V današnjem času smo tako vajeni storitev, ki jih poganja umetna inteligenca, da smo jim seveda zelo zaupali. Na primer, Microsoftova virtualna pomočnica Cortana uporablja strojno učenje in AI za izvajanje ukazov uporabnikov. Številni drugi virtualni pomočniki, vključno z Applovo Siri, za delovanje uporabljajo tudi AI.

Zaupanje v to tehnologijo je morda varno, vendar tega ni treba vedeti, zlasti glede na to, da je AI še vedno v zelo razvojni fazi.

3. Širjenje lažnih informacij

Avtorstvo slike: Deep Homage/Flickr

V običajnih sferah je umetna inteligenca postala zelo prepoznavna zaradi svoje sposobnosti ustvarjanja umetnosti, slik in videoposnetkov. Ne le, da je mogoče storitve, ki jih poganja AI, uporabiti za ustvarjanje umetnosti, ampak lahko ustvarijo tudi posebno kontroverzno obliko medijev, znano kot deepfakes. Deepfake so videoposnetki, ki prikazujejo obraz osebe, ki je prekrita s telesom druge osebe.

To zveni precej zabavno, vendar ga je mogoče zelo enostavno zlorabiti.

Obstaja že na tisoče videoposnetkov zvezdnikov in političnih osebnosti, ki prek globokih ponaredkov govorijo neverjetno neprimerne in neprimerne stvari. Medtem ko je nekatere globoke ponaredke zelo enostavno prepoznati, so nekateri tako prefinjeni, da je težko razločiti, ali so resnični ali ne. Ko se to zgodi, lahko ljudje domnevajo, da je javna osebnost povedala nekaj, česar v resnici sploh niso nikoli rekli.

Na podlagi tega si bodo ljudje ustvarili mnenje o teh videoposnetkih in tako prispevali k širjenju dezinformacij na spletu.

Še več, klepetalni roboti, ki jih poganja AI, lahko uporabnikom posredujejo tudi lažne informacije. Klepetalni roboti, kot so ChatGPT, Boost. AI in Drift lahko uporabnikom zagotovita veliko informacij, vendar te informacije niso vedno točne. Kot je razpravljal SkrbnikKlepetalni roboti z umetno inteligenco nikakor niso zavezani zagotavljanju resničnih informacij, kar pomeni, da lahko lažne novice zelo zlahka zdrsnejo skozi razpoke in pridejo do vas.

4. Ustvarjanje zlonamerne programske opreme

V začetku leta 2023 je začela krožiti novica o zlonamerni akterji, ki ustvarjajo zlonamerno programsko opremo z uporabo ChatGPT. V tem primeru je spletno analitično podjetje Check Point Research ugotovilo, da so posamezniki na hekerskem forumu razpravljali o prednostih uporabe ChatGPT za ustvarjanje zlonamerne programske opreme. Avtor objave na forumu je delil infostealer, ki so ga napisali v Pythonu z uporabo ChatGPT, s čimer je druge zlonamerne akterje spodbudil k ustvarjanju zlonamerne programske opreme s pomočjo chatbota.

Programe zlonamerne programske opreme je treba kodirati, kar je lahko zamudno, zlasti če ustvarjalec ne uporablja predloge iz že obstoječega programa.

Z uporabo ChatGPT ne samo, da lahko zlonamerni akterji poenostavijo postopek ustvarjanja zlonamerne programske opreme, ampak lahko tudi manj tehnološko podkovani posamezniki ustvarijo zlonamerno programsko opremo. Ker sofisticiranost umetne inteligence še naprej napreduje, bo morda mogoče ustvariti neverjetno sofisticirano zlonamerno programsko opremo, ki lahko obide protivirusno zaznavanje, avtentikacijo, požarne zidove in druge zaščitne ukrepe.

5. Pomanjkanje predpisov

Pogosta težava v tehnološki industriji je pomanjkanje predpisov za novejše storitve, kot so platforme, ki temeljijo na verigi blokov, in izdelki AI. Nekateri morda menijo, da je pomanjkanje predpisov dobra stvar, vendar lahko povzroči tudi nedovoljene prakse.

Ne le, da lahko pomanjkanje predpisov povzroči porast prevar in kibernetskih zločinov, ki jih poganja umetna inteligenca, ampak tudi način, na katerega raziskovalci razvijajo tehnologije umetne inteligence, lahko začne prestopati resne meje. Obstajajo etični vidiki, ki jih je treba upoštevati pri obravnavi umetne inteligence. Ali lahko sistem postane preveč zavesten? Kakšen učinke, ki jih bo imela umetna inteligenca na človeško življenje? Ali bi morali AI izkoriščati na ta način? Seznam vprašanj se nadaljuje in nadaljuje.

Brez regulacije lahko nekatera podjetja začnejo stopati po moralnih mejah, kar bi lahko bila zelo slaba novica za širšo javnost.

Umetna inteligenca se premika hitro in zagotovo predstavlja tveganje

Ni mogoče zanikati, da je potencial umetne inteligence ogromen, vendar ga je treba ustrezno izkoristiti, da se zmanjša možnost, da stvari uidejo izpod nadzora. Videli smo že zlonamerno uporabo umetne inteligence, zato ne vemo, kako bi se ta težava lahko razvila, ko stvari napredujejo. Čas bo pokazal, ali bo umetna inteligenca v našem svetu postala blagoslov ali prekletstvo, in način, kako se z njo zdaj ravna, bo zagotovo igral vlogo pri tem izidu.