AI nas ni pripravljena izbrisati... še.

Umetna inteligenca je tema razprav že od samega začetka. Medtem ko so strahovi, da bi Skynetu podobna umetna inteligenca zaživela in prevzela človeštvo, milo rečeno iracionalni, so nekateri poskusi dali zaskrbljujoče rezultate.

Eden takšnih eksperimentov je problem povečave sponke za papir, miselni eksperiment, ki kaže, da bi lahko zelo inteligenten AI, tudi če bi bil zasnovan popolnoma brez zlobe, na koncu uničil človeštvo.

Razložena težava z maksimizerjem sponke

Ta miselni eksperiment, da bi lahko celo popolnoma neškodljiva umetna inteligenca sčasoma izbrisala človeštvo, je bil najprej imenovan Paperclip Maximizer preprosto zato, ker so bile sponke izbrane za prikaz kaj bi umetna inteligenca lahko naredila, saj so le malo očitne nevarnosti in ne bodo povzročale čustvene stiske v primerjavi z drugimi področji, na katera se ta težava nanaša, kot je zdravljenje raka ali zmagovanje vojne.

Prvi poskus se je pojavil v članku švedskega filozofa Nicka Bostroma iz leta 2003,

Etična vprašanja v napredni umetni inteligenci, ki je vključeval maksimizator sponke za prikaz eksistencialnih tveganj, ki bi jih lahko uporabil dovolj napreden AI.

Problem je predstavljal AI, katerega edini cilj je bil izdelati čim več sponk za papir. Dovolj inteligentna umetna inteligenca bi prej ali slej spoznala, da ljudje predstavljajo izziv za njen cilj iz treh različnih vidikov.

  • Ljudje bi lahko izklopili AI.
  • Ljudje bi lahko spremenili svoje cilje.
  • Ljudje smo sestavljeni iz atomov, ki jih je mogoče spremeniti v sponke za papir.

V vseh treh primerih bi bilo v vesolju manj sponk za papir. Torej dovolj inteligenten AI, katerega edini cilj je narediti čim več sponk bi prevzela vso materijo in energijo na dosegu in preprečila, da bi se izklopila oz spremenjeno. Kot verjetno uganete, je to veliko bolj nevarno kot kriminalci, ki uporabljajo ChatGPT za vdor v vaš bančni račun ali računalnik.

Umetna inteligenca ni sovražna do ljudi; samo brezbrižno je. Umetna inteligenca, ki skrbi samo za povečanje števila sponk, bi torej izbrisala človeštvo in jih v bistvu pretvorila v sponke, da bi dosegla svoj cilj.

Kako se problem maksimizerja sponke nanaša na AI?

Raziskave in eksperimentalne omembe problema maksimizatorja sponke za papir vse omenjajo hipotetičnega izjemno zmogljivega optimizatorja ali zelo inteligentnega agenta kot akterja tukaj. Kljub temu se težava nanaša na AI, kolikor se popolnoma prilega vlogi.

Konec koncev je bila zamisel o povečanju sponke za papir ustvarjena, da bi pokazala nekatere nevarnosti napredne umetne inteligence. Na splošno predstavlja dve težavi.

  • Teza o ortogonalnosti: Teza o ortogonalnosti je stališče, da inteligenca in motivacija nista medsebojno odvisni. To pomeni, da je možno, da umetna inteligenca z visoko stopnjo splošne inteligence ne doseže enakih moralnih zaključkov kot ljudje.
  • Instrumentalna konvergenca: Instrumentalna konvergenca je opredeljena kot težnja za večino dovolj inteligentnih bitij (oboje človeški in nečloveški) za zasledovanje podobnih podciljev, tudi če je njihov končni cilj popolnoma drugačen. V primeru težave s povečavo sponke za papir to pomeni, da bo AI na koncu prevzel vsako naravnega vira in uničenje človeštva samo zato, da bi dosegel svoj cilj ustvarjanja vedno več sponke.

Večja težava, ki jo poudarja maksimizator sponke za papir, je instrumentalna konvergenca. Poudariti ga je mogoče tudi z uporabo Riemannove hipoteze, pri čemer bi se lahko AI, zasnovan za rešitev hipoteze, odločil, da prevzame vse Zemljino maso in jo pretvorite v computronium (najučinkovitejše možne računalniške procesorje), da zgradite superračunalnike za rešitev problema in doseganje cilj.

Sam Bostrom je poudaril, da ne verjame, da bo problem povečanja sponk za papir kdaj resen problem, vendar je bil njegov namen ponazarjajo nevarnosti ustvarjanja superinteligentnih strojev, ne da bi vedeli, kako jih nadzorovati ali programirati, da ne bi bili eksistencialno tvegani za človeka bitja. Tudi sodobni sistemi umetne inteligence, kot je ChatGPT, imajo težave, vendar so daleč od superinteligentnih sistemov umetne inteligence, o katerih se govori v problemu povečanja sponke za papir, zato še ni razloga za paniko.

Napredni sistemi AI potrebujejo vrhunski nadzor

Težava maksimizatorja sponke za papir vedno pride do istega zaključka in izpostavi težave pri upravljanju zelo inteligentnega in zmogljivega sistema, ki nima človeških vrednot.

Medtem ko je uporaba sponk morda najbolj priljubljena metoda za ponazoritev težave, se uporablja za poljubno število opravil, ki jih lahko dajo umetni inteligenci, pa naj bo to odpravljanje raka, zmagovanje v vojnah, sajenje več dreves ali katera koli druga naloga, ne glede na to, kako na videz neumen.