S sodobnimi jezikovnimi modeli umetne inteligence, kot sta ChatGPT in Microsoftov Bing Chat, ki povzročajo valove po vsem svetu, je veliko ljudi zaskrbljenih, da bo umetna inteligenca prevzela svet.

Čeprav v bližnji prihodnosti ne bomo naleteli na SkyNet, je umetna inteligenca v več stvareh vse boljša od ljudi. Tu nastopi problem nadzora AI.

Pojasnjen problem nadzora AI

Problem nadzora AI je ideja, da bo AI sčasoma postal boljši pri sprejemanju odločitev kot ljudje. V skladu s to teorijo, če ljudje stvari ne nastavimo pravilno vnaprej, ne bomo imeli možnosti popraviti stvari pozneje, kar pomeni, da bo imela AI učinkovit nadzor.

Sedanje raziskave o modelih AI in strojnega učenja (ML) so vsaj v letih od preseganja človeških zmogljivosti. Vendar pa je razumno misliti, da bo umetna inteligenca glede na trenutni napredek presegla ljudi v smislu inteligence in učinkovitosti.

To ne pomeni, da modeli AI in ML nimajo svojih omejitev. Navsezadnje jih zavezujejo zakoni fizike in računska kompleksnost ter procesorska moč naprav, ki podpirajo te sisteme. Vendar pa je varno domnevati, da te meje daleč presegajo človeške zmožnosti.

To pomeni, da je superinteligenten Sistemi AI lahko predstavljajo veliko grožnjo če ni ustrezno zasnovan z varovalkami za preverjanje kakršnega koli potencialno neprimernega vedenja. Takšne sisteme je treba zgraditi od začetka, da bodo spoštovali človeške vrednote in ohranili svojo moč pod nadzorom. To pomeni problem nadzora, ko pravi, da morajo biti stvari pravilno nastavljene.

Če bi sistem AI presegel človeško inteligenco brez ustreznih zaščitnih ukrepov, bi bil rezultat lahko katastrofalen. Takšni sistemi bi lahko prevzeli nadzor nad fizičnimi viri, saj se številne naloge izvajajo bolje ali učinkoviteje. Ker so sistemi AI zasnovani za doseganje največje učinkovitosti, lahko izguba nadzora povzroči resne posledice.

Kdaj se pojavi problem nadzora AI?

Glavna težava je v tem, da boljši kot je sistem umetne inteligence, težje je za človeškega nadzornika spremljati tehnologijo, da bi zagotovili, da je mogoče enostavno prevzeti ročni nadzor, če sistem odpove. Poleg tega je človeška nagnjenost k zanašanju na avtomatiziran sistem večja, če sistem večino časa deluje zanesljivo.

Odličen primer tega je Paket Tesla Full-Self Driving (FSD).. Čeprav lahko avto vozi sam, mora človek imeti roke na volanu in je pripravljen prevzeti nadzor nad avtomobilom, če pride do okvare sistema. Ko pa ti sistemi umetne inteligence postanejo bolj zanesljivi, se bo pozornost tudi najbolj budnega človeka začela spreminjati, odvisnost od avtonomnega sistema pa se bo povečala.

Kaj se torej zgodi, ko avtomobili začnejo voziti s hitrostjo, ki ji ljudje ne dohajajo? Na koncu bomo nadzor predali avtonomnim sistemom avtomobila, kar pomeni, da bo sistem AI nadzoroval vaše življenje, vsaj dokler ne dosežete cilja.

Ali je mogoče rešiti problem nadzora AI?

Obstajata dva odgovora na to, ali je problem nadzora AI mogoče rešiti ali ne. Prvič, če si vprašanje razlagamo dobesedno, problema nadzora ni mogoče rešiti. Ničesar ne moremo storiti, kar bi neposredno vplivalo na človeško težnjo, da se zanaša na avtomatiziran sistem, ko ta večino časa deluje zanesljivo in učinkoviteje.

Vendar, če bi to težnjo upoštevali kot značilnost takšnih sistemov, lahko oblikujemo načine, kako rešiti problem nadzora. Na primer, Algoritemsko odločanje in problem vodenja Raziskovalni članek predlaga tri različne metode za reševanje težav:

  • Uporaba manj zanesljivih sistemov zahteva aktivno sodelovanje človeka s sistemom, saj manj zanesljivi sistemi ne predstavljajo težave pri nadzoru.
  • Počakati, da sistem preseže človeško učinkovitost in zanesljivost pred uvedbo v resničnem svetu.
  • Za izvedbo le delne avtomatizacije z uporabo dekompozicije nalog. To pomeni, da so avtomatizirani le tisti deli sistema, ki za izvedbo pomembne naloge ne potrebujejo človeškega operaterja. Imenuje se pristop dinamične/komplementarne dodelitve funkcij (DCAF).

Pristop DCAF vedno postavi človeškega operaterja na čelo avtomatiziranega sistema, kar zagotavlja, da njihov vnos nadzoruje najpomembnejše dele procesa odločanja v sistemu. Če je sistem dovolj privlačen, da je človeški operater nenehno pozoren, je problem nadzora mogoče rešiti.

Ali lahko kdaj resnično nadzorujemo AI?

Ko bodo sistemi umetne inteligence postali naprednejši, zmogljivejši in zanesljivejši, jim bomo še naprej prelagali več nalog. Vendar je problem nadzora AI mogoče rešiti s pravimi previdnostnimi ukrepi in zaščitnimi ukrepi.

AI nam že spreminja svet, predvsem na bolje. Dokler je tehnologija pod človeškim nadzorom, nas ne bi smelo skrbeti.