Problem – veštačka inteligencija radi ono što tražimo
Podučavajući mašine da razumeju naše istinske želje, naučnici se nadaju da će izbeći potencijalno katastrofalne posledice činjenice da veštačka inteligencija radi samo ono što joj mi naredimo.
Opasnost da veštački inteligentne mašine izvršavaju naše naloge je u tome da možda nećemo biti dovoljno pažljivi u pogledu onoga što želimo. Redovima programskog koda koji programiraju ove mašine neizbežno će nedostajati nijansi. Lako je zaboraviti da se navedu upozorenja i na kraju će dati sisteme veštačke inteligencije, ciljeve i podsticaje koji nisu u skladu sa našim istinskim preferencijama.
Sada već klasičan misaoni eksperiment koji ilustruje ovaj problem postavio je oksfordski filozof Nik Bostrom. On je zamislio superinteligentnog robota, programiranog sa naizgled bezazlenim ciljem proizvodnje spajalica. Robot na kraju pretvara ceo svet u džinovsku fabriku spajalica. Takav scenario se može odbaciti kao akademski, zabrinutost za nešto što bi se moglo pojaviti u nekoj dalekoj budućnosti. Ali, neusklađena veštačka inteligencija postala je problem mnogo ranije nego što se očekivalo.
Najalarmantniji primer je onaj koji pogađa milijarde ljudi. YouTube, sa ciljem da maksimizira vreme gledanja, primenjuje algoritme za preporuke sadržaja zasnovane na veštačkoj inteligenciji. Pre par godina, kompjuterski naučnici i korisnici počeli su da primećuju da izgleda kako YouTube-ov algoritam postiže svoj cilj preporučujući sve ekstremniji i konspirativniji sadržaj. Jedna istraživačica je izvestila da je, nakon što je pogledala snimke predizbornih mitinga Donalda Trampa, YouTube je ponudio video-snimke u kojima se pojavljuju „veličanje nadmoći belih ljudi, poricanja holokausta i drugi uznemirujući sadržaji“. Pristup algoritma je prevazišao politiku, rekla je: „Video snimci o vegetarijanstvu doveli su do video snimaka o veganstvu. Video snimci o džogiranju doveli su do video snimaka o trčanju ultramaratona.“ Kao rezultat toga, istraživanje sugeriše, YouTube-ov algoritam pomaže da se polarizuju i radikalizuju ljudi i šire dezinformacije. A sve to samo da bi nas naterao da gledamo još sadržaja. Istraživači veštačke inteligencije odgovaraju da nisu planirali takve stvari. Da jesu, verovatno ne bi to činili prvim testnim sistemom primenjenim u masovnom obimu.
YouTube-ovi inženjeri verovatno nisu nameravali da radikalizuju čovečanstvo. Ali, programeri ne mogu da smisle baš sve. Trenutni način na koji realizuju veštačku inteligenciju stavlja veliki teret na dizajnere da shvate kakve su posledice podsticaja koje daju svojim sistemima. Jedna od stvari koje su naučene uz put je da su mnogi inženjeri napravili greške.
Glavni aspekt problema je to što ljudi često ne znaju koje ciljeve da daju sistemima veštačke inteligencije, jer ne znamo šta zaista želimo. Ako pitate ljude na ulici: „Šta želite da vaš autonomni automobil radi?“, oni bi rekli: „Izbegavanje sudara.“ Ali, shvatićete da to nije samo to. Postoji gomila preferencija koje ljudi imaju. Super bezbedni samovozeći automobili idu presporo i toliko često koče da je putnicima muka. Kada programeri pokušaju da navedu sve ciljeve i preferencije kojima robotski automobil treba istovremeno da žonglira, lista neizbežno završava nepotpunom. Istraživači kažu da su se tokom vožnje u San Francisku često puta zaglavili iza samovozećeg automobila koji je zastao na ulici. Jer, on bezbedno izbegava kontakt sa pokretnim objektom, na način na koji su mu programeri rekli. Ali, objekat može biti i nešto poput plastične kese koja se pomera na vetru…
Da bi izbegli ove zamke i potencijalno rešili problem poravnanja veštačke inteligencije, istraživači su počeli da razvijaju potpuno novi metod programiranja korisnih mašina. Pristup je najbliže povezan sa idejama i istraživanjima Stjuarta Rasela. Rasel je bio pionir na polju racionalnosti, donošenju odluka i mašinskog učenja 1980-ih i 90-ih godina. Vodeći je autor široko korišćenog udžbenika „Veštačka inteligencija: moderan pristup“. U poslednjih nekoliko godina, postao je uticajan u problemu usklađivanja i sveprisutna figura na međunarodnim sastancima i panelima o rizicima i dugoročnom upravljanju veštačkom inteligencijom.
Kao što Rasel vidi, današnja veštačka inteligencija usmerena ka cilju je na kraju ograničena. I to uprkos svom uspehu u ostvarivanju specifičnih zadataka, kao što je pobediti čoveka u društvenim igrama, identifikujući predmete u slikama i reči u govoru, pa čak i komponujući muziku i prozu. Traženje od mašine da optimizuje „funkciju nagrađivanja“ — pedantan opis neke kombinacije ciljeva — neizbežno će dovesti do neusklađene veštačke inteligencije, tvrdi Rasel. On kaže da je nemoguće uključiti i pravilno odmeriti sve ciljeve, podciljeve, izuzetke i upozorenja u funkciji nagrade, ili čak znati koji su pravi. Davanje ciljeva slobodnim, „autonomnim“ robotima biće sve rizičnije kako budu postajali inteligentniji, jer će roboti biti nemilosrdni u potrazi za svojom funkcijom nagrađivanja i pokušaće da nas spreče da ih isključimo.
Umesto da mašine teže ka sopstvenim ciljevima, prema novom mišljenju, one bi trebalo da teže da zadovolje ljudske preferencije. Njihov jedini cilj bi trebalo da bude da saznaju više o našim preferencijama. Rasel tvrdi da će neizvesnost u vezi sa našim preferencijama i potreba da se obrate nama za smernice čuvati sisteme veštačke inteligencije. U svojoj nedavnoj knjizi, „Human Compatible“, Rasel izlaže svoju tezu u obliku tri „principa korisnih mašina“, ponavljajući tako tri čuvena zakona robotike Isaka Asimova iz 1942. godine, ali sa manje naivnosti. Raselova verzija kaže:
– Jedini cilj mašine je da maksimizira realizaciju ljudskih preferencija.
– Mašina u početku nije sigurna šta su to preferencije.
– Krajnji izvor informacija o ljudskim preferencijama je ljudsko ponašanje.
Tokom poslednjih nekoliko godina, Rasel i njegov tim, razvijali su inovativne načine da uvedu sisteme veštačke inteligencije u naše preferencije, a da nikada ne moraju da preciziraju te preferencije.
Ove laboratorije podučavaju robote kako da nauče preferencije ljudi koji ih nikada nisu artikulisali i možda nisu ni sigurni šta žele. Roboti mogu naučiti naše želje gledajući nesavršene demonstracije i čak mogu izmisliti nova ponašanja koja pomažu u rešavanju ljudske dvosmislenosti. Npr. u saobraćaju, kod znakova za zaustavljanje u četiri smera, automobili koji se sami voze razvili su naviku da se malo pokreću kako bi signalizirali ljudskim vozačima da idu napred. Ovi rezultati sugerišu da bi veštačka inteligencija mogla biti iznenađujuće dobra u zaključivanju o našim načinima razmišljanja i preferencija, čak i kako ih učimo u hodu.
Ovo su prvi pokušaji da se problem formalizuje, kažu istraživači. Ljudi su tek nedavno shvatili da moramo pažljivije da pogledamo interakciju čoveka i robota.
Ostaje da se vidi da li novi napori i Raselova tri principa korisnih mašina zaista najavljuju svetlu budućnost veštačke inteligencije. Pristup zasniva uspeh robota na njihovoj sposobnosti da razumeju šta ljudi stvarno preferiraju – nešto što ljudska vrsta pokušava da shvati već neko vreme. U najmanju ruku, istraživači kažu, da su Rasel i njegov tim u velikoj meri razjasnili problem i pomogli da se „precizira kakvo je željeno ponašanje – na šta ciljamo“.