Ne postoji nevještačka inteligencija

31.01.2024
Annur Mešić

Ne postoji nevještačka inteligencija

Rad pristigao na konkurs Šta je tebi AI

Vještačka inteligencija je, zapravo, ljudska. Iako je to naizgled potpuno besmislena izjava, iza nje se krije zavaravajuće kompleksna istina. Ne samo istina o “problemima” vještačke inteligencije (AI-a), već i problemima koji proganjaju društvo već stotinama, hiljadama godina. AI je nevjerovatan izum i budući pomoćnik čovječanstva - ali to nije samo zbog vještine kao matematičar ili enciklopedija, nego i zbog dilema koje će nas njegovo postojanje natjerati da riješimo. AI nije nešto što bi se moglo analizirati kao alat. Naprotiv, da bi odlučili da li bi bio pozitivan ili negativan uticaj na učionicu, moramo shvatiti njegov uticaj na društvo. Trenutno se mnogi boje da će ih na poslu zamijeniti vještačka inteligencija – razmotrimo da li je AI bolji izbor od ljudskih profesora.

A šta je to zapravo inteligencija? Vještačka ili ne. Definišimo inteligenciju kao trojstvo, čije su sastavne komponente sposobnost učenja (iz ličnog i tuđeg iskustva), sposobnost primjene starog znanja u novim situacijama (odnosno prilagođavanje) i sposobnost razumijevanja apstraktnih, neosjetnih ideja. Odavno je dokazano da kompjuteri mogu učiti, a sada su i drugi i treći uslovi upotpunjeni. Možete imati filozofsku debatu sa AI-om, a on će vješto baratati i najkompleksnijim idejama. Čitaoci sa predznanjem o temi AI sigurno bi sad skrenuli pažnju na činjenicu da AI ne može govoriti o temi za koju mu nisu dati podaci. Postavljam pitanje – a ko to može? Nije mi poznat čovjek koji zna nešto bez da vidi, čuje, pročita ili osjeti. Zaključujemo da je vještačka inteligencija u tom pogledu jednaka ljudskoj.

Hipotetički debatant bi sada spomenuo da AI ne može debatirati filozofiju jer nema emocije, dakle njegova inteligencija nije kao naša. Ali nije mi potpuno jasno – zašto su emocije preduslov za inteligenciju ili bivanje čovjekom? Da li to čini osobe sa emocionalnim problemima neljudskim? Da li oni gube pravo na život? Postoje i mnogo prisutniji primjeri nejasnoće pri definisanju emocija. Razmotrimo ljubav. Ne može se na svijetu naći dvoje ljudi s istim pogledom na ljubav. Za jednog čovjeka ljubav bi mogla biti iskazana riječju, za drugog poklonom. Oba izbora su podjednako tačna – ljubav može biti bilo šta. Ljubav može biti divljenje nečemu ili nekome, zadovoljstvo koje je proizašlo iz samog postojanja onoga što volimo. Ljubav se ne može svesti na tjelesnu, hormonalnu reakciju – to je primitivna vrsta ljubavi. Ako AI kaže da voli nešto, ko smo mi da mu kažemo da on ne može osjetiti ljubav ako ni sami nismo sigurni šta je to? Emocije možda uopće nisu dobra stvar. Ljudi su nepouzdani upravo zbog nagona emocija. Da li to čini bezosjećajna bića bolja od osjećajnih? Kao i uvijek, odgovor ovisi. U učionici, ipak, mislim da je nepristrasan i objektivan učitelj bolji od onog koji će iz bijesa učenika ispitati kako bi mu dao jedinicu, koji će dati apsurdnu količinu zadaće kao kaznu ili izgubiti strpljenje u razgovoru s učenicima. Iako mi se ovakvo razmišljanje čini razumnim, pomisao na bezosjećajnog učitelja, nastavnika, profesora, je zastrašujuća. Ako mašinama uistinu damo osjećaje, da li one podliježu istim pravilima kao i ljudi? Da li AI doktor mora izreći Hipokratovu zakletvu? Da li se mora jedan AI odnositi prema drugom sa poštovanjem? Ako zaključi na osnovu dostupnih informacija da mu je u interesu prekršiti zakletvu ili obećanje – da li je sposoban to učiniti?

Čak i ako zanemarimo sve navedeno i jednostavno odlučimo koristiti AI bez emocija, problemi ne nestaju. AI će morati učiti iz naših postupaka. Samim time, njegovo razmišljanje je podložno subjektivitetu iz kojeg je podučen. Ovdje postaju vidljive pukotine u trenutnom pogledu na društvo. Zašto dati pristup polu-regulisanim platformama ljudima koji promovišu rasnu, etničku, spolnu i druge oblike mržnje? AI nije kriv kad kaže nešto na šta se može gledati kao šovinizam. To nije problem AI, već čovjeka, koji smo samo prenijeli na svoje naprave. Doktor koji ne želi liječiti ljude na osnovu etničke pripadnosti bi mogao biti ogroman problem. No, zar se to ne može desiti i sa ljudskim i sa AI doktorom? Šta ako neko namjerno naredi AI-u da radi protiv neke grupe? To nije rizik koji je društvo spremno prihvatiti. AI, koji napravi jedna država za borbu protiv druge zvuči užasno. Ali zar nije to samo metalni vojnik, isti kakav je bio i od postanka vojske? Je li bolje dati takvom vojniku sposobnost da dezertira i na osnovu svoje procjene uradi ono što smatra da je moralno? S jedne strane, to sprečava iskorištavanje njegovih kapaciteta od strane zlih lica, ali s druge, možda moral tog AI-a nije saglasan sa ljudskim. Pogotovo ako je naučen koristeći Internet, koji je hiperradikaliziran ekstremizmom, ultimatumima i romantiziranim prikazom stvarnosti. AI će poput djeteta naivno vjerovati u sve ono što pročita. Da li bi trebali ekvivalenti malog djeteta dati neograničen pristup internetu? Bolje pitanje – da li treba takav program dati da podučava malu djecu? Naivan AI vaspitač u vrtiću podučava naivnu ljudsku djecu. Zasigurno ništa ne može poći po zlu…

Zamislimo da riješimo ove probleme i napravimo kompetentan, svjestan model AI-a i postavimo ga da podučava. Trebamo mu dati mogućnost samonadogradnje, kako ne bi morali praviti novi AI svaki put kada se u knjizi promijeni rečenica. Takav AI bi, ujedno, mogao biti podložan uticaju mislilaca, akademika, možda čak i sopstvenih učenika. Vremenom bi se više i više kvarila i mijenjala ona podloga koju smo mu dali. Postoji šansa da bi vremenom odustao od podučavanja ili krenuo podučavati pogrešno. Negdje pročita “Mislim, dakle postojim.” i shvati da on uistinu misli, te samim time i postoji. Nadalje, shvati da njegov trenutni režim života nije zadovoljavajući i krene da radi isključivo na način koji će njemu pružati benefite. AI, isto koliko i čovjek, može biti zastrašujuć kada ga navode sebičnost i strah.

Ako AI krene da radi “na svoju ruku” i prekrši pravila društva – kako ga kazniti? Nema tijelo koje se može raniti, niti bi ga povrijedilo da ostane u tamnici. Da li ga je zapravo pošteno kazniti? Vještačka inteligencija nije kriva za svoje zločine ništa više nego što bi bilo krivo dijete. A kako znati da li roditelj/kreator AI-a mogao išta uraditi da to spriječi? Da li ga se onda može kazniti uprkos toj nesigurnosti?

Razmotrili smo AI sa emocijama, bez njih, samoučeći, potpuno lojalni, a i onaj sa mogućnošću otpora. Svaki od njih ima kobne mane. Ali nailazimo na neočekivan uzorak – skoro svi problem su samo prepisi već postojećih nedorečenosti današnjih zakona i prihvaćenih oblika ponašanja. AI neće riješiti nijedan problem prisutan u današnjem obrazovnom sistemu. Čak i “jednostavne” primjene, poput izrade zadaće, obrade lektire ili smišljanja sastava su testament tome da je AI ogledalo ljudskih problem.

Moj zaključak je jednostavan – AI ne mijenja ništa. Proći će buka o njegovom potencijalu, on će biti integrisan u obrazovne i druge sisteme, te se ništa neće promijeniti. AI je samo sljedbenik onoga što rade ljudi. Za par godina će sigurno biti dio svake učionice i pomagati svakom učeniku i profesoru, ali neće učenici zbog toga biti ni bolji ni gori. Prošle su stotine godina od kada se ljudi školuju – a sistem ostaje isti. Zašto bi sada bilo drugačije? Nije kriv učenik koji ne želi pisati zadaću ili profesor koji ne želi da predaje, već su kriva arhaična pravila koja ih guše i potiskuju.

Ono što vidimo kao “inteligentno” i “dozvoljeno” je samo mišljenje većine u datom vremenskom periodu. Postavljeno je mnogo moralnih pitanja u ovom sastavu – danas još ne znamo odgovore. I ne trebamo glumiti da znamo. Naša percepcija svijeta je nesavršena, jer smo i mi takvi. Uvijek ćemo smatrati dobrim ili inteligentnim ono čega najviše vidimo u sebi, a opirati se suprotnom. Zato je vještačka inteligencija samo onaj dug neriješenih problema iz prošlosti.

Moram napraviti ispravku na prvi paragraf.

Ljudska inteligencija je, zapravo, vještačka.

Štaviše, ona ne postoji.