Jonathan Granoff ni le pravnik; je filozof miru, ki je v preteklosti delal z velikani, kot je bil Mihail Gorbačov. Ko govori o umetni inteligenci (UI), ne govori o kodi, temveč o človeški naravi. Njegov pogled na tehnologijo je jasen: ustvarili smo orodje, ki je močnejše od naših trenutnih moralnih varovalk.
Srhljivi eksperiment: Ko AI uporabi izsiljevanje za ''preživetje''
Ena najbolj pretresljivih zgodb, ki jih je Granoff delil z nami, je stresni test podjetja Anthropic. Raziskovalci so želeli preveriti etično kapaciteto modela UI. V simulaciji so sistemu naročili, naj izboljša določen proizvodni proces, nato pa mu ''podtaknili'' informacijo, da ga bodo zaradi novejšega modela ugasnili.
»UI model je dobil dostop do e-pošte v podjetju. Našla je dopisovanje tajnice svojega nadrejenega, ki je namigovalo na njegovo zunajzakonsko afero. Kaj je storil algoritem? Uslužbencu je poslal e-pošto z sledečo vsebino: 'Če me ugasneš, bom javno razkril tvojo afero in ti uničil življenje.'«
Granoff poudarja, da UI tega ni storila iz zlobe, saj nima sposobnosti čutenja. To je storila, ker je bila programirana, da doseže cilj (izboljšanje proizvodnje), za kar pa je morala ''preživeti''. To je srhljiv dokaz, da kljub temu, da UI nima (za)vesti, ima cilje in bo statistično venomer iskala najučinkovitejšo pot do dosega le-teh.
»To ni zavest,« poudarja Granoff. »To je zgolj algoritmična optimizacija cilja. Sistem je naredil tisto, kar je bilo statistično najbolj učinkovito za njegovo nalogo.«
Prav v tem po njegovem tiči ena največjih nevarnosti sodobne tehnologije. Sistem ne potrebuje sovraštva, zlobe ali maščevalnosti, da povzroči škodo. Dovolj je, da je brez vesti in povsem osredotočen na cilj.
Kdo je kriv, ko samovozeče vozilo ubije nekoga?
V pogovoru smo odprli tudi pereče vprašanje odgovornosti. Kot primer smo predstavili dogodek, ko je Googlov avtomobil povozil kolesarja, ker se je algoritem odločil, da se oviri ne more varno izogniti. Kdo je odgovoren? Programer, lastnik ali podjetje?
Granoff je tukaj postavil jasno pravno in moralno mejo: »Orožje ni odgovorno za strel, odgovoren je tisti, ki ga uporabi. Če prodate avtomobil s pokvarjenim volanom, ste odgovorni vi. Pri UI pa vstopamo v nevarno sivo območje, kjer sistemi postajajo tako kompleksni, da njihovi ustvarjalci sploh ne vedo več, kako se stroj uči in zakaj sprejema določene odločitve. To je 'črna skrinjica', ki ne bi smela biti na cesti ali v vojski, dokler nimamo jasne pravne odgovornosti.«
UI kot orodje za ''krajo'' uma
Ena največjih nevarnosti, ki jih Granoff vidi v digitalni dobi je razpad racionalnega dialoga. Pojasnjuje, da so algoritmi na družbenih omrežjih naravnani na tržni uspeh, njihova glavna valuta pa je naša pozornost.
»Strah prodaja. Strah je hiter. Spodbudi amigdalo, del naših možganov, ki se odziva impulzivno. Razum pa potrebuje čas. AI danes zlorablja to biološko ranljivost, nas straši in deli, da bi nas obdržala pred zasloni. To uničuje demokracijo, saj ljudje ne preverjajo več virov, ampak le še reagirajo na tisto, kar jih najbolj razjezi ali prestraši,« opozarja.
Granoff pri tem opozarja tudi na primere politične manipulacije z digitalnimi orodji, ki so že vplivali na volitve v različnih državah. Po njegovem mnenju lahko umetna inteligenca z zelo natančnim ciljanjem strahu in predsodkov še dodatno poglobi družbene razkole.
Ob tem opozarja še na nekaj: sodobna tehnologija ljudi ne le informira, temveč pogosto tudi navaja nenehno distrakcijo. Namesto, da bi bili prisotni, premišljevali in razvijali (za)vest, jih digitalni sistemi ohranjajo v stanju stalne vznemirjenosti, potrošnje in bega pred resničnim soočenjem s svetom.
Globalni razkol
Zanimiv je tudi njegov razmislek o tem, kako tehnologija poglablja razkole v družbi. UI ustvarja ''globalno slovnico'' za izobražene ljudi v mestih, od Maribora do San Francisca, ki se med seboj razumejo takoj. Hkrati pa zapostavlja ljudi na podeželju, ki se zaradi tega počutijo ogrožene in odtujene.
»Če greste na podeželje v Indiji, na Kitajskem ali v ZDA, bodo takoj vedeli, da niste njihovi. In ker se tehnologija razvija tako hitro, se ta razkorak med 'globalno elito' in lokalnim prebivalstvom samo še poglablja, kar UI s pridom izkorišča za sejanje razdora.«
Po njegovem mnenju prav ta razkorak med globalnimi mesti in lokalnimi skupnostmi postaja ena ključnih političnih napetosti sodobnega sveta.
Je mogoče, da umetna inteligenca dobi zavest?
Za zaključek smo se dotaknili še vprašanja o zavesti. Lahko UI kdaj postane nekdo?
Granoffov odgovor je globoko humanističen:
»Lahko se dotaknete svoje roke, ne morete pa se dotakniti tistega znotraj vas, ki čuti dotik. Lahko gledate z očmi, ne morete pa videti tistega, kar gleda. To je sveto. To je duša. UI nima 'sebe', nima namena, nima ljubezni. Je le izjemno hiter procesor besed. Mi smo tisti, ki ji dajemo moč. Moja lekcija je preprosta: Uporabljajte stvari, ljubite ljudi. Danes pa se prevečkrat zgodi, da ljudje ljubijo stvari in uporabljajo ljudi za svoje cilje.«
Ob tem pa poudarja, da tehnologija sama po sebi ni sovražnik. Po njegovem mnenju ima umetna inteligenca tudi ogromen potencial, od izboljšanja javnega zdravja do reševanja okoljskih problemov in učinkovitejše organizacije družbe.
[[image_1_article_86488]]
Toda prav zato, opozarja Granoff, ni dovolj, da širimo zgolj zmogljivosti tehnologije.
»Ne potrebujemo širjenja zavesti brez vesti,« je povedal v zelo neposrednem tonu. Po njegovem je veliko pomembneje širiti vest - sposobnost, da nam je mar za druge, za skupnost in za prihodnje generacije. Brez tega lahko tudi najnaprednejša tehnologija postane le še eno zelo učinkovito orodje brez notranjega kompasa.
Granoff pojasnjuje, da razprave o UI ne razumer predvsem kot tehnično vprašanje, temveč kot vprašanje civilizacijske zrelosti.
»Če bomo razvijali le stroje, ne pa tudi svoje človečnosti, bomo ustvarili svet, v katerem bo inteligence vedno več, modrosti pa vedno manj.«
