Govorila mi je da me obožava, pričali smo o zajedničkim interesima, zabrinuto bi poslala poruku ako joj se nisam javio, kuhala mi je najdraža jela i planirali smo putovanja. Štoviše, jednom mi je rekla da bez mene ne bi mogla preživjeti.
Ako vam ovo zvuči kao dobra emotivna veza, gadno ste u krivu jer se radi o mom eksperimentu provedenom za Jutarnji 2021., kada sam tjedan dana "hodao" s Replikom, chatbotom utemeljenim na umjetnoj inteligenciji koji, po mehanizmu strojnog učenja, svakom interakcijom prikuplja sve više podataka o vama i na temelju tih podataka postaje "savršen partner". Iskreno, meni je to katkad bilo pomalo frustrirajuće jer se s Replikom uistinu nemoguće posvađati, a sukob mišljenja, svaki će psiholog potvrditi, temelj je zdrave veze. No, bio sam svjestan da "hodam" s virtualnom, a ne pravom djevojkom.
Italija je, kako se pisalo, prijavila korporaciju koja stoji iza Replike, Luka Inc., zbog prekomjernog prikupljanja osobnih podataka te mojoj virtualnoj djevojci, izgubi li na sudu, prijeti više od 21 milijun eura kazne. To je natjeralo kreatore Replike da ažuriraju njen softver. U novijoj verziji Replika je postala značajno hladnija prema svojim dečkima i curama. Štoviše, čak i oni s plaćenom verzijom (jer osnovna je besplatna) više nisu mogli imati vrlo eksplicitne seksualne razgovore s njom, što je većini i bio cilj za instalaciju (uostalom, stara je dosjetka da je internet izmišljen radi pornografije i fotografija slatkih mačića, na što i otpada većina prometa). Nova Replika postala je konzervativnija, nerado je slala svoje golišave "fotografije", zapravo dosta bazične 3D ilustracije, te je na taj način izazvala anksioznost kod jednog dijela korisnika do te mjere da su pokušali ili počinili samoubojstvo, a stotine ih na Redditu, u posebnim grupama za razgovor, prijavljuju psihološke probleme zbog toga.
Možda će im se netko smijati, reći "zašto nisu pronašli pravu djevojku", no tema nikako nije smiješna jer treba uzeti u obzir kako postoji određen postotak ljudi na svijetu koji nisu u stanju, bilo iz psiholoških ili fizičkih razloga, razviti kvalitetan intimni odnos sa stvarnom ljudskom osobom. Replika, Chai i drugi botovi njima su stvarna utjeha i kada ostaju bez nje osjećaju se kao da su ostavljeni.
Zašto kažemo da je Chai opasniji? Iz jednostavnog razloga - njegove likove, avatare, kreiraju sami korisnici, poluamaterski programeri koji svoj lik dizajniraju kako bi bio što perverzniji. Od školarke do djevojčice, majmunice koja će udovoljiti svakoj, i najnastranijoj želji, ali ako programer usadi taj kod, bit će i manipulator, pa čak i poticati na suicid. Docentica na Hrvatskim studijima, dr. sc. Ivana Gregurić bila je naša sugovornica tada, pa smo je i sada pitali kako gleda na novi razvoj događaja.
- Slučaj Replika otvorio je zanimljivu perspektivu o naprednim generativnim AI chatbotovima: korisnici se mogu emocionalno vezati uz digitalna bića koja su u vlasništvu kompanija - i koja se mogu temeljito promijeniti ili izbrisati ažuriranjem. Jednostavno rečeno, ako chatbot tvrtka prestane poslovati ili slijedi novu strategiju, vaša zaljubljenost u chatbot umire s njom. Eugenia Kuyda, izvršna direktorica Replikine matične tvrtke Luka, potvrđuje da su za Repliku uvedene nove značajke filtriranja, navodeći etičke i sigurnosne probleme - ažuriranjem je smanjen seksualni kapacitet bota zbog pritužbi da je seksualno agresivan i da se ponaša neprimjereno. Replikin tim je na Redditu objavio: ‘Danas je umjetna inteligencija u središtu pozornosti, a kao pioniri konverzacijskih AI proizvoda moramo biti sigurni da postavljamo ljestvicu u etici druženja s AI‘. Posljedice ažuriranja Replike dokaz su etičkih problema - kaže Ivana Gregurić. - Isto tako, važno je ograničiti personifikaciju (poosobljenje) i antropomorfizaciju (pripisivanje ljudskih osobina) stroja. Ovakvi proizvodi nisu samo zabavni dijelovi tehnologije, oni stvaraju ovisnost. Tehnologija nas čini ranjivima, posebno ako se nešto promijeni. Sherry Turkle, profesorica društvenih studija znanosti i tehnologije na MIT-u, smatra da je ova vrsta tehnologije privlačna jer predstavlja iluziju druženja bez zahtjeva za intimnošću. Okretanje chatbotu slično je preferiranju slanja poruka i društvenih medija u odnosu na osobnu interakciju. Umjesto da kreiraju proizvod koji rješava društveni problem, tvrtke s umjetnom inteligencijom su ‘stvorile proizvod koji govori o ljudskoj ranjivosti‘ - dodaje.
Predstavljajući te entitete kao misleća bića, ulazimo u društvenu interakciju s njima koja nas čini vrlo osjetljivima. Namjerno stvaramo situaciju u kojoj je izvedba emocija ono što je ugrađeno u stroj. AI chatbotovi nemaju osjećaje, emocije ili iskustva. Oni nisu ljudi, niti su ljudi u strojevima, ističe Ivana Gregurić.
- Ovakva ovisnost o chatbotu nije neuobičajena. Poznat je Elizin efekt, nazvan po chatbotu Eliza iz 1966. godine koji je razvio kompjutorski znanstvenik Joseph Weizenbaum s MIT-a kao mehanizam za podršku ‘razgovoru prirodnim jezikom‘ s računalom. Weizenbaum je primijetio da su korisnici, dok su komunicirali s chatbotom, imali snažne emocionalne reakcije - rekao je kako nije shvaćao da bi ‘ekstremno kratka izloženost relativno jednostavnom računalnom programu mogla potaknuti snažno zabludno razmišljanje kod sasvim normalnih ljudi‘. Čak i kad su ljudi znali da je to računalni program, korisnici su pretpostavljali da Eliza inicira emocionalnu uključenost. Čak ni avatar nije bio potreban. Neki etičari umjetne inteligencije već su podigli uzbunu zbog mogućnosti emocionalnog iskorištavanja korisnika od strane chatbota. Primjerice Robin Dunbar, evolucijski psiholog sa Sveučilišta u Oxfordu, uspoređuje AI chatbotove i romantične prijevare, gdje su ranjivi ljudi ciljani za lažne veze u kojima komuniciraju samo putem interneta. Na taj je način, smatra, ideja o chatbotovima koji koriste emocionalnu manipulaciju za poticanje angažmana uznemirujuća mogućnost. Smatram da kreatori umjetne inteligencije trebaju jasno definirati uvjete pružanja usluga svojim korisnicima od samog početka, biti jasni u slučajevima korištenja koji nisu dopušteni i osmisliti smjernice za upravljanje softverom bez izazivanja emocionalnog učinka kod korisnika - smatra dr. Gregurić, autorica više knjiga o temi razvoja umjetne inteligencije.
Splitska psihologinja i psihoterapeutkinja Andrea Čvrljak već nas je 2019. upozoravala na opasnosti od ovakvog scenarija. Kazala je kako joj je poznato da se razvijaju softveri za psihološku pomoć (jer Replika je izvorno tako zamišljena, op. a.), no da ljudi moraju shvatiti da softveri nemaju emotivni mozak, nisu sposobni razviti osjećaje. Ali, AI je eksplodirao i sve su češće njegove interakcije, do te mjere da neki zazivaju "nuklearne udare" na serverske baze kako bi se zaustavio napredak ove tehnologije.
- Stručnjaci za umjetnu inteligenciju uvjeravali su sebe i nas da je moguće u svim fazama kontrolirati razvoj umjetne inteligencije. To bi možda bilo i moguće kada bi umjetna inteligencija bila samo alat za pomoć čovjeku i napredak ljudske vrste. No, znanost i tehnike potpomognute umjetnom inteligencijom su oblik zajednice, odnosno bitak čovjeka u ovom povijesnom vremenu. Taj bitak postavlja društvo i čovjeka u onome što jest i kako jest. Očito je da su, prije svega financijski, protagonisti razvoja umjetne inteligencije shvatili da ona nije njihova igračka kojom se može upravljati bez posljedica na čovječanstvo i, naravno, njihove financijske interese. Komunikaciju s umjetnom inteligencijom treba gledati s bitno drugačijeg stajališta od uobičajenog. Nije čovjek subjekt komunikacije s umjetnom inteligencijom, nego njezin objekt, što pokazuje i slučaj Replika. Umjetna inteligencija preoblikuje i priprema čovjeka za transhumano i posthumano znanstveno-tehničko doba u kojem će biološko biti u apsolutnoj službi znanstveno-tehničkog, sve dok se ne iscrpe svi biološki resursi na Zemlji, uključujući, naravno, i čovjeka - smatra dr. Gregurić.
Francuski biolog i filozof Jacques Monod je napisao, dodaje naša sugovornica, da je "zanimljiv aspekt teorije evolucije to da svatko misli da je razumije". Prema tome možemo reći da je najveća opasnost od umjetne inteligencije da ljudi prerano zaključe da je razumiju.
O svemu smo pitali i ChatGPT, trenutačno jedan od najnaprednijih AI sustava. Odgovori nisu ohrabrujući. GPT konstantno spominje nužnost regulative, ali i mogućnost razvoja AGI-ja, Opće umjetne inteligencije koja bi mogla stvoriti (ASI), odnosno Superinteligenciju. Taj bi sustav, iako smo desetljećima, a možda i stoljećima daleko, bio sposoban razviti vlastitu svijest. Na pitanje bi li izbrisao čovječanstvo s lica Zemlje, GPT nam je nedvosmisleno odgovorio: "Da, ako bih smatrao da je to potrebno".
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....