EKSPLOZIVNO IZVJEŠĆE

‘Vanzemaljci su već sletjeli, a stvorili smo ih mi - ljudi! Čeka nas potpuni pomor...‘

Ilustrativna fotografija

 /Profimedia
Najugledniji američki listovi prenose zapanjujuću, crnu prognozu sa Instituta za istraživanje strojne inteligencije

"Najvjerojatniji rezultat stvaranja nadljudski pametne umjetne inteligencije jest taj da će svaki pojedini član ljudske vrste i sav biološki život na Zemlji - doslovce svi - umrijeti", ovu crnu prognozu prošloga tjedna u časopisu Time napisao je Eliezer Yudkowsky, čelnik Instituta za istraživanje strojne inteligencije (neprofitna organizacija u Berkeleyju u Kaliforniji), koji je i prije opsežno pisao o umjetnoj inteligenciji.

Upravo je Yudkowsky svojedobno upozorio na to kako bi netko mogao nesvjesno stvoriti AI koja bi se okrenula upravo protiv čovječanstva. A prije nekoliko godina predložio je i modificirani Mooreov zakon, prema kojemu minimalni kvocijent inteligencije, potreban za uništenje svijeta, svakih 18 mjeseci pada za jedan bod. No sad je Yudkowsky otišao korak dalje.

- Vjerujem da se približavamo opasnoj točki u kojoj stvaramo AI inteligentniju od nas samih, koja ne radi ono što mi želimo i nimalo ne mari za nas, a vjerojatni rezultat suočavanja čovječanstva sa suprotstavljenom nadljudskom inteligencijom bit će potpuni slom... Takva umjetna inteligencija lako bi mogla pobjeći s interneta i ‘vani‘ izgraditi umjetne oblike života, vodeći biološki rat protiv nas. Stoga nam treba potpuni i globalni moratorij na razvoj umjetne inteligencije - upozorava Eliezer Yudkowsky.

Nedavno su, između ostalih, i Elon Musk (vlasnik Tesle i Twittera) te Steve Wozniak (suosnivač Applea) u pismu pozvali na šestomjesečnu pauzu u razvoju AI-ja. I oni smatraju kako razvoj umjetne inteligencije s nadljudskim sposobnostima u nedostatku bilo kakvog međunarodnog regulatornog okvira nože dovesti do katastrofe. No Yudkowsky, za razliku od potpisnika spomenutoga pisma, ne vjeruje da se ovaj aktualan problem može riješiti u svega pola godine.

Svijet je u prošlosti već svjedočio potencijalno smrtonosnim znanstvenim istraživanjima - riječ je o nuklearnom oružju i biološkom ratovanju. Znalo se da je potencijal za katastrofu ogroman, no istraživanja se nisu smanjila. Sve to zapravo nam govori da šestomjesečna stanka u razvoju umjetne inteligencije vjerojatno neće postići puno toga. S druge strane, nerealno je očekivati da će Yudkowskyjev poziv na potpuno "zamrzavanje" istraživanja i razvoja AI-ja naići na odobravanje i biti prihvaćen.

Problem je i u tome što većinu istraživanja o umjetnoj inteligenciji provodi privatni sektor. Prema posljednjem izvješću Stanfordskog instituta za umjetnu inteligenciju usmjerenu na čovjeka, globalna privatna ulaganja u AI u 2022. godini iznosila su 92 milijarde dolara, od čega je više od polovice bilo u SAD-u. Privatne tvrtke proizvele su ukupno 32 značajna modela strojnoga učenja, u usporedbi sa samo tri koja su proizvele akademske institucije.

No mnogi Yudkowskyjevi kritičari, među kojima je i Matt Parlmer, osnivač tvrtke za alatne strojeve GenFab, optužuju ga za stvaranje "tvrdokornog anti-AI kulta".

- Zaustavljanje istraživanja umjetne inteligencije lišilo bi bolesne ljude potencijalnih otkrića u medicinskoj znanosti - upozorava Parlmer, a prenosi Bloomberg.

I Nicholas Thompson, glavni izvršni direktor Atlantica, slaže se s time da Yudkowsky u mnogočemu pretjeruje.

- Nedavno sam napravio dječju knjigu za sinov deveti rođendan koristeći Dall-E i GPT-4 o Svjetskom prvenstvu između njegovih plišanih životinja. Medvjedi su pobijedili i njemu se to svidjelo... Odvojimo svi malo vremena za eksperimentiranje. Napravit ćemo super stvari i učiti dok to radimo - smatra Thompson.

I Tyler Cowen iz Bloomberg Opiniona misli slično. On je pak postavio i neka hipotetska pitanja.

- Što da smo 2006. godine kolektivno odlučili obustaviti razvoj društvenih medija na šest mjeseci dok smo razmišljali o mogućim štetama zbog njihove široke upotrebe? Ti loši učinci u to vrijeme jedva da su bili očiti i još uvijek se osporavaju. U međuvremenu, nakon šestomjesečne odgode, koliko bismo još bili u procesu evaluacije? Pa čak i ako američke tvrtke uvedu šestomjesečnu pauzu, tko može reći da će kineske tvrtke učiniti isto - pita se on.

Među braniteljima razvoja umjetne inteligencije je i Reid Hoffman, osnivač LinkedIna. On ne osporava činjenicu da postoji barem određeni rizik u razvoju AI-a s inteligencijom superiornijom od ljudske, ali istodobno kaže: "Vjerujte nam da ćemo ovo napraviti vrlo etički, jer ako nas obuzdate, negativci će biti ti koji će raditi na razvoju te iste umjetne inteligencije, a to bi onda zbilja moglo dovesti do prave katastrofe".

Činjenica jest da većina AI radi stvari koje čovječanstvu nude dobrobiti, a ne prijetnje. Na primjer, DeepMindov AlphaFold odredio je strukture za oko 200 milijuna proteina, što je veliki znanstveni korak naprijed.

Pa kako nas onda umjetna inteligencija može uništiti? Ne proizvodeći androide ubojice nalik Arnoldu Schwarzeneggeru u "Terminatoru", već samo koristeći njegovu moć da nas oponaša kako bi nas pojedinačno izludjela i kolektivno otjerala u građanski rat. Kao što kaže Manny Rincon-Cruz s Hoover Instituta: AI modeli koji mogu generirati tekstove na prirodnom jeziku iz velikih količina podataka ne manipuliraju atomima ili bitovima, oni manipuliraju - nama. Neće nas umjetna inteligencija "izbrisati", ovdje je jedini stvaran rizik u tome da ćemo se mi kao vrsta raspasti korištenjem AI alata za neplemenite ili podle ciljeve.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
30. listopad 2024 11:00