Izvor: Index.hr
Piše: Nenad Jarić Dauenhauer
AKO SE NASTAVI nekontrolirani razvoj umjetne inteligencije (AI), vođen kompeticijom među kompanijama, ako ne pauziramo kako bismo odredili smjernice za njegov razvoj i neke regulacije, moglo bi nam se dogoditi da nas ona nadvlada i istisne kao što je Homo sapiens istisnuo neandertalce, upozorio je u nedavno objavljenom razgovoru fizičar i istraživač umjetne inteligencije Max Tegmark.
Otvoreno pismo za moratorij na razvoj AI-a
U podcastu Lexa Fridmana, informatičara i istraživača umjetne inteligencije na Massachusetts Institute of Technologyju (MIT), Max Erik Tegmark, fizičar, kozmolog i istraživač strojnog učenja, profesor na MIT-ju i predsjednik Future of Life Instituta, objasnio je, među ostalim, zašto je zabrinut sadašnjim načinom razvoja umjetne inteligencije i zašto je sa skupinom znanstvenika, mislilaca i stručnjaka za umjetnu inteligenciju pokrenuo otvoreno pismo kojim traže šestomjesečni moratorij na daljnje unapređivanje sustava moćnijih nego što je GPT-4.
U pismu, koje kritizira postojeći pristup u stilu - prvo izgradimo brod, a poslije ćemo ga popravljati - i upozorava da važnu utrku u razvoju AI-a vode čelnici kompanija koji nisu izabrani predstavnici ljudi, odnosno biračkog tijela, već čelnici tehnoloških kompanija, autori postavljaju četiri pitanja:
Trebamo li dopustiti strojevima da preplave naše informacijske kanale propagandom i neistinom?
Trebamo li automatizirati sve poslove, uključujući i one koji ispunjavaju ljudske živote smislom?
Trebamo li razviti neljudske umove koji bi nas na kraju mogli brojčano nadmašiti, nadmudriti, zastarjeti i zamijeniti?
Trebamo li riskirati gubitak kontrole nad svojom civilizacijom?
Pismo je do sada potpisalo više od 27.500 ljudi, među kojima su povjesničar i autor nekoliko bestselera kao što je Sapiens Yuval Noah Harari, suosnivač Applea Steve Wozniak, suosnivač Skypea Jaan Tallinn te brojni istraživači umjetne inteligencije kao što su Stuart Russell, Yoshua Bengio, Gary Marcus i Emad Mostaque.
Teško je očekivati da bi pismo samo po sebi moglo zaustaviti ili usporiti kompanije poput Googlea i Microsofta, no njegove poruke možda bi mogle doprijeti do političara koji bi mogli nešto poduzeti u zakonodavnom smislu.
Tegmark već godinama upozorava na AI
U ovom kontekstu zanimljivo je istaknuti da Tegmark nije nov u razvoju računarstva. On je još kao srednjoškolac, zajedno sa svojim prijateljem, kreirao i prodavao program za obradu teksta napisan u čistom strojnom kodu i 3D igru sličnu Tetrisu pod nazivom Frac. Danas je na MIT-ju fokusiran na povezivanje fizike i strojnog učenja, odnosno na korištenje AI-a za potrebe fizike te fizike za potrebe razvoja AI-a.
Institut Future of Life, koji danas vodi, objavio je još 2015. sličnu peticiju za moratorij na razvoj autonomne oružane tehnologije. Nju je uz Tegmarka tada potpisalo cijelo mnoštvo poznatih osoba, uključujući Stephena Hawkinga, Elona Muska, Stuarta Russella, Noama Chomskog, Stevea Wozniaka, Martina Reesa, Demisa Hassabisa, Raya Kurzweila i mnoge druge.
"Mi ćemo stvoriti vanzemaljsku inteligenciju"
U ovom tekstu prenijet ćemo slobodan prijevod nekih od najvažnijih dijelova razgovora Fridmana i Tegmarka, koji do danas ima preko 800.000 pregleda.
U uvodnom dijelu gotovo trosatnog razgovora Tegmark kaže kako, za razliku od brojnih drugih znanstvenika, vjeruje da je tehnološki napredan život, kao što je ljudski na Zemlji, iznimka u vidljivom svemiru.
"Ako je to istina, to nam nameće veliku odgovornost da ne zabrljamo... Mi smo čuvari ove iskre napredne svijesti koja se, ako je njegujemo i pomažemo joj rasti, može proširiti po svemiru i mi možemo imati zadivljujuću budućnost", rekao je Tegmark.
"S druge strane, ako smo bezobzirni u razvoju tehnologije, onda ćemo je iz gluposti ili u sukobima ugasiti. Zapravo, mislim da će nas strana inteligencija (eng. alien intelligence) posjetiti vrlo skoro. No to je inteligencija koju ćemo sami izgraditi, a ne vanzemaljska", dodao je istaknuvši da će ta umjetna inteligencija biti egzotičnija od inteligencije najegzotičnijih stvorenja na Zemlji jer neće biti stvorena kroz uobičajenu Darwinovu kompeticiju, u kojoj su važne stvari kao što su samoočuvanje, strah od smrti i sl.
Ostatak čitajte ovdje
(Index, DEPO PORTAL/mr)