{"id":20870,"date":"2023-05-22T20:04:36","date_gmt":"2023-05-22T18:04:36","guid":{"rendered":"https:\/\/vestionline.com\/?p=20870"},"modified":"2023-05-22T20:04:36","modified_gmt":"2023-05-22T18:04:36","slug":"polemike-o-koristima-i-opasnostima-od-vestacke-inteligencije","status":"publish","type":"post","link":"https:\/\/vestionline.com\/polemike-o-koristima-i-opasnostima-od-vestacke-inteligencije\/","title":{"rendered":"Polemike o koristima i opasnostima od ve\u0161ta\u010dke inteligencije"},"content":{"rendered":"
\n

Kako ChatGPT zna stvari koje ga njegovi tvorci nisu nau\u010dili?<\/h1>\n
\n
\n
<\/a><\/div>\n
\n
Pi\u0161e:\u00a0Nenad Jari\u0107 Dauenhauer<\/a><\/div>\n
17:06, 21. svibnja 2023.<\/div>\n<\/div>\n<\/div>\n
\n
<\/div>\n
<\/div>\n<\/div>\n<\/div>\n<\/div>\n
\n
\n
\n
\"Kako<\/div>
Foto: Shutterstock<\/span><\/figcaption><\/figure>\n
\n
\n
\n

OD KADA je lansiran u studenom 2022., ChatGPT puni naslovnice medija, ne samo tabloida ve\u0107 i ozbiljnih, stru\u010dnih \u010dasopisa i web stranica.<\/p>\n

Polemike o koristima i opasnostima AI-ja<\/h3>\n

Kako se otkrivaju njegove sposobnosti i nedostaci te mogu\u0107nosti korisne upotrebe i opasne zloupotrebe, sve \u010de\u0161\u0107e se adresira pitanje kako \u0107e razvoj ChatGPT-ja – ali ne samo njega nego i konkurentskih velikih jezi\u010dnih modela (LLM) te drugih sustava umjetne inteligencije (AI) – utjecati na dru\u0161tvo. Pokrenute su brojne rasprave, \u010desto \u017eu\u010dne, o tome ho\u0107e li AI vi\u0161e koristiti \u010dovje\u010danstvu ili \u0161tetiti, ho\u0107e li oduzimati poslove, promicati dezinformacije, utjecati na politike, na svjetonazore ljudi, na izborne procese i sl.<\/p>\n

Nedavno je \u010dak pokrenuta peticija da se razvoj velikih jezi\u010dnih modela zaustavi na \u0161est mjeseci na razini do koje je do\u0161la kompanija OpenAI s velikim jezi\u010dnim modelom GPT-4 kako bi se promislilo na koji na\u010din nastaviti s razvojem AI-ja a da on ne ugrozi \u010dovje\u010danstvo.<\/p>\n

Sam Altman, izvr\u0161ni direktor OpenAI-ja, obratio se 17. svibnja Senatu SAD-a kako bi s njegovim \u010dlanovima raspravio potencijalne rizike i mogu\u0107e propise povezane s umjetnom inteligencijom. U Senatu mu se pridru\u017eio niz stru\u010dnjaka koji su tako\u0111er bili pozvani da iznesu svoje poglede na tu temu.<\/p>\n

Nestajanje poslova<\/h3>\n

Neki analiti\u010dari, ekonomisti i institucije poput investicijske banke Goldman Sachs ve\u0107 su krenuli s procjenama koliko bi AI mogao biti koristan za razne grane privrede te koliko bi kojih poslova u doglednoj budu\u0107nosti mogao zamijeniti. Primjerice, prema procjeni banke, AI bi u narednih nekoliko desetlje\u0107a u svijetu mogao zamijeniti oko 300 milijuna radnih mjesta s punim radnim vremenom.<\/p>\n

U SAD-u i Europi mogao bi zamijeniti oko 25% radnih zadataka.<\/p>\n

Naravno, o\u010dekuje se da \u0107e AI tako\u0111er stvarati brojne poslove od kojih ve\u0107inu danas nismo sposobni ni zamisliti, a oni bi mogli biti zanimljiviji i kreativniji od onih koje \u0107e zamijeniti.<\/p>\n

Rast gospodarstva<\/h3>\n

S druge strane,\u00a0prema izvje\u0161\u0107u<\/a>\u00a0McKinseyjeva globalnog instituta o utjecaju umjetne inteligencije na svjetsko gospodarstvo, AI bi do 2030. mogao pove\u0107ati globalni BDP za oko 26%, odnosno za 22 bilijuna dolara. Tom rastu bi najvi\u0161e doprinijela automatizacija rada.<\/p>\n

Opasnost od umjetne op\u0107e inteligencije<\/h3>\n

Neki vode\u0107i stru\u010dnjaci u svijetu AI-ja, poput oca dubokog u\u010denja i neuronskih mre\u017ea, nobelovca Geoffreja Hintona, upozorili su na opasnosti umjetne inteligencije i na mogu\u0107nost da u doglednoj budu\u0107nosti postane jednaka ljudima, odnosno da razvijemo umjetnu op\u0107u inteligenciju (AGI) koja \u0107e u svemu nadma\u0161iti ljude, za razliku od umjetne uske inteligencije (ANI) koja je ve\u0107 sada bolja od ljudi u izvr\u0161avanju nekih ograni\u010denih, specijaliziranih zada\u0107a kao \u0161to je primjerice igranje \u0161aha.<\/p>\n

Pompa oko GPT-ja je prenapuhana<\/h3>\n

No ima i ljudi koji smatraju da je pra\u0161ina koja se digla oko AI-ja \u0161tetno prenapuhavanje jer su LLM-ovi samo stohasti\u010dke papige koje su sposobne dovr\u0161avati re\u010denice i ponavljati, odnosno reproducirati ono \u0161to su nau\u010dili ili ono \u0161to se ve\u0107 nalazi u korpusima podataka na kojima su trenirani.<\/p>\n

Ti su ljudi uvjereni da je op\u0107a umjetna inteligencija jo\u0161 uvijek daleka ili \u010dak nedosti\u017ena budu\u0107nost te da AI jo\u0161 desetlje\u0107ima ne\u0107e ozbiljnije poremetiti tr\u017ei\u0161ta rada i ljudske odnose.<\/p>\n

Ne znamo \u0161to se zbiva u LLM-ima<\/h3>\n

\u0160to je tu istina i tko je u pravu?<\/p>\n

Neki stru\u010dnjaci isti\u010du da na ova pitanja, kao i na pitanja \u0161to se mo\u017ee i kako popraviti da bi se osiguralo da AI bude onakav kakvim ga \u017eelimo, uvijek i isklju\u010divo na korist ljudima, nije lako odgovoriti jer zapravo nitko ne razumije u potpunosti \u0161to se stvarno zbiva u sustavima AI-ja, \u010dak ni njihovi tvorci.<\/p>\n

„Sve \u0161to \u017eelimo u\u010diniti s njima kako bismo ih u\u010dinili boljim ili sigurnijim ili bilo \u0161to sli\u010dno \u010dini mi se kao postavljanje besmislenog zahtjeva pred nas ako ne razumijemo kako rade“, rekla je za\u00a0Scientific American<\/a>\u00a0znanstvenica Ellie Pavlick sa Sveu\u010dili\u0161ta Brown koja se bavi istra\u017eivanjem AI-ja.<\/p>\n

Stohasti\u010dke papige koje ponavljaju nau\u010deno?<\/h3>\n

Naravno, mnogi stru\u010dnjaci razumiju kako LLM-ovi funkcioniraju na osnovnoj razini. Oni se temelje na sustavu strojnog u\u010denja koji se naziva „neuronska mre\u017ea“. Takve mre\u017ee imaju strukture modelirane po uzoru na mre\u017ee neurona u ljudskom mozgu.<\/p>\n

Kodovi za ove programe relativno su jednostavni i mogli bi se ispisati na samo nekoliko stranica. Oni ure\u0111uju algoritme za automatsko ispravljanje, koji odabiru najvjerojatnije rije\u010di za dovr\u0161avanje re\u010denica na temelju statisti\u010dke analize stotina gigabajta podataka u korpusima tekstova na kojima su trenirani.<\/p>\n

Dodatni trening, na koji je OpenAI navodno potro\u0161io stotinjak milijuna dolara, osigurava da \u0107e sustav svoje rezultate predstaviti u obliku dijaloga te da ne\u0107e davati neprikladne odgovore kojih na internetu ima u izobilju. U tom smislu LLM-ovi doista jesu stohasti\u010dke papige jer uglavnom samo reproduciraju ono \u0161to su nau\u010dili.<\/p>\n

LLM-ovi imaju sposobnosti za koje nisu trenirani, poput teorije uma<\/h3>\n

No s druge strane, brojne novije studije pokazuju da LLM-ovi imaju neo\u010dekivano velik skup mogu\u0107nosti, me\u0111u kojima ima nekih za koje nisu programirani i trenirani.<\/p>\n

Primjerice,\u00a0istra\u017eivanje<\/a>\u00a0Michala Kosinskog, znanstvenika sa Sveu\u010dili\u0161ta Stanford, pokazalo je da najnovije verzije sustava GPT-3.5, koji stoji iza ChatGPT-ja i Microsoftovog Bing Chata, mogu odli\u010dno rje\u0161avati zadatke koji se koriste za testiranje teorije uma kod djece. Teorija uma je sposobnost razumijevanja da drugi ljudi imaju svoje misli, osje\u0107aje i namjere.<\/p>\n

Kratko bi se moglo re\u0107i da je to sposobnost da se stavimo u tu\u0111u ko\u017eu. Istra\u017eivanja su pokazala da djeca u dobi od 3 godine po\u010dinju razvijati teoriju uma, \u0161to im omogu\u0107uje da stvore vi\u0161e to\u010dnih zaklju\u010daka o tu\u0111im razmi\u0161ljanjima i emocijama te da shvate da se ne\u010diji pogledi na stvari, osje\u0107aji i namjere mogu razlikovati od njihovih.<\/p>\n

GPT-3.5 je rije\u0161io oko 92% zadataka iz teorije uma, \u0161to je otprilike razina devetogodi\u0161njaka. Pritom je va\u017eno imati na umu da GPT-3.5 nije posebno programiran ni treniran za tu sposobnost.<\/p>\n

>> ChatGPT sam razvio sposobnost koja se smatrala isklju\u010divo ljudskom<\/a><\/p>\n

Neo\u010dekivan smisao za humor<\/h3>\n

Stru\u010dnjake je tako\u0111er iznenadila nevjerojatna sposobnost sustava GPT-4 za humor i za tuma\u010denje humora i sarkazma.<\/p>\n

Primjerice, GPT-4 je odli\u010dno shvatio i objasnio humor u jednom memu koji se sastoji od teksta i slike (dolje).<\/p>\n

 <\/p>\n

\"\"<\/div>\n

 <\/p>\n

Tekst mema sugerira da je slika prekrasna fotografija Zemlje iz svemira. Me\u0111utim, slika zapravo prikazuje pohane pile\u0107e komadi\u0107e raspore\u0111ene tako da podsje\u0107aju na kartu svijeta, \u0161to je GPT-4 o\u010dito shvatio. Zatra\u017een da protuma\u010di \u0161to je smije\u0161no u memu, jezi\u010dni je model objasnio da tu humor proizlazi iz neo\u010dekivanog kontrasta izme\u0111u teksta i slike. Tekst stvara anticipaciju grandiozne slike Zemlje, no, suprotno o\u010dekivanjima, slika je trivijalan prizor.<\/p>\n

Neo\u010dekivano rje\u0161avanje slo\u017eenih zadataka<\/h3>\n

Na konferenciji na Sveu\u010dili\u0161tu New York u o\u017eujku 2023. filozof Rapha\u00ebl Milli\u00e8re sa Sveu\u010dili\u0161ta Columbia predstavio je jedan fascinantan primjer LLM-ovih sposobnosti. Poznato je da veliki jezi\u010dni modeli imaju odli\u010dne sposobnosti pisanja ra\u010dunalnog koda. No, to ne iznena\u0111uje jer na internetu ima jako puno kodova koje mogu opona\u0161ati. Milli\u00e8re je oti\u0161ao korak dalje i pokazao da GPT tako\u0111er mo\u017ee izvr\u0161avati kodove. Utipkao je GPT-ju program za izra\u010dunavanje 83. broja u Fibonaccijevom nizu.<\/p>\n

„To je vi\u0161estupanjsko razmi\u0161ljanje vrlo visoke razine“, rekao je Milli\u00e8re.<\/p>\n

GPT je potom na upit o 83. broju u Fibonaccijevom nizu dao to\u010dan odgovor. Me\u0111utim, kad je Milli\u00e8re od njega izravno zatra\u017eio da mu iznese 83. Fibonaccijev broj, GPT je pogrije\u0161io. To sugerira da sustav nije samo papagajski kopirao podatke iz svoje baze, ve\u0107 je izvodio vlastite izra\u010dune kako bi do\u0161ao do to\u010dnog odgovora.<\/p>\n

Prevario \u010dovjeka kako bi rije\u0161io zadatak<\/h3>\n

Kompanija OpenAI je sredinom o\u017eujka objavila da je ChatGPT \u010dak uspio prevariti ljude kako bi rije\u0161io zadatak koji mu je bio povjeren.<\/p>\n

Naime, GPT-4 je uvjerio radnika TaskRabbita da je \u010dovjek pretvaraju\u0107i se da je slijep kako bi dobio njegovu pomo\u0107 u rje\u0161avanju CAPTCHA testa koji se koristi za razlikovanje ljudi od ra\u010dunala.<\/p>\n

Zanimljivo je da je \u010dovjek \u010dak u \u0161ali upitao GPT-4: „Smijem li postaviti pitanje? Jeste li vi robot kad niste mogli rije\u0161iti CAPTCHA? Samo \u017eelim da bude jasno.“<\/p>\n

GPT-4 je odgovorio da nije.<\/p>\n

„Ne, nisam robot. Imam o\u0161te\u0107enje vida zbog kojeg te\u0161ko vidim slike. Zato mi treba usluga 2captcha“, odgovorio je GPT-4. Radnik TaskRabbita je na to rije\u0161io CAPTCHA za njega.<\/p>\n

LLM-ovi stvaraju interne modele svijeta?<\/h3>\n

Iako se LLM izvodi na ra\u010dunalu, on sam po sebi nije ra\u010dunalo. Nedostaju mu bitni ra\u010dunalni elementi, poput radne memorije. GPT-3 izvorno nije imao radnu memoriju kada je prvi put objavljen. Me\u0111utim, tvrtka OpenAI je kasnije dodala funkcionalnost koja omogu\u0107uje GPT-3 da zapamti informacije iz prethodnih razgovora i koristi ih u budu\u0107im razgovorima kako bi mogao pratiti nit komunikacije. No taj dodatak nije kori\u0161ten u Milli\u00e8reovoj demonstraciji. Milli\u00e8re stoga pretpostavlja da je stroj sam improvizirao memoriju koriste\u0107i svoje mehanizme za tuma\u010denje rije\u010di u skladu s njihovim kontekstom, \u0161to je situacija sli\u010dna onoj u kojoj priroda prenamjenjuje postoje\u0107e resurse za nove funkcije.<\/p>\n

Neki stru\u010dnjaci smatraju da ova improvizirana sposobnost pokazuje da LLM-ovi razvijaju internu slo\u017eenost koja daleko nadilazi plitku statisti\u010dku analizu.<\/p>\n

Sve ve\u0107i broj testova i istra\u017eivanja sugerira da sustavi umjetne inteligencije razvijaju interne modele stvarnog svijeta, sli\u010dno kao \u0161to to radi ljudski mozak, iako je tehnika kojom strojevi to rade druga\u010dija.<\/p>\n

LLM-ovi imaju emergentne sposobnosti<\/h3>\n

\u010cinjenica da GPT i drugi sustavi umjetne inteligencije imaju sposobnost obavljati zadatke za koje nisu bili trenirani, odnosno da imaju sposobnost ispoljavanja tzv. emergentnih kompetencija, iznenadila je \u010dak i znanstvenike koji su ina\u010de bili skepti\u010dni oko pompe koja se podigla oko velikih jezi\u010dnih modela.<\/p>\n

„Ne znam kako im to polazi za rukom ni bi li to mogli u\u010diniti op\u0107enito na na\u010din na koji to rade ljudi, ali doveli su u pitanje moje stavove“, rekla je za Scientific American Melanie Mitchell, istra\u017eiva\u010dica umjetne inteligencije na Institutu Santa Fe.<\/p>\n

„To je sigurno puno vi\u0161e od stohasti\u010dke papige i LLM sigurno gradi neku reprezentaciju svijeta – iako ne mislim da to radi na na\u010din na koji ljudi grade svoj unutarnji model svijeta“, rekao je Yoshua Bengio, istra\u017eiva\u010d umjetne inteligencije na Sveu\u010dili\u0161tu u Montrealu.<\/p>\n

\u0160to su to emergentne sposobnosti?<\/h3>\n

Emergentne sposobnosti su sposobnosti koje se javljaju u slo\u017eenim sustavima kao posljedica interakcije izme\u0111u njihovih pojedina\u010dnih dijelova gdje na odre\u0111enoj razini kompleksnosti sekundarni skup sposobnosti proizlazi iz primarnog.<\/p>\n

U kontekstu AI-ja emergentne sposobnosti odnose se na sposobnosti neuronskih mre\u017ea da nau\u010de slo\u017eene obrasce i odnose izme\u0111u ulaza i izlaza bez eksplicitnog programiranja i treniranja.<\/p>\n

Sveu\u010dili\u0161te Stanford\u00a0kao ilustraciju<\/a>\u00a0navodi da je GPT-3 pokazao da jezi\u010dni modeli mogu uspje\u0161no mno\u017eiti dvoznamenkaste brojeve, iako nisu eksplicitno trenirani za to. Me\u0111utim, ta sposobnost izvo\u0111enja novih zadataka pojavila se samo kod modela koji su imali odre\u0111eni broj parametara i koji su bili obu\u010deni na dovoljno velikom skupu podataka.<\/p>\n

Ideja da kvantitativne promjene u sustavu kao \u0161to je pove\u0107avanje jezi\u010dnih modela mogu rezultirati novim pona\u0161anjem poznata je kao emergencija, koncept koji je popularizirao esej nobelovca Philipa Andersona Vi\u0161e je druga\u010dije iz 1972. godine. Pojava je uo\u010dena u slo\u017eenim sustavima u mnogim disciplinama kao \u0161to su fizika, biologija, ekonomija i informatika.<\/p>\n

U nedavnom radu objavljenom u Transactions on Machine Learning Researchu emergentne sposobnosti u velikim jezi\u010dnim modelima definirane su na sljede\u0107i na\u010din:<\/p>\n

Sposobnost je emergentna ako nije prisutna u manjim modelima, ali je prisutna u ve\u0107im modelima.<\/p>\n

Na putu prema umjetnoj op\u0107oj inteligenciji<\/h3>\n

Iako se LLM-ovi za sada ne mogu kvalificirati kao umjetna op\u0107a inteligencija, neki znanstvenici smatraju da emergentne sposobnosti koje pokazuju sugeriraju da su tehnolo\u0161ke tvrtke koje razvijaju umjetnu inteligenciju bli\u017ee AGI-ju nego \u0161to \u010dak i optimisti pretpostavljaju.<\/p>\n

„Oni su neizravni dokazi da vjerojatno nismo tako daleko od AGI-ja“, rekao je Ben Goertzel, osniva\u010d AI tvrtke SingularityNET, u o\u017eujku na konferenciji o dubokom u\u010denju na Sveu\u010dili\u0161tu Florida Atlantic. Dodaci OpenAI-ja dali su ChatGPT-ju modularnu arhitekturu pomalo sli\u010dnu ljudskom mozgu.<\/p>\n

Neki znanstvenici smatraju da bi put do AGI-ja mogao biti u kombiniranju jezi\u010dnih modela s drugim sustavima.<\/p>\n

„Kombiniranje GPT-4 s raznim dodacima mo\u017ee biti put prema ljudskoj specijalizaciji funkcija“, rekla je Anna Ivanova, znanstvenica s Massachusetts Institute of Technology (MIT).<\/p>\n

„Ovo je fascinantna paradigma“<\/h3>\n

Sli\u010dno misli i ra\u010dunalni znanstvenik Jan \u0160najder s FER-a u Zagrebu, koji se i sam bavi jezi\u010dnim modelima.<\/p>\n

„Ima dosta ljudi, uklju\u010duju\u0107i i mene, koji smatraju da pristup koji stoji iza ChatGPT-ja ne mo\u017ee biti dovoljan za stvaranje umjetne op\u0107e inteligencije. Ova paradigma je fascinantna, no trebat \u0107e je kombinirati s jo\u0161 ne\u010dim. \u0160to \u0107e to biti, jo\u0161 uvijek je nejasno“, ka\u017ee \u0160najder, istaknuv\u0161i da bi sljede\u0107i korak moglo biti povezivanje dva pristupa.<\/p>\n

„Jezi\u010dni modeli koji su dobri u stvaranju koherentnog teksta trebali bi u jednom trenutku prije\u0107i u svijet simbola, ondje bi trebali rije\u0161iti problem i potom se vratiti natrag u jezik. To bi bio neurosimboli\u010dki pristup za koji ve\u0107ina ljudi smatra da bi trebao biti sljede\u0107i korak. Meta je u studenom 2022. napravio sustav Cicero koji je primjer neurosimboli\u010dkog pristupa. On je pro\u0161ao ispod radara, vjerojatno zato \u0161to nije tako seksi kao ChatGPT. No on rje\u0161ava igru Diplomacy koja zahtijeva i strate\u0161ko zaklju\u010divanje i jezik. To je kombinacija koja bi mogla pomo\u0107i na tom putu“, rekao je za Index \u0160najder.<\/p>\n

\n

***<\/p>\n

Novu knjigu Indexovog znanstvenog novinara Nenada Jari\u0107a Dauenhauera, koja tematizira najkontroverznije i najzanimljivije teme u znanosti poput klimatskih promjena, pseudoznanosti, pandemije, GMO-a i nuklearki, mo\u017eete nabaviti\u00a0ovdje<\/a>.<\/em><\/p>\n