Recimo da ste uvereni da bi veštačka inteligencija mogla da učini ovaj vek najvažnijim vekom svih vremena za čovečanstvo. Šta možete učiniti da pomognete da stvari idu dobro a ne loše?
Mislim da najveće mogućnosti dolaze iz posla sa punim radnim vremenom (i/ili novca koji od toga zarađujete). Mislim da su ljudi generalno daleko bolji u svom poslu nego u bilo čemu drugom.
U ovom delu će biti navedeni poslovi za koje mislim da su posebno vredni. Očekujem da će se stvari (mnogo) menjati iz godine u godinu – ovo je moja slika trenutno.
Evo rezimea:
Uloga | Veštine / sredstva koja su vam potrebna |
---|---|
Istraživanje i inženjering o bezbednosti veštačke inteligencije | Tehničke sposobnosti (ali ne nužno profesionalno iskustvo u oblasti VI) |
Informaciona bezbednost za smanjenje šanse da moćna veštačka inteligencija “procuri” | Stručnost za bezbednost ili spremnost/sposobnost da se započne na juniorskoj poziciji (verovatno ne baveći se VI) |
Druge uloge u kompanijama sa veštačkom inteligencijom | Pogodno za opštije stručnjake (ali sa velikim prednostima i nedostacima) |
Analitički centri pri vladi ili koji sarađuju sa njom | Pogodno za opšte stručnjake (ali verovatno je potrebno mnogo vremena da bi imali uticaj) |
Poslovi u politici | Pogodno za opšte stručnjake ako imate jasan stav o tome kojim političarima treba pomoći |
Predviđanje da biste bolje razumeli ono što dolazi | Istorija dobrih prognoza (može se raditi sa skraćenim radnim vremenom) |
“Meta” karijere | Razno / pogodno za opšte stručnjake |
Opcije sa malim vođenjem | Ovo ima smisla ~samo ako pročitate i odmah pomislite “To sam ja” |
Nekoliko napomena pre nego što dam više detalja:
-
Ovi poslovi nisu sve i svja. Očekujem da će se mnogo toga promeniti u budućnosti, uključujući opšte povećanje broja korisnih poslova koji su dostupni.
-
Većina današnjih prilika koncentrisana je u SAD i Velikoj Britaniji, gde su najveće kompanije za istraživanje VI (i neprofitne organizacije fokusirane na VI). Ovo će se možda promeniti.
-
Većina njih nisu poslovi na kojima možete samo da dobijete uputstva i primenite uske veštine.
-
Ovde su problemi nezgodni, a vaš rad će skoro sigurno biti beskorisan (ili čak štetan) u zavisnosti od toga koga pitate.
-
Preporučujem da formirate sopstvene stavove o ključnim rizicima veštačke inteligencije – i/ili radite za organizaciju u čije vođstvo verujete.
-
Ključno je da ostanete otvorenog uma i prilagodljivi.
-
Mislim da je loše žuriti u osrednje uklapanje sa jednim od ovih poslova, i bolje je (ako je potrebno) kloniti se poslova vezanih za veštačku inteligenciju dok se usavršavate i čekate da se odlično uklapite negde drugde.
-
Mislim da nije od pomoći (i moglo bi biti štetno) zauzeti fanatičan stav: „Ovo je najvažnije vreme ikada – vreme da budeš heroj“. Bolje je raditi intenzivno, ali održivo, ostati mentalno zdrav i donositi dobre odluke.
Prvi odeljak ovog članka će rezimirati moju osnovnu sliku o glavnim rizicima i obećavajućim načinima za smanjenje ovih rizika (slobodno preskočite ako mislite da razumete ovo).
Sledeći odeljak će razraditi opcije u gornjoj tabeli.
Nakon toga, govoriću onekim stvarima koje možete da uradite ako još uvek niste spremni da promenite karijeru i daću vam nekeopšte savete kako da izbegnete nanošenje štete i takozvani burn-out.
Rekapitulacija glavnih rizika i nekih stvari koje bi mogle pomoći
Ovo je kratak pregled glavnih rizika od transformativne VI. Za opširniju razradu pogledajte Kako bismo mogli da uletimo u katastrofu izazvanu VI, a za još detaljniji pregled pogledajte ceo serijal. Da biste prešli na sledeći odeljak, kliknite ovde.
Pozadina: mogli bismo da razvijemo transformativnu VI u narednim decenijama. Ako razvijemo veštačku inteligenciju koja može da automatizuje sve stvari koje ljudi rade kako bi unapredila nauku i tehnologiju, to bi moglo da izazove eksplozivan tehnološki napredak koji bi nas mogao odvesti u radikalno nepoznatu budućnost brže nego što većina ljudi misli.
Takva veštačka inteligencija bi takođe mogla da pobedi celo, ujedinjeno čovečanstvo, ako bi bila usmerena ka tom cilju.
(Kliknite za proširenje) Najvažniji vek
U serijalu o najvažnijem veku, tvrdio sam da bi 21. vek mogao biti najvažniji vek ikada za čovečanstvo, i to zahvaljujući razvoju naprednih sistema veštačke inteligencije koji bi mogli dramatično da ubrzaju naučni i tehnološki napredak, odvodeći nas brže nego što većina ljudi zamišlja u potpuno nepoznatu budućnost.
Fokusiram se na hipotetičku vrstu veštačke inteligencije koju nazivam PASTA ili proces za automatizaciju naučnog i tehnološkog napretka. PASTA bi bila veštačka inteligencija koja u suštini može da automatizuje sve ljudske aktivnosti potrebne za ubrzanje naučnog i tehnološkog napretka.
Koristeći mnoštvo različitih pristupa predviđanju, tvrdim da je verovatnoća da će PASTA biti razvijena u ovom veku veća od one da do toga ne dođe – i postoji pristojna šansa (više od 10%) da ćemo je videti u roku od otprilike 15 godina.
Tvrdim da bi posledice ove vrste veštačke inteligencije mogle biti ogromne: eksplozija naučnog i tehnološkog napretka. Ovo bi nas moglo odvesti u radikalno nepoznatu budućnost brže nego što većina misli.
Takođe sam tvrdio da bi ovakva vrsta sistema veštačke inteligencije mogla da pobedi celokupno čovečanstvo, ako (iz bilo kog razloga) bude usmerena ka tom cilju.
Za više informacija, pogledajte početak serijala o najvažnijem veku. Serijal je dostupan u mnogim formatima, uključujući i audio format; Takođe dajem rezime i vezu do podkasta u kojem raspravljam o tome na apstraktnijem nivou.
(Kliknite za proširenje) Kako bi sistemi veštačke inteligencije mogli da pobede čovečanstvo?
Prethodni članak tvrdi da bi sistemi veštačke inteligencije mogli da pobede celo čovečanstvo zajedno, ako (iz bilo kog razloga) budu usmereni ka tom cilju.
Pod porazom čovečanstva, mislim na sticanje kontrole nad svetom tako da VI, a ne čovek, određuje šta se dešava u njemu; ovo može uključivati ubijanje ljudi ili jednostavno neku vrstu “zarobljavanja“, tako da ne možemo da ometamo VI dok teži svojm ciljevima.
Jedan od načina na koji bi se to moglo desiti bio bi putem “superinteligencije“ Zamislivo je da jedan VI sistem (ili skup sistema koji rade zajedno) može da:
-
Izvede sopstveno istraživanje o tome kako da napravi bolji sistem veštačke inteligencije, koji kulminira nečim što ima neverovatne, drugačije sposobnosti.
-
Hakuje softver koji su napravili ljudi bilo gde na svetu.
-
Manipuliše ljudskom psihologijom.
-
Brzo generiše ogromno bogatstvo pod sopstvenom kontrolom ili bilo kog ljudskog saveznika.
-
Smisli bolje planove nego što bi ljudi mogli da zamisle i pazi da ne pokuša bilo kakav proces preuzimanja koji bi ljudi mogli da otkriju i zaustave.
-
Razvije napredno oružje koje se može napraviti brzo i jeftino, ali je dovoljno moćno da nadjača ljudske vojske.
Ali čak i ako „superinteligencija“ nikada ne stupi na scenu – čak i ako je bilo koji dati sistem veštačke inteligencije u najboljem slučaju jednako sposoban kao vrlo sposoban čovek – VI bi mogla kolektivno da pobedi čovečanstvo. Ovaj članak objašnjava kako.
Osnovna ideja je da će ljudi verovatno primeniti sisteme veštačke inteligencije u celoj ekonomiji, tako da budu brojni i imaju pristup velikoj količini resursa – i sposobnost da prave kopije sebe. Od ove početne tačke, sistemi veštačke inteligencije sa ljudskim (ili većim) sposobnostima imali bi niz mogućih načina da dođu do tačke u kojoj bi njihova ukupna populacija mogla ljude nadmašiti bilo brojčano ili u pogledu resursa.
Više: VI bi mogla da pobedi sve nas zajedno
Rizik od neusklađenosti: VI bi mogla završiti sa sopstvenim, opasnim ciljevima.
-
Ako ovu vrstu veštačke inteligencije razvijemo korišćenjem tehnika zasnovanih na pokušajima i greškama koje su danas uobičajene, mislim da je verovatno da će na kraju “ciljati“ na određena stanja sveta, slično veštačkoj inteligenciji koja igra šah “ciljajući“ mat poziciju – pravljenje izbora, kalkulisanje i planiranje za postizanje određenih vrsta ishoda, čak i kada to zahteva obmanjivanje ljudi.
-
Mislim da će biti teško – razume se – obezbediti da sistemi veštačke inteligencije ciljaju ono čemu mi (ljudi) želimo da ciljaju, a ne na dobijanje moći za sopstvene ciljeve.
-
Ako veštačka inteligencija ima svoje ambiciozne ciljeve – i ako je dovoljno brojna i/ili sposobna da nadvlada ljude – mislim da je rizik da će veštačka inteligencija preuzeti kontrolu nad svetom i u potpunosti potlačiti ljude – ozbiljan.
(Kliknite za proširenje) Zašto bi VI “ciljala“ da pobedi čovečanstvo?
U prethodnom članku se tvrdilo da je katastrofa izvesna ako današnje metode razvoja veštačke inteligencije vode direktno do dovoljno moćnih sistema veštačke inteligencije (u odsustvu specifičnih protivmera).
Ukratko:
-
Savremeni razvoj veštačke inteligencije je u suštini zasnovan na “obuci“ putem pokušaja i greške.
-
Ako nastavimo neoprezno i ambiciozno sa takvom obukom, i ako nas to odvede sve do veoma moćnih sistema veštačke inteligencije, onda će takvi sistemi verovatno završiti ciljajući na određena stanja sveta (analogno tome kako veštačka inteligencija koja igra šah ima za cilj mat).
-
Ova stanja će biti drugačija od onih koje smo nameravali, jer naše metode obuke na osnovu pokušaja i greške neće biti tačne. Na primer, kada smo zbunjeni ili dezinformisani u vezi sa nekim pitanjem, nagradićemo sisteme veštačke inteligencije za davanje pogrešnog odgovora na njega – slučajno ćemo trenirati obmanjujuće ponašanje.
-
Trebalo bi očekivati katastrofu ako imamo sisteme veštačke inteligencije koji su (a) dovoljno moćni da poraze ljude i (b) ciljaju na stanja sveta koja nismo nameravali. (“Poraz“ znači da VI preuzme kontrolu nad svetom i učiniti ono što je neophodno da nas skrajne; Nije mi do kraja jasno da li bismo bili bukvalno ubijeni ili samo nasilno sprečeni(1) da promenimo svet na načine koji su u suprotnosti sa ciljevima sistema VI.)
Više: Zašto bi VI “ciljala“ da pobedi čovečanstvo?
Pritisci konkurencije i nejasni dokazi o rizicima mogu ovu situaciju učiniti veoma opasnom. U prethodnom članku izložio sam hipotetičku priču o tome kako bi svet mogao da sklizne u katastrofu. U ovoj priči:
-
Postoje znaci upozorenja o rizicima neusklađene veštačke inteligencije – ali postoji mnogo nejasnoća o tome koliki je zapravo rizik.
-
Svi se besno utrkuju ko će prvi primeniti moćne sisteme VI.
-
Na kraju imamo veliki rizik od implementiranja opasnih sistema veštačke inteligencije u celoj ekonomiji – što znači rizik da veštačka inteligencija u potpunosti potlači ljude.
-
Čak i ako se izbegnemo taj slučaj – čak i ako se VI ponaša kako je predviđeno – ovo bi mogla biti katastrofa ako najmoćniji sistemi veštačke inteligencije završe koncentrisani u pogrešnim rukama (nešto što mislim da je razumno verovatno zbog potencijalne neravnoteže moći). Postoje i drugi rizici.
(Kliknite za proširenje) Zašto je teško proceniti bezbednost veštačke inteligencije
U prethodnim radovima sam tvrdio da:
Koristim „usklađeno“ da konkretno znači da se VI ponašaju kako je predviđeno, a ne da teže sopstvenim opasnim ciljevima. Koristim „sigurno“ u širem smislu da znači da sistem veštačke inteligencije predstavlja mali rizik od katastrofe iz bilo kog razloga u kontekstu u kome se koristi. U redu je da ih uglavnom smatramo zamenljivim u ovom postu.
Ako razvijemo moćnu veštačku inteligenciju ambicioznom upotrebom “metode crne kutije pokušaja i grešaka“ koja je uobičajena u razvoju veštačke inteligencije danas, onda postoji značajan rizik da će:
-
Ove veštačke inteligencije će razviti neželjene ciljeve (stanja sveta prema kojima prave proračune i planove, kao što veštačka inteligencija koja igra šah “ima za cilj“ mat);
-
Ove veštačke inteligencije mogle obmanuti, manipulisati, pa čak i preuzeti svet od ljudi u potpunosti po potrebi zarad postizanja tih ciljeva.
Ljudi danas rade istraživanje bezbednosti veštačke inteligencije kako bi sprečili ovaj ishod, ali takva istraživanja imaju niz dubokih poteškoća:
„Sjajne vesti – testirao sam ovu veštačku inteligenciju i izgleda bezbedno.” Zašto još uvek imamo problem? | ||
---|---|---|
Problem | Ključno pitanje | Objašnjenje |
Problem Lensa Armstronga | Da li smo doveli do toga da veštačka inteligencija zaista bude bezbedna ili jednostavno dobra u skrivanju svojih opasnih akcija? |
Kada imate posla sa inteligentnim agentom, teško je napraviti razliku između “dobro se ponaša“ i “izgleda da se ponaša dobro“. Kada se svet profesionalnog biciklizma bavio lekovima za poboljšanje performansi, Lens Armstrong je bio veoma uspešan i činilo se da je neobično “čist“. Kasnije se ispostavilo da je koristio supstance sa neobično sofisticiranom operacijom za njihovo prikrivanje. |
Problem Kralja Lira | VI se (zapravo) dobro ponaša kada ljudi imaju kontrolu. Hoće li se ovo preneti na vreme kada će VI imati kontrolu? |
Teško je znati kako će se neko ponašati kada ima moć nad vama, samo na osnovu posmatranja kako se ponaša kada nema. VI se može ponašati onako kako je planirano sve dok ljudi imaju kontrolu – ali u nekom budućem trenutku, VI sistemi bi mogli biti dovoljno sposobni i rasprostranjeni da imaju prilike da u potpunosti preuzmu kontrolu nad svetom. Teško je znati da li će iskoristiti ove prilike, a mi ne možemo da izvršimo čist test situacije. Poput kralja Lira koji pokušava da odluči koliko moći da da svakoj svojoj ćerki pre nego što abdicira. |
Problem laboratorijskih miševa | Današnja VI “ispod nivoa čoveka” je bezbedna. Šta je sa budućim VI sa više ljudskih sposobnosti? |
Današnji sistemi veštačke inteligencije nisu dovoljno napredni da ispolje osnovna ponašanja koja želimo da proučavamo, kao što je obmanjivanje i manipulisanje ljudima. To je kao da pokušavate da proučavate medicinu za ljude eksperimentišući samo na laboratorijskim miševima. |
Problem prvog kontakta | Zamislite da su sutrašnje veštačke inteligencije “nalik ljudima“ bezbedne. Kako će se stvari odvijati kada VI ima sposobnosti koje su daleko veće od ljudskih? |
Sistemi veštačke inteligencije bi (kolektivno) mogli postati mnogo sposobniji od ljudi, i zVIsta je teško imati predstavu kako će to izgledati. Koliko znamo, nikada ranije u galaksiji nije postojalo nešto što je bilo mnogo sposobnije od ljudi na značajne načine! Bez obzira na to šta smislimo da rešimo prva tri problema, ne možemo biti previše sigurni da će nastaviti da funkcioniše ako VI napreduje (ili se samo širi) mnogo više. To je kao pokušaj planiranja prvog kontakta sa vanzemaljcima (ovo jedva da liči na analogiju). |
(Kliknite za proširenje) Neuravnoteženost snage i drugi rizici pored neusklađene veštačke inteligencije
-
Tvrdio sam da bi veštačka inteligencija mogla da izazove dramatično ubrzanje tempa naučnog i tehnološkog napretka.
-
Jedan način razmišljanja o ovome: možda bi (iz razloga koje sam ranije naveo) VI mogla da omogući ekvivalent stotina godina naučnog i tehnološkog napretka za nekoliko meseci (ili brže). Ako je tako, onda bi razvoj moćne veštačke inteligencije nekoliko meseci pre drugih mogao dovesti do tehnologije koja je (praktično) stotinama godina ispred drugih.
-
Zbog ovoga je lako zamisliti da bi veštačka inteligencija mogla da dovede do velikih neravnoteža moći, jer bi ona zemlja/koalicija koja “predvodi“ razvoj veštačke inteligencije mogla postati daleko moćnija od drugih (možda analogno vremenu u kojem je nekoliko malešnih evropskih država preuzelo kontrolu nad većim delom ostatka sveta).
-
Mislim da bi stvari mogle da krenu po zlu ako pogrešna zemlja/koalicija predvodi transformativnu veštačku inteligenciju. U isto vreme, izrazio sam zabrinutost da bi se ljudi mogli preterano fokusirati na ovaj aspekt stvari u odnosu na druga pitanja, iz više razloga, uključujući:
-
Mislim da ljudi prirodno postaju više zainteresovani za “pomaganje dobrim momcima da pobede loše momke“ nego za “pomaganje svima nama da izbegnemo univerzalno loš ishod, iz bezličnih razloga kao što su ‘loše smo dizajnirali VI sisteme’ ili ‘stvorili smo dinamiku u kojoj se žurba i agresija nagrađuju.’“
-
Očekujem da će ljudi imati tendenciju da budu previše samouvereni u pogledu toga koje zemlje, organizacije ili ljude vide kao “dobre momke“.
(Više ovde.)
Takođe postoji opasnost da moćna VI bude previše rasprostranjena, a ne previše koncentrisana. U Hipotezi o Ranjivom Svetu, Nik Bostrom razmatra potencijalnu buduću dinamiku, u kojoj “bi napredak u alatima za biohakovanje po principu “uradi sam“ mogao svakome ko ima osnovnu obuku iz biologije omogućiti da realtivno lako ubije milione. Pored izbegavanja svetova u kojima su sposobnosti veštačke inteligencije na kraju koncentrisane u rukama nekolicine, takođe bi moglo biti važno izbegavati svetove u kojima se VI šire prebrzo, pre nego što budemo u mogućnosti da procenimo rizike široko rasprostranjenog pristupa tehnologiji daleko iznad današnje.
O ovim i brojnim drugim rizicima VI govorim u prethodnom delu: Transformativna pitanja VI (ne samo neusklađenost): pregled
Izložio sam nekoliko načina da smanjim rizike (označeni bojom pošto ću ih pominjati u celom delu):
Istraživanje usklađivanja. Istraživači rade na načinima da dizajniraju sisteme veštačke inteligencije koji su istovremeno (a) „usklađeni“ u smislu da nemaju sopstvene nenameravane ciljeve ; (b) veoma moćni, do tačke u kojoj mogu da budu konkurentni najboljim sistemima.
-
Izložio sam tri velike nade za to kako bismo – koristeći tehnike koje su danas poznate – mogli da razvijemo sisteme VI koji su usklađeni i moćni.
-
Ove tehnike ne bi nužno funkcionisale beskonačno, ali bi mogle da funkcionišu dovoljno dugo da bismo mogli da koristimo rane bezbedne sisteme veštačke inteligencije da učinimo situaciju mnogo bezbednijom (automatizovanjem ogromne količine daljeg istraživanja usklađivanja, pomaganjem da se demonstrira rizik i da se opravda veći oprez širom sveta, itd.)
-
(U fusnoti se objašnjava kako koristim termin „usklađeno“ u odnosu na „bezbedno“).
(Kliknite za proširenje) Velike nade za usklađivanje VI
Prethodni deo prolazi kroz ono što ja vidim kao tri ključne mogućnosti za izgradnju moćnih, ali bezbednih sistema VI.
Uokviruje ih koristeći analogiju Adžeje Kotre o mladom biznismenu za razjašenjenje osnovnih poteškoća. Ukratko, kada sistemi veštačke inteligencije postanu dovoljno sposobni, moglo bi biti teško testirati da li su bezbedni, jer bi mogli da nas prevare i izmanipulišu da dobijemo pogrešnu procenu. Stoga, pokušaj da se utvrdi da li su bezbedni može biti „kao da smo osmogodišnjak koji pokušava da odluči između odraslih kandidata za posao (od kojih su neki manipulativni)“.
Ključne mogućnosti za snalaženje u ovom izazovu:
-
Digitalna neuronauka : možda ćemo moći da pročitamo (i/ili čak da prepišemo) „digitalni mozak“ sistema veštačke inteligencije, tako da možemo da znamo (i promenimo) šta oni „ciljaju“ da urade direktno – umesto da to zaključujemo iz njihovog ponašanja. (Možda je osmogodišnjak čitalac misli, ili čak mladi profesor X.)
-
Ograničena VI : možda možemo učiniti sisteme veštačke inteligencije bezbednim tako što ćemo ih ograničiti na različite načine – na primer, izostavljajući određene vrste informacija iz njihove obuke, dizajnirajući ih tako da budu „kratkovidi“ (fokusirani na kratkoročne, a ne na dugoročne ciljevi), ili nešto u tom smislu. Možda možemo da napravimo „ograničenu veštačku inteligenciju“ koja je ipak u stanju da obavlja određene korisne zadatke – kao što je mnogo više istraživanja o tome kako postići bezbednost bez ograničenja. (Možda osmogodišnjak može da ograniči autoritet ili znanje svog zaposlenog, a da i dalje uspešno pokrene kompaniju.)
-
kontrola i ravnoteža VI: možda ćemo moći da upotrebimo neke sisteme VI da kritikujemo, nadgledamo, pa čak i “korigujemo” druge. Čak i ako nijedan sistem veštačke inteligencije ne bi bio bezbedan sam po sebi, pravo podešavanje „kontrole i ravnoteže“ moglo bi da obezbedi da ljudski interesi pobede. (Možda je osmogodišnjak u stanju da natera kandidate za posao da ocenjuju i kritikuju jedni druge, tako da sve što osmogodišnjak treba da uradi jeste da proveri osnovne činjenične tvrdnje da bi znao ko je najbolji kandidat.)
Ovo su neke od glavnih kategorija nada koje je danas prilično lako zamisliti. Dalji rad na istraživanju bezbednosti veštačke inteligencije mogao bi da dovede do daljih ideja (a gore navedeno nije iscrpno – za više detalja pogledajte moj detaljniji članak, objavljen na Alignment Forum, a ne na Cold Takes).
Standardi i nadzor. Vidim izvesnu nadu za razvoj standarda koje svi potencijalno opasni projekti VI (bilo da su kompanije, vladini projekti, itd.) moraju da ispune, i za sprovođenje ovih standarda na globalnom nivou.
-
Takvi standardi bi mogli da zahtevaju snažne demonstracije bezbednosti, jake bezbednosne prakse, dizajniranje sistema veštačke inteligencije tako da se teško koristi za preterano opasne aktivnosti, itd.
-
Ne treba nam savršen sistem ili međunarodni sporazum da bismo izvukli veliku korist od takve postavke. Cilj nije samo kupovina vremena – već i promena podsticaja, tako da projekti veštačke inteligencije moraju da napreduju u poboljšanju bezbednosti, usklađivanju itd. da bi bili profitabilni.
(Kliknite za proširenje) Kako se standardi mogu uspostaviti i postati nacionalni ili međunarodni
Prethodno sam izložio moguću viziju na ovom frontu, koju ću ovde dati u malo izmenjenoj verziji:
-
Današnje vodeće kompanije koje se bave veštačkom inteligencijom mogle bi da se samoregulišu tako što će se obavezati da neće graditi ili primeniti sistem za koji ne mogu ubedljivo da pokažu da je bezbedan (npr. pogledajte Google-ovu izjavu iz 2018. „Nećemo dizajnirati ili primeniti VI u naoružanju ili drugim tehnologijama čija je glavna svrha ili implementacija treba da izazove ili direktno olakša povredu ljudi”).
-
Čak i ako bi neki ljudi u kompanijama želeli da primene nesigurne sisteme, moglo bi biti teško to izvesti kada se kompanija obavezala da neće.
-
Čak i ako postoji mnogo prostora za prosuđivanje o tome šta znači pokazati da je sistem veštačke inteligencije bezbedan, pošto smo se unapred složili da određeni dokazi nisu dovoljno dobri, moglo bi da ide daleko.
-
Kako se pokreće sve više kompanija sa veštačkom inteligencijom, mogle bi da osete blagi pritisak da urade sličnu samoregulaciju, a odbijanje da to učine bilo bi odbojno za potencijalne zaposlene, investitore itd.
-
Na kraju, slični principi bi mogli biti ugrađeni u različite vladine propise i sprovodljive ugovore.
-
Vlade bi mogle da nadgledaju opasne projekte koristeći regulativu, pa čak i operacije u inostranstvu. Na primer, danas SAD nadgledaju (bez dozvole) različite znakove da druge države možda razvijaju nuklearno oružje, i mogu pokušati da zaustave takav razvoj metodama koje se kreću od pretnji sankcijama do sajber ratovanja ili čak vojnih napada. Mogli bi da urade nešto slično za sve razvojne projekte veštačke inteligencije koji koriste ogromne količine računara i nisu dobrovoljno dali informacije o tome da li ispunjavaju standarde.
Uspešni, pažljivi projekti VI. Mislim da VI kompanija (ili neki drugi projekat) može enormno poboljšati situaciju, ako može i (a) biti jedan od lidera u razvoju moćne VI; (b) dati prioritet obavljanju (i korišćenju moćne veštačke inteligencije za) stvari koje smanjuju rizike, kao što je istraživanje usklađivanja. (Ali nemojte ovo čitati kao ignorisanje činjenice da kompanije sa veštačkom inteligencijom takođe mogu naneti štetu!)
(Kliknite za proširenje) Kako bi pažljiv VI projekat mogao biti od pomoći
Pored korišćenja napredne veštačke inteligencije za istraživanje bezbednosti VI (gore pomenuto), projekat veštačke inteligencije može:
-
Uložiti ogromne napore u dizajniranje testova za znake opasnosti, i – ako vidi znakove opasnosti u sopstvenim sistemima – upozoravati svet.
-
Ponuditi dogovore drugim kompanijama/projektima koji se bave VI. Na primer, da ih preuzme ili da razmeni deo svog profita za dovoljnu vidljivost i kontrolu kako bi se osiguralo da ne primenjuju opasne sisteme veštačke inteligencije.
-
Iskoristiti svoj kredibilitet kao vodeće kompanije da lobira kod vlade za korisne mere (kao što je sprovođenje režima praćenja i nadzora), i da uopštenije istakne ključna pitanja i zagovara razumne akcije.
-
Pokušati da osigura (putem dizajna, marketinga, izbora kupaca, itd.) da se njegovi sistemi veštačke inteligencije ne koriste u opasne svrhe i da se koriste u aplikacijama koje čine svet bezbednijim i boljim. Ovo bi moglo da uključi defanzivnu primenu radi smanjenja rizika od drugih VI; može uključiti korišćenje naprednih sistema veštačke inteligencije koji će mu pomoći da dobije jasnoću o tome kako postići dobar ishod za čovečanstvo; itd.
Projekat veštačke inteligencije sa dominantnom tržišnom pozicijom bi verovatno mogao da napravi ogromnu razliku kroz stvari poput gore navedenih (i verovatno putem mnogih načina o kojima nisam razmišljao). Čak i projekat veštačke inteligencije koji je samo jedan od nekoliko vodećih mogao bi da ima dovoljno resursa i kredibiliteta da ima mnogo sličnih uticaja – posebno ako je u stanju da „vodi primerom“ i ubeđuje druge projekte veštačke inteligencije (ili sklapa dogovore sa njima) da na sličan način daju prioritet akcijama kao što su one gore navedene.
Izazov ovde je u tome što zamišljam projekat sa dva prilično kontradiktorna svojstva: biti oprezan (npr. davati prioritet akcijama kao što su gore navedene u odnosu na puki pokušaj da se zadrži sopstvena pozicija profitabilnog/savremenog projekta) i uspešan (biti profitabilan/ najsavremeniji projekat). U praksi, za projekat VI bi moglo biti veoma teško da hoda po liniji izmešu toga da bude dovoljno agresivan da bi bio „vodeći“ projekat (u smislu da ima mnogo resursa, kredibiliteta, itd.), i toga da takođe daje prioritet akcijama kao što su gore navedene (što se uglavnom, sa nekim izuzecima, čini prilično drugačijim od onoga što bi projekat veštačke inteligencije uradio da je jednostavno fokusiran na svoje tehnološko vođstvo i profitabilnost).
Jaka bezbednost. Ključna pretnja je da bi neko mogao da ukrade glavne komponente sistema veštačke inteligencije i neoprezno ga primeni. Za projekat veštačke inteligencije moglo bi biti izuzetno teško da bude čvrsto obezbeđen od toga da mu „ukradu“ VI. Ali ovo bi se moglo promeniti ako bude dovoljno napora da se reši problem kako da se obezbedi veliki, moćni sistem veštačke inteligencije.
(Kliknite za proširenje) Izazov obezbeđenja opasne veštačke inteligencije
U Trci kroz minsko polje opisao sam „trku“ između opreznih učesnika (onih koji ozbiljno shvataju rizik od neusklađenosti) i neopreznih učesnika (onih koji su usredsređeni na korišćenje veštačke inteligencije radi sopstvene dobiti, i ne razmišljaju mnogo o opasnostima po ceo svet). U idealnom slučaju, oprezni učesnici bi zajedno imali moćnije sisteme veštačke inteligencije od neopreznih učesnika, tako da bi mogli da odvoje vreme za istraživanje usklađivanja i druge stvari kako bi pokušali da situaciju učine bezbednijom za sve.
Ali ako neoprezni učesnici mogu da ukradu VI od opreznih i požure da ga primene radi sopstvene dobiti, onda situacija izgleda mnogo mračnija. I nažalost, moglo bi biti teško zaštititi se od ovakvog ishoda.
Generalno jeizuzetno teško zaštititi podatke i kôd od dobro opremljenog sajber ratovanja/špijunaže. „Težine“ veštačke inteligencije (možete da zamislite ovo otprilike kao njen izvorni kôd, madanije baš to) su potencijalno veoma opasne same po sebi, i teško je za njih dobiti ekstremnu sigurnost. Postizanje dovoljne sajber-bezbednosti moglo bi da zahteva mere i pripreme, daleko iznad onoga čemu bi se obično težilo u komercijalnom kontekstu.
Poslovi koji mogu pomoći
U ovom dugom odeljku, navešću niz poslova za koje bih voleo da ih više ljudi radi.
Nažalost, ne mogu da pružim individualnu pomoć u istraživanju jedne ili više ovih karijera. Polazne tačke mogu uključivati 80.000 sati i razne druge izvore.
Istraživačke i inženjerske karijere. Možete doprineti istraživanju usklađivanja kao istraživač i/ili softverski inženjer (razlika između njih može biti nejasna u nekim kontekstima).
Postoje (ne nužno laki za dobijanje) poslovi te vrste u velikim laboratorijama veštačke inteligencije, u uspostavljenim akademskim laboratorijama i u nezavisnim neprofitnim organizacijama (primeri u fusnoti(2)).
Različite institucije će imati veoma različite pristupe istraživanju, veoma različita okruženja i filozofije, itd., tako da je teško generalizovati šta bi nekoga moglo učiniti odgovarajućim. Nekoliko osnovnih tačaka:
-
Za dobijanje ovih poslova potrebno je mnogo talenta, ali ne treba pretpostaviti da su potrebne godine iskustva u određenoj oblasti (ili određenom stepenu).
-
Video sam veliki broj ljudi koji prelaze iz drugih oblasti (kao što je fizika) i izuzetno brzo postaju uspešni.
-
Pored obuke na radnom mestu, postoje nezavisni programi koji imaju za cilj da pomognu ljudima da brzo napreduju(3).
-
Takođe ne treba pretpostaviti da su ovi poslovi samo za „naučnike“ – postoji značajna potreba za inženjerima, za koju očekujem da će rasti.
-
Mislim da većina ljudi koji rade na usklađivanju smatraju da je mnogo tuđeg rada u najboljem slučaju beskorisno. Čini se da je ovo važno znati iz nekoliko razloga.
Ne treba pretpostaviti da je sav posao beskorisan samo zato što prvi primeri koje vidite tako izgledaju.
-
Dobro je biti svestan da šta god da uradite, neko će verovatno napadati vaš rad na internetu.
-
U isto vreme, ne bi trebalo da pretpostavljate da je vaš rad od pomoći jer je to „istraživanje bezbednosti“. Vredi uložiti mnogo u razumevanje kako bilo koje određeno istraživanje koje radite može biti od pomoći (i kako bi moglo da propadne).
-
Čak bih predložio da odvojite redovno vreme (dan svakih nekoliko meseci?) kako biste pauzirali svakodnevni rad i razmislili o tome kako se vaš posao uklapa u širu sliku.
-
Da se lakše shvati koji rad smatram da će najverovatnije biti koristan, predložio bih svoj članak o tome zašto je bezbednost veštačke inteligencije teško izmeriti – najviše sam uzbuđen zbog posla koji se direktno bavi izazovima navedenim u tom članku, i prilično sam skeptičan prema poslu koji izgleda dobro samo ako se ti izazovi izostave. (Pogledajte i moj članak o širokim kategorijama istraživanja za koje mislim da mogu biti veoma korisna , i neke komentare od pre nekog vremena koje još uvek uglavnom podržavam.)
Takođe želim da napomenem nekoliko kategorija istraživanja koje danas dobijaju određenu pažnju, mada se čini da se u njih malo ulaže, čak i u odnosu na istraživanje usklađivanja:
-
Istraživanje procene pretnji. Za mene postoji važna razlika između „Učiniti sisteme veštačke inteligencije bezbednijim“ i „Saznati koliko bi oni mogli da budu opasni“. (Danas se oni obično spajaju u „istraživanje usklađivanja“.)
-
Ključni pristup medicinskim istraživanjima je korišćenje modelnih organizama – na primer, davanje raka miševima, tako da možemo da vidimo da li smo u stanju da ih izlečimo.
-
Analogno tome, neko bi mogao namerno (mada pažljivo!(4)) dizajnirati sistem veštačke inteligencije da obmane i manipuliše ljude, tako da možemo (a) da dobijemo precizniji osećaj o tome koje vrste dinamike obuke dovode do obmane i manipulacije; (b) da vidimo da li su postojeće bezbednosne tehnike efikasne protivmere.
-
Kada bismo imali konkretne demonstracije sistema veštačke inteligencije koji postaju obmanjujući/manipulativni/traže moć, mogli bismo potencijalno da izgradimo veći konsenzus za oprez (npr. standardi i nadzor). Ili bismo možda mogli čak i da pružimo dokaze da je pretnja mala(5).
-
Nekoliko ranih primera istraživanja procene pretnji: ovde i ovde.
-
Istraživanje protiv zloupotrebe.
-
Pisao sam o tome kako bismo se mogli suočiti sa katastrofom čak i od usklađene veštačke inteligencije. To jest – čak i ako VI radi ono što njeni ljudski operateri žele da rade, možda neki od njenih ljudskih operatera žele da im pomaže u izgradnji biološkog oružja, širenju propagande itd.
-
Ali možda je moguće obučiti VI tako da ih je teško koristiti u ovakve svrhe – izazov drugačiji od njihove obuke da izbegnu obmanu i manipulaciju svojih ljudskih operatera.
-
U praksi, veliki deo posla koji se danas radi na ovome ( primer) ima tendenciju da se nazove „bezbednošću“ i spoji sa usklađivanjem (a ponekad isto istraživanje pomaže u oba cilja), ali opet, mislim da je to razlika koju vredi naglasiti.
-
Očekujem da će se najranije i najlakše verzije ovog rada desiti prirodnim putem dok kompanije pokušavaju da svoje modele VI prilagode za komercijalizaciju – ali u nekom trenutku bi moglo biti važno učiniti intenzivnije, temeljnije pokušaje da se
spreče čak i veoma retki (ali katastrofalni) pokušaji zloupotreba.
Karijere za bezbednost informacija. Postoji veliki rizik od toga da bi moćan sistem veštačke inteligencije mogao biti „ukraden“ putem hakovanja/špijunaže, a to bi moglo da pogorša skoro svaku vrstu rizika. Mislim da bi moglo biti veoma izazovno – ali moguće – da projekti veštačke inteligencije budu sigurni od ove pretnje. (Više gore.)
ZVIsta mislim da bezbednost ne dobija dovoljno pažnje od ljudi zabrinutih za rizik od veštačke inteligencije, i ne slažem se sa idejom da se ključni bezbednosni problemi mogu rešiti samo angažovanjem iz današnje bezbednosne industrije.
-
Iz onoga što sam video, kompanije sa veštačkom inteligencijom imaju mnogo problema da pronađu dobre stručnjake za bezbednost. Mislim da je mnogo do toga što je bezbednost izazovna i vredna, a potražnja za dobrim zaposlenima (naročito za ljudima koji mogu da uravnoteže bezbednosne potrebe sa praktičnim potrebama) ima tendenciju da preplavi ponudu.
-
I da, to znači da su dobri ljudi iz sektora bezbednosti dobro plaćeni!
-
Pored toga, veštačka inteligencija bi mogla da predstavlja jedinstvene bezbednosne izazove u budućnosti, jer zahteva zaštitu nečega što je istovremeno (a) u osnovi samo softver (ne npr. uranijum), i stoga ga je veoma teško zaštititi; (b) potencijalno dovoljno vredan da se može zamisliti da državni programi sa veoma dobrim resursima čine sve da ga ukradu, sa kršenjem koje ima globalno katastrofalne posledice. Mislim da bi pokušaj da se prevaziđe ovaj izazov, tako što ćete rano eksperimentisati sa pristupom njemu, mogao biti veoma važan.
-
Uverljivo mi je da je bezbednost trenutno važna kao i usklađivanje, u smislu toga koliko će još jedan kvalitetan istraživač koji radi na tome biti od pomoći.
-
A bezbednost je lakši put, jer se može dobiti mentorstvo od velike zajednice ljudi koji se bave bezbednošću i koji rade na stvarima koje nisu VI(6).
-
Mislim da postoji velika potencijalna vrednost kako u bezbednosnim istraživanjima (npr. razvoj novih bezbednosnih tehnika) tako i u jednostavnom radu u velikim kompanijama VI kako bi se pomoglo njihovim postojećim bezbednosnim potrebama.
-
Za više o ovoj temi, pogledajte ovaj nedavni izveštaj sa 80.000 hours i ovu objavu dvojice mojih kolega iz 2019.
Ostali poslovi u kompanijama za veštačku inteligenciju. VI kompanije zapošljavaju na mnogo pozicija, od kojih mnoge ne zahtevaju nikakve tehničke veštine.
Pomalo je diskutabilan/zamršen put preuzeti ulogu koja nije specifično fokusirana na bezbednost ili sigurnost. Neki ljudi veruju(7) da na ovaj način možete učiniti više štete nego koristi, pomažući kompanijama da napreduju u izgradnji opasne veštačke inteligencije pre nego što rizici dobiju mnogo pažnje ili pripreme – i mislim da je ovo prilično razumno gledište.
Istovremeno:
Možete tvrditi nešto poput: „Kompanija X ima potencijal da bude uspešan, pažljiv projekat veštačke inteligencije. Odnosno, verovatno će primeniti moćne sisteme VI pažljivije i korisnije nego što bi to uradili drugi, i koristiti ih za smanjenje rizika automatizacijom istraživanja usklađivanja i drugih zadataka koji smanjuju rizik. Štaviše, kompanija X će najverovatnije doneti niz drugih odluka mudro kako se stvari budu razvijale. Dakle, vredi prihvatiti da kompanija X ubrzava napredak veštačke inteligencije, zbog nade da kompanija X može da poboljša stvari.” Ovo očigledno zavisi od toga kako se osećate prema kompaniji X u poređenju sa drugim!
-
Rad u kompaniji X takođe može predstavljati priliku da utičete na kompaniju X. Ako ste vredan saradnik i obraćate pažnju na izbore koje kompanija donosi (i govorite o njima), mogli biste uticati na podsticaje rukovodstva.
-
Mislim da ovo može biti korisna stvar u kombinaciji sa ostalim stvarima na ovoj listi, ali generalno ne bih savetovao da se zaposlite ako je to glavni cilj.
-
Rad u kompaniji sa veštačkom inteligencijom predstavlja priliku da se generalno bolje upoznate sa veštačkom inteligencijom, što bi možda omogućilo kasniju promenu posla.
(Kliknite za proširenje) Kako bi pažljiv projekat VI mogao biti od pomoći
Pored korišćenja napredne veštačke inteligencije za istraživanje bezbednosti VI (gore pomenuto), projekat veštačke inteligencije može:
-
Uložiti ogromne napore u dizajniranje testova za znake opasnosti, i – ako vidi znake opasnosti u sopstvenim sistemima – upozoriti svet u celini.
-
Dati ponude drugim VI kompanijama/projektima. Na primer, njihovo preuzimanje ili razmena dela svog profita za dovoljnu vidljivost i kontrolu, kako bi se osiguralo da ne primenjuju opasne sisteme veštačke inteligencije.
-
Iskoristiti svoj kredibilitet kao vodeće kompanije da lobira kod vlade za korisne mere (kao što je sprovođenje režima praćenja i standarda), i da uopštenije istakne ključna pitanja i zagovara razumne akcije.
-
Pokušati da osigura (putem dizajna, marketinga, izbora kupaca, itd.) da se njegovi sistemi veštačke inteligencije ne koriste za opasne svrhe i da se koriste u aplikacijama koje čine svet bezbednijim i boljim. Ovo bi moglo da uključi defanzivnu upotrebu radi smanjenja rizika od drugih VI; može uključiti korišćenje naprednih sistema veštačke inteligencije koji će mu pomoći da dobije jasnoću o tome kako postići dobar ishod za čovečanstvo; itd.
Projekat veštačke inteligencije sa dominantnom tržišnom pozicijom bi verovatno mogao da napravi ogromnu razliku kroz stvari poput gore navedenih (i verovatno putem mnogih drugih načina o kojima nisam razmišljao). Čak i projekat veštačke inteligencije koji je samo jedan od nekoliko lidera mogao bi da ima dovoljno resursa i kredibiliteta da ima mnogo sličnih uticaja – posebno ako je u stanju da „vodi primerom“ i ubeđuje druge projekte veštačke inteligencije (ili sklapa dogovore sa njima) da na sličan način daju prioritet akcijama koje su gore navedene.
Izazov ovde je u tome što zamišljam projekat sa dva ubedljivo kontradiktorna svojstva: biti oprezan (npr. davanje prioriteta akcijama kao što je gore navedeno u odnosu na samo pokušaj da zadrži svoju poziciju profitabilnog/savremenog projekta) i uspešan (biti profitabilan/ najsavremeniji projekat). U praksi, za projekat VI bi moglo biti veoma teško da balansira dovoljno agresivan pristup da bude „vodeći“ projekat (u smislu da ima mnogo resursa, kredibiliteta, itd.), a takođe daje prioritet akcijama kao što su gore navedene (što se uglavnom, sa nekim izuzecima, čini prilično drugačijim od onoga što bi projekat veštačke inteligencije uradio da je jednostavno fokusiran na svoje tehnološko vođstvo i profitabilnost).
80.000 Hours ima kolekciju anonimnih saveta o tome kako da razmislite o prednostima i nedostacima rada u kompaniji VI.
U jednom budućem članku govoriću o tome šta mislim da kompanije koje se bave veštačkom inteligencijom mogu da rade danas da bi se pripremile za transformativni rizik od veštačke inteligencije. Ovo bi moglo biti od pomoći da dobijete osećaj kako izgleda neobično pažljiva kompanija posvećena kreiranju VI.
Poslovi u vladi i u istraživačkim centrima sa kojima se suočavaju vlade. Mislim da postoji velika vrednost u pružanju kvalitetnih saveta vladama (naročito vladi SAD) o tome kako da razmišljaju o veštačkoj inteligenciji – kako o današnjim sistemima tako i o potencijalnim budućim.
Takođe mislim da bi moglo imati smisla raditi na drugim tehnološkim pitanjima u vladi, što bi mogao biti dobar put za kasniji rad na VI (očekujem da će pažnja vlade prema VI vremenom rasti).
Ljudi zVInteresovani za ovakve karijere mogu da pogledaju Open Philanthropy’s Technology Policy Fellowships.
Jedna srodna aktivnost koja se čini posebno vrednom: razumevanje stanja veštačke inteligencije u zemljama koje nisu ona u kojoj radite – posebno u zemljama koje (a) imaju dobre šanse da razviju svoje velike projekte veštačke inteligencije u budućnosti; (b) su teške za razumeti.
-
Posedovanje dobrih informacija o takvim zemljama moglo bi da bude ključno za donošenje dobrih odluka, npr. o opreznom kretanju umesto jurenja napred ili pak pokušaju da se standardi bezbednosti sprovedu na međunarodnom nivou.
-
Mislim da je dobar posao na ovom frontu uradio, između ostalih, Centar za bezbednost i nove tehnologije(8).
U jednom budućem članku će se raspravljati o drugim stvarima za koje mislim da vlade mogu da rade danas kako bi se pripremile za transformativni rizik od veštačke inteligencije. Još uvek neću imati previše opipljivih preporuka, ali očekujem da će ih vremenom biti više, posebno ako i kada standardi i okviri za praćenje budu bolje razvijeni.
Poslovi u politici. Prethodna kategorija se fokusirala na savetovanje vlada; ovo se odnosi na rad na političkim kampanjama, vršenje analize anketa, itd. kako bi se generalno povećao procenat u kojem su razumni ljudi na vlasti. Naravno u pitanju je lična procena toga koji su političari „dobri“, a koji „loši“, ali nisam želeo da izostavim ovu kategoriju posla.
Predviđanje. Zaintrigirale su me organizacije kao što su Metaculus, HyperMind, Good Judgment(9), Manifold Markets i Samotsvety – svi pokušavaju, na ovaj ili onaj način, da proizvedu predviđanja visoke verovatnoće (koristeći metode koje se mogu generalizovati(10)) o događajima u svetu.
Kad bismo mogli da dobijemo dobre prognoze o pitanjima poput „Kada će sistemi veštačke inteligencije biti dovoljno moćni da poraze celo čovečanstvo?“ i „Da li će istraživanje bezbednosti veštačke inteligencije u kategoriji X biti uspešno?”, ovo bi moglo biti korisno za pomoć ljudima da donesu dobre odluke. (Čini se da je na ova pitanja veoma teško dobiti dobra predviđanja o korišćenju metoda ovih organizacija, ali mislim da je to zanimljiv cilj.)
Da biste istražili ovu oblast, predlažem da naučite nešto o predviđanju uopšte (Superforecasting je dobra polazna tačka) i da izgradite sopstvenu repuraciju predviđanja na sajtovima kao što je ovaj gore.
“Meta” karijere. Postoji veliki broj poslova koji su fokusirani na pomaganje drugim ljudima da nauče o ključnim pitanjima, razviju ključne veštine i završe na korisnim poslovima (malo više diskusije ovde).
Takođe može imati smisla preuzeti poslove koji vas stavljaju u dobru poziciju da donirate neprofitnim organizacijama koje obavljaju važan posao, da šire korisne poruke i da izgradite veštine koje bi kasnije mogle da budu korisne (između ostalog i na neočekivane načine, kako se stvari razvijaju), o čemu ću diskutovati u nastavku.
Poslovi bez vođstva
Ovaj pod-odeljak navodi neke projekte koji ili ne postoje (ali izgleda da bi trebalo da postoje) ili su u početnim fazama. Tako da je malo verovatno da možete dobiti neko značajno mentorstvo radeći na ovim stvarima.
Mislim da je potencijalni uticaj toga da nešto od ovoga “proradi” ogroman, ali mislim i da će većini ljudi biti lakše da pronađu poslove iz prethodnog odeljka (zbog čega sam njih prvo naveo).
Ovaj odeljak u velikoj meri služi da ilustruje da očekujem da će postojati sve više i više načina da se bude od pomoći kako vreme prolazi – i u slučaju da se bilo koji čitalac oseća uzbuđeno i kvalifikovano da se sam pozabavi ovim projektima, uprkos nedostatku smernica i jasnoj mogućnosti da će projekat imati manje smisla u stvarnosti nego na papiru.
Najvažnija stvar koju imam na umu je razvoj bezbednosnih standarda koji bi se mogli koristiti u režimu standarda i praćenja. Pod ovim mislim na odgovaranje na pitanja poput:
-
Koja zapažanja bi nam mogla reći da sistemi veštačke inteligencije postaju opasni po čovečanstvo (bilo tako što teže sopstvenim ciljevima ili pomažući ljudima da rade opasne stvari)?
-
Polazna tačka: zašto verujemo da današnji sistemi nisu opasni? Šta, konkretno, nisu u stanju da urade, a što bi morali da urade da bi bili opasni, i kako ćemo znati kada se to promeni?
-
Jednom kada sistemi veštačke inteligencije imaju potencijal za opasnost, kako ih treba ograničiti i koje uslove treba da ispune kompanije posvećene razvijanju VI (npr. demonstracije bezbednosti i sigurnosti) da bi se olabavila ograničenja?
U toku je rani rad u tom pravcu, kako u kompanijama sa veštačkom inteligencijom, tako i u neprofitnim organizacijama. Ako prođe dobro, očekujem da bi u budućnosti moglo biti mnogo poslova koji se bave:
-
Nastavkom usavršavanja i poboljšavanja bezbednosnih standarda, kako sistemi veštačke inteligencije postaju sve napredniji.
-
Obezbeđivanjem „revizija“ kompanijama sa veštačkom inteligencijom – ispitivanja da li njihovi sistemi ispunjavaju standarde, koje obezbeđuju strane van kompanije radi smanjenja sukoba interesa.
-
Zalaganjem za važnost pridržavanja standarda. Ovo bi moglo uključivati zagovaranje kompanija za veštačku inteligenciju da se pridržavaju standarda, a potencijalno i vladine politike za sprovođenje standarda.
Ostala javna dobra za projekte veštačke inteligencije. Mogu da vidim niz drugih načina na koje nezavisne organizacije mogu pomoći projektima veštačke inteligencije da budu oprezniji/učine više da smanje rizike:
-
Omogućavanje saradnje u istraživanju bezbednosti. Brinem se da će u nekom trenutku dobro istraživanje usklađivanja biti moguće samo uz pristup najsavremenijim modelima VI – ali takvi modeli će biti izuzetno skupi i isključivo će ih kontrolisati velike kompanije za razvoj veštačke inteligencije.
-
Nadam se da će kompanije sa veštačkom inteligencijom moći da se udruže sa spoljnim istraživačima bezbednosti (ne samo da se oslanjaju na svoje zaposlene) za istraživanje usklađivanja, ali ovo bi moglo biti prilično nezgodno zbog mogućnosti da intelektualna svojina “procuri”.
-
Organizacija koja je spoljni saradnik mogla bi da obavi mnogo posla proveravanja istraživača bezbednosti, pomažući im u njihovim bezbednosnim praksama, sklapanju sporazuma u vezi sa intelektualnom svojinom, itd. kako bi partnerstva – i selektivno deljenje informacija, šire – učinili izvodljivijim.
-
Edukacija za ključne ljude u kompanijama sa veštačkom inteligencijom. Organizacija bi mogla da pomogne zaposlenima, investitorima i članovima odbora kompanija sa veštačkom inteligencijom da nauče o potencijalnim rizicima i izazovima naprednih sistema veštačke inteligencije. Posebno sam uzbuđen zbog ovoga u vezi sa članovima odbora, jer:
-
Već sam primetio veliko interesovanje kompanija za veštačku inteligenciju za formiranje jakih savetodavnih odbora za etiku i/ili postavljanje dobro kvalifikovanih ljudi u njihove upravne odbore (pogledajte fusnotu za razliku(11)). Očekujem da će potražnja rasti.
-
Trenutno, mislim da nema mnogo ljudi koji su i (a) istaknuti i dovoljno „fensi“ da bi bili uzeti u obzir za takve odbore; (b) veoma promišljeno i dobro upućeno u ono što smatram nekim od najvažnijih rizika transformativne VI (obrađeno u ovom članku i serijalu čijeg je deo).
-
Program „edukacije za potencijalne članove odbora“ mogao bi da pokuša da brzo upozna ljude sa dobrim praksama članova odbora uopšte, o rizicima transformativne veštačke inteligencije i o osnovama funkcionisanja moderne veštačke inteligencije.
-
Pomaganje u razmeni najboljih praksi u kompanijama sa veštačkom inteligencijom. Organizacija-saradnik može da prikuplja informacije o tome kako različite kompanije sa veštačkom inteligencijom rukuju bezbednošću informacija, istraživanjem usklađivanja, procesima za teške odluke, upravljanjem itd. i deli ih među kompanijama, vodeći računa o očuvanju poverljivosti. Posebno sam zainteresovan za mogućnost razvoja i deljenja inovativnih sistema upravljanja za kompanije sa veštačkom inteligencijom.
Razmišljanje i ostalo. Postoji mnogo potencijalnog posla koji treba da se uradi u kategoriji „dolaženja do više pitanja o kojima bi trebalo da razmišljamo, više stvari koje ljudi (i kompanije i vlade) mogu da urade da bi bili od pomoći, itd.“
-
Pre otprilike godinu dana objavio sam listu istraživačkih pitanja koja bi mogla biti dragocena i važna za razjašnjenje. I dalje uglavnom podržavam ovu listu (iako je danas ne bih pisao baš tako).
-
Malo drugačiji ugao: moglo bi biti vredno da više ljudi razmišlja o pitanju: „Koje bi neke opipljive politike vlade mogle da donesu da bi bile od pomoći?“ Npr., rani koraci ka standardima i nadzoru . Ovo se razlikuje od direktnog savetovanja vlada (to je ranija faza).
Neke kompanije sa veštačkom inteligencijom imaju timove za politiku koji rade u tom pravcu. I nekoliko zaposlenih u Open Philanthropy radi na temama u skladu sa prvom tačkom. Međutim, sklon sam da smatram da ovaj posao najbolje rade ljudi kojima je potrebno vrlo malo uputstva (više u mojoj raspravi o opakim problemima), tako da oklevam da ga preporučim kao glavnu opciju za karijeru.
Stvari koje možete da uradite ako niste spremni za punu promenu karijere
Promena karijere je veliki korak, tako da ovaj odeljak navodi neke načine da budete od pomoći bez obzira na posao – uključujući i pripremu za kasniju promenu.
Prvo i što je najvažnije, možda ćete imati prilike da širite ključne poruke putem društvenih medija, razgovarate sa prijateljima i kolegama itd. Mislim da ovde postoji mnogo potencijala da se izvrši uticaj, i napisao sam prethodni tekst posebno o tome.
Drugo, možete istražiti potencijalne karijere poput onih o kojima sam govorio gore. Predlažem da generalno pogledate oglase za posao, razmislite o tome koje vrste poslova bi vam mogle odgovarati u nastavku, da upoznate ljude koji rade na takvim poslovima i da ih pitate o njihovom svakodnevnom životu, itd.
S tim u vezi, možete pokušati da ostavite otvorene opcije.
-
Teško je predvideti koje će veštine biti korisne kako veštačka inteligencija napreduje dalje i pojavljuju se nova pitanja.
-
Biti spreman da promenite karijeru kada se ukaže velika prilika može biti veoma dragoceno – i teško. (Većina ljudi bi imala mnogo problema da ovo uradi kasno u svojoj karijeri, bez obzira koliko je važno!)
-
Izgradnja finansijske, psihološke i socijalne sposobnosti za kasniju promenu posla bi (Po mom mišljenju) bila vredna mnogo truda.
Trenutno nema mnogo očiglednih mesta za doniranje (mada možete donirati u Fond za dugoročnu budućnost(12) ako se osećate tako ganuti).
-
Pretpostavljam da će se ovo promeniti u budućnosti, iz više razloga(13).
-
Nešto što bih razmišljao da uradim jeste da ostavim nešto novca po strani, možda uloženog tako da je naročito verovatno da će mnogo porasti ako i kada sistemi veštačke inteligencije postanu mnogo sposobniji i impresivniji(14), u slučaju da se u budućnosti pojave prilike za doniranje.
-
Takođe, naravno, danas možete donirati tamo gde drugi ne finansiraju iz bilo kog razloga.
Saznavanje više o ključnim problemima moglo bi da proširi vaše mogućnosti. Mislim da je čitav serijal koji sam napisao o ključnim rizicima dobar početak. Da biste uradili više, mogli biste:
-
Aktivno se bavite ovim serijalom tako što ćete pisati svoje članke, razgovarati sa drugima itd.
-
Razmotrite različite onlajn kurseve(15) o relevantnim pitanjima.
-
Mislim da je takođe dobro upoznati se sa današnjim sistemima veštačke inteligencije (i istraživanjima koja se odnose na njih) koliko god možete.
-
Ako rado pišete programe, možete da pogledate vodiče i programe koji zahtevaju intenzivno kodiranje (primeri u fusnoti)(16).
-
Ako ne želite da kodirate, ali možete da čitate donekle tehnički sadržaj, predlažem da se orijentišete pomoću nekih osnovnih objašnjenja o dubokom učenju(17), a zatim pročitate značajne radove o VI i bezbednosti VI.(18)
-
Bez obzira da li ste veoma tehnički nastrojeni ili uopšte niste, mislim da je vredno igrati se sa javno dostupnim najsavremenijim modelima VI, kao i da vidite šta oni mogu da urade na Tviteru i sl.
Konačno, ako imate prilike da budete u upravnim odborima ili savetodavnim odborima za ključne organizacije (npr. kompanije koje se bave veštačkom inteligencijom), mislim da je ovo jedan od najboljih načina da pomognete bez punog radnog vremena.
-
Ne očekujem da će se ovo odnositi na većinu ljudi, ali sam želeo da to pomenem u slučaju da se ukaže prilika.
-
Posebno je važno, ako dobijete ovakvu ulogu, da uložite u edukaciju o ključnim pitanjima.
Neki opšti saveti
Mislim da posao sa punim radnim vremenom ima ogroman potencijal da pomogne, ali i veliki potencijal da nanese štetu ili da dovede do “izgaranja”. Dakle, evo nekih opštih predloga.
Razmislite o svojim stavovima o ključnim rizicima veštačke inteligencije i o tome kako bi moglo izgledati da se svet nosi sa rizicima. Većina poslova o kojima sam razgovarao nisu poslovi na kojima možete samo uzeti uputstva i primeniti uske veštine. Ovde su problemi nezgodni i potrebno je imati dobru moć suđenja da biste se u njima dobro kretali.
Štaviše, šta god da radite, skoro sigurno će postojati ljudi koji misle da je vaš rad beskoristan (ako ne i štetan). Ovo može biti veoma demorališuće. Mislim da je lakše ako ste dobro razmislili i ako se osećate dobro u vezi sa izborima koje donosite.
Savetovao bih vam da pokušate da naučite što više o glavnim rizicima veštačke inteligencije (pogledajte gore za neke smernice o tome) – i/ili da pokušate da radite za organizaciju u čije vođstvo imate poverenje.
Džogiranje, ne sprint. Skeptici povodom hipoteze o „najvažnijem veku“ ponekad će reći stvari poput „Ako zaista verujete u ovo, zašto radite normalne količine sati umesto ekstremnih? Zašto uopšte imate hobije (ili decu, itd.)?” I video sam nekoliko ljudi sa stavom poput: „OVO JE NAJVAŽNIJE VREME U ISTORIJI. TREBA DA RADIM 24/7 I ZABORAVIM NA SVE OSTALO. BEZ ODMORA.”
Mislim da je to jako loša ideja.
Pokušaj smanjenja rizika od napredne veštačke inteligencije je, kako danas stvari stoje, frustrirajuća i dezorijentišuća stvar. Veoma je teško reći da li ste od pomoći (i kao što sam spomenuo, mnogi će neizbežno misliti da ste štetni).
Mislim da se razlika između „nebitnog“, „činiti nešto dobro“ i „činiti ogromno dobro“ svodi se na to kako birate posao, koliko ste dobri u njemu i koliko je dobro vaše rasuđivanje (uključujući tu i rizike na koje ste najviše fokusirani i načine na koje ih modelujete). Potpuno fokusiranje na određeni cilj izgleda loše na ovim frontovima: predstavlja rizik za otvorenost, mentalno zdravlje i dobro donošenje odluka (ovde govorim iz zapažanja, a ne samo iz teorije).
Odnosno, mislim da je loša ideja pokušati da budete 100% emocionalno uloženi za pune ulog najvažnijeg veka – mislim da su ulozi jednostavno previsoki da bi to imalo smisla za bilo koje ljudsko biće.
Umesto toga, mislim da je najbolji način da se nosite sa time što je „sudbina čovečanstva u pitanju“ verovatno pronaći dobar posao i raditi onoliko naporno koliko biste radili na drugom poslu, umesto da pokušavate da uložite herojske napore da radite dodatno naporno. (Ovde sam kritikovao herojske napore uopšte.)
Mislim da je ova osnovna formula (rad na nekom poslu koji vam odgovara, a da imate određenu količinu ravnoteže u svom životu) ono što stoji iza mnogih najvažnijih pozitivnih događaja u istoriji do sada, i predstavlja moguće istorijski velike mogućnosti danas.
Posebno zahvaljujemo Aleksandru Bergeru, Jakobu Eliosofu , Alekseju Guzeju , Antonu Korineku i Luku Muelhauzeru na naročito korisnim komentarima na ovaj post. Mnogo drugih ljudi je takođe davalo korisne komentare.