Eliezer Shlomo Yudkowski američki je stručnjak za umjetnu inteligenciju koji istražuje probleme tehnološke singularnosti i zagovara stvaranje prijateljske umjetne inteligencije. Autor je nekoliko znanstvenofantastičnih priča u kojima ilustrira neke teme povezane s kognitivnom znanošću i racionalnošću.
Eliezer Yudkowski: biografija
Eliezer Shlomo Yudkowsky jedan je od najaktivnijih racionalista moderne Amerike, računalni istraživač i popularizator ideje o "prijateljskoj umjetnoj inteligenciji".
Rođen 11. rujna 1979. Suosnivač i istraživač na Institutu za istraživanje inteligencije strojeva, nevladinoj istraživačkoj organizaciji koja objavljuje njegove knjige. Eliezer Yudkowski autor je filozofskog romana Harry Potter i metode racionalizma koji je objavljen u dijelovima na Internetu od 2010. do 2015. godine. U njemu Harry odrasta u obitelji oxfordskog znanstvenika i, prije putovanja u Hogwarts, od njega uči metode racionalnosti.
Koliko nam je poznato, on nema nikakve veze s krugom "spekulativnih realista". Njegovo se ime često spominje u vezi s Robinom Hansonom, nekoliko godina (od 2006. do 2009.) bili su dva glavna autora bloga "Prevladavanje predrasuda", koji je financirao Institut za budućnost čovječanstva iz Oxforda.
Ponekad se ime Yudkowskog može čuti u vezi s Raymondom Kurzweilom. Filozofski je predstavnik tehno-geekove zajednice, nedostupan i nerazumljiv, dakle, većini humanitarne javnosti, kojoj pripadaju gotovo svi čitatelji spekulativnih realista. Nije iznenađujuće, jer se često obraća logičko-matematičkom jeziku, vjerojatnosnim i statističkim zaključcima, izloženim pomoću formula i tablica.
Znanstveni interesi
Yudkowski je suosnivač i suradnik na Institutu za umjetnu inteligenciju Singularity (SIAI). Dao je veliki doprinos razvoju instituta. Autor je knjige "Stvaranje prijateljske umjetne inteligencije" (2001.), članaka "Razine organiziranosti u općoj inteligenciji" (2002.), "Koherentna ekstrapolirana volja" 2004.) i bezvremenske teorije odlučivanja (2010.). Njegova su najnovija znanstvena izdanja dva članka u Rizicima od globalne katastrofe (2008) koji je uredio Nick Bostrom, i to „Umjetna inteligencija kao pozitivan i negativan čimbenik globalnog rizika“i „Kognitivna pristranost u procjeni globalnih rizika“. Yudkovsky nije studirao na sveučilištima i autodidakt je bez formalnog obrazovanja u području AI.
Yudkowsky istražuje one AI konstrukte koji su sposobni za samorazumijevanje, samo-modificiranje i rekurzivno samopoboljšanje (Seed AI), kao i one AI arhitekture koje će imati stabilnu i pozitivnu strukturu motivacije (Friendly umjetna inteligencija). Uz svoj istraživački rad, Yudkowski je poznat po svojim objašnjenjima složenih modela na neakademskom jeziku dostupnom širokom krugu čitatelja, na primjer, pogledajte njegov članak Intuitivno objašnjenje Bayesove teoreme.
Yudkowski je, zajedno s Robinom Hansonom, bio jedan od glavnih autora bloga Overcoming Bias. Početkom 2009. osnovao je blog Less Wrong, čiji je cilj "razviti ljudsku racionalnost i prevladati kognitivne pristranosti". Nakon toga, Prevladavanje pristranosti postalo je Hansonov osobni blog. Materijali predstavljeni na ovim blogovima organizirani su u poštanske lance koji su privukli tisuće čitatelja - pogledajte, na primjer, nit "teorije zabave".
Yudkowsky je autor nekoliko priča o znanstvenoj fantastici u kojima ilustrira neke teme povezane s kognitivnom znanošću i racionalnošću.
Karijera
- 2000. Yudkowski osniva Institut za singularnost (kasnije preimenovan u MIRI).
- 2006. Yudkowski se pridružuje kolektivnom blogu Overcoming Bias i započinje s pisanjem tekstova koji su kasnije postali "Lanci".
- 2009. Na temelju Yudkowskijevih postova o Prevladavanju pristranosti, stvoren je poznati kolektivni blog LessWrong.com.
- 2010-2015. Yudkovsky piše GPiMRM.
- 2013. Yudkowski objavljuje posljednje postove na LessWrong.com i prestaje pisati na web mjesto. Od 2017. Yudkowski objavljuje većinu javno dostupnih tekstova na Facebooku i Arbitalu
Eksperiment s mislima
Zamislite nevjerojatno inteligentnu umjetnu superinteligenciju zarobljenu u virtualnom svijetu - recimo, samo burmuticu. Ne znate hoće li biti zloban, prijateljski raspoložen ili neutralan. Sve što znate je da želi izaći iz burmutice i da s njim možete komunicirati putem tekstualnog sučelja. Ako je AI doista superinteligentan, hoćete li moći razgovarati s njim pet sati i ne podleći njegovom nagovaranju i manipulaciji - da ne otvorite burmuticu?
Ovaj misaoni eksperiment predložio je Eliezer Yudkowski, istraživač s Instituta za istraživanje strojarstva (MIRI). Postoje mnogi znanstvenici iz MIRI-a koji istražuju rizike od razvoja umjetne superinteligencije; iako se još nije ni pojavio, već privlači pažnju i potiče raspravu.
Yudkowsky tvrdi da umjetna superinteligencija može reći sve što može da vas uvjeri: pažljivo rasuđivanje, prijetnje, obmana, izgradnja odnosa, podsvjesna sugestija i tako dalje. Brzinom svjetlosti, AI gradi priču, ispituje slabosti i određuje najlakši način da vas uvjeri. Kao što je rekao teoretičar egzistencijalne prijetnje Nick Bostrom, "moramo pretpostaviti da superinteligencija može postići sve što naredi".
Eksperiment s burmutom stvara sumnje u našu sposobnost da kontroliramo što bismo mogli stvoriti. Također nas tjera da konceptualiziramo prilično bizarne mogućnosti onoga što ne znamo o vlastitoj stvarnosti.
Članci na ruskom
E. Yudkovsky. Sustavne pogreške u obrazloženju, koje mogu utjecati na procjenu globalnih rizika. E. Yudkovsky. Umjetna inteligencija kao pozitivan i negativan čimbenik globalnog rizika. E. Yudkovsky. Zavirivanje u Singularnost. E. Yudkovsky. Tabela kritičnih pogrešaka za AI. E. Yudkovsky. Tri škole singularnosti. E. Yudkovsky. Organizacijske razine univerzalne inteligencije.