Eliezer Yudkowsky (PRS)

Mentions of Eliezer Yudkowsky by segment

2025-10-09: John Searle, det kinesiska rummet och begreppsförvirringen kring AI och den odödliga själen

men det är sjukt nog även bland de mest. högprofilerade AI-kritikerna, så kallade domers, som Eliezer Judkowski och sådana människor. (2269.1) För att han anser, om jag förstår honom rätt,

Så att om vi på något sätt har en möjlighet att bryta någons ben och på så sätt förhindra hundra miljarder myggbett så bör vi ta den chansen. Och det här är en typ av idéer som till exempel Elias Rudkovski har. Och det jag ser framför mig, det är hur Elias Rudkovski och (2445.4) Lesserånggänget en dag så ska de säga så här att... Jo,

alltså skapandet av en gud. Som många av de mest centrala AI-människorna. Oavsett om de är för eller emot AI eller för eller emot singulariteten så tror de att det här handlar om att bygga en gud. Och det är ju en del av Elias Rudkovskis tänkande också. (2515.2) Det är det som är problemet från hans perspektiv att vi riskerar att bygga någonting som liknar en gud som inte har vårt bästa för ögonen. Och på andra sidan så finns det någon som välkomnar den nya guden som ser det som en sorts revolution.

2024-10-15: Årets Nobelpris i fysik och kemi går till pionjärer inom artificiell intelligens

Jeffrey Hinton, han är förmodligen världens ledande som person som slår larm för de existentiella riskerna med AI-utveckling. Så han är en riktig AI-domare. Han är som Eliezer Utkowski fast mycket mer känd och mer inspekterad. (472.6) Och man kan inte ignorera, nonchalera Jeffrey Hinton.

hur de ser på frågor om risk, men jag skulle säga att det är 99% sannolikhet att Geoffrey Hinton kommer hålla hela sitt Nobeltal bara om AI-risk och föra ut det på en helt ny... nivå. Vi har ju liksom Elias Dudkovski såklart, (565.7) profeten och vi har kanske Max Tegmark som är ganska framträdande för att åka för de här idéerna. Men från och med den här dagen i december när det nu är så kommer Jeffrey Hinton vara den absolut ledande larmslagaren.

2024-04-16: Robin Hanson: Uppkomsten av en global monokultur är ett ödesdigert misstag som är på väg att upprepa historiskt mönster av populationskollaps

är nationalekonom professor i nationalekonomi vid George Mason University där ekonomerna är kända för att vara heterodoxa, libertarianska ofta framstående men han är på många sätt snarare en filosof det är så jag tänker på honom i alla fall som en av samtidens mest intressanta filosofer och han har också en lång bakgrund inom den transhumanistiska sfären kan man säga han är indirekt en av förgrundsgestalterna i rationaliströrelsen det var han som hade bloggen Overcoming Bias tillsammans med Elias Yudkowsky apropå en diskussion vi hade häromveckan apropå (267.7) Daniel Kahneman och jag tror han fortfarande driver under varumärket Overcoming Bias sin blogg.

2024-04-02: Amerikansk-israeliske psykologen och 2002 års mottagare av Sveriges riksbanks pris i ekonomisk vetenskap, Daniel Kahneman, dör vid 90 års ålder

Det här ger oss en möjlighet. Att. korrigera oss själva för att mer exakt approximera en rationell en sorts rationell arketyp så att det i den här den transhumanistiska rörelsen och det som sen blev den så kallade rationaliströrelsen som vi pratat om ibland alltså egentligen kretsen kring Eliezer Judkowski som sedan har utvecklats på olika sätt den kretsen har varit enormt influerad av de här idéerna (463.5) till exempel den ursprungliga bloggen som Judkowski skrev på när hans gäng flyttade ut från diverse e-postlistor de gamla transhumanistiska e-postlistorna till webben. Den bloggen heter Overcoming Bias och sen när de startade en egen sajt så kallade de det för Less Wrong som förstås också är en väldigt tydlig referens till de här idéerna att man ska hitta de här små felen och korrigera dem och använda insikterna om kognitiv bias.

Att. korrigera oss själva för att mer exakt approximera en rationell en sorts rationell arketyp så att det i den här den transhumanistiska rörelsen och det som sen blev den så kallade rationaliströrelsen som vi pratat om ibland alltså egentligen kretsen kring Eliezer Judkowski som sedan har utvecklats på olika sätt den kretsen har varit enormt influerad av de här idéerna till exempel den ursprungliga bloggen som Judkowski skrev på när hans gäng flyttade ut från diverse e-postlistor de gamla transhumanistiska e-postlistorna till webben. (476.6) Den bloggen heter Overcoming Bias och sen när de startade en egen sajt så kallade de det för Less Wrong som förstås också är en väldigt tydlig referens till de här idéerna att man ska hitta de här små felen och korrigera dem och använda insikterna om kognitiv bias. till att uppnå kognitiv rationalitet.

det är väldigt bra att åtminstone en viss grupp människor håller på med de sakerna. Och de ser sig nog som en elit och de kanske skulle tycka att man skulle lära ut sånt här i skolorna men de har en förståelse för att de är väldigt speciella. Men om vi vill vara lite elaka här. så kan vi dra en linje från Daniel Kahneman via Elias Judkowski till Sam Bankman Freed. (535.0) Apropå att han blev dömd häromdagen till ett långt fängelsestraff för sin fantastiska hela FTX-sagan. Han drev sig väldigt mycket som vi pratade om i ett inslag när det var som mest aktuellt 2022 när det var.

2023-04-16: President Macron säger Europa bör bli tredje stormakt sannolikt ledd av Frankrike

Det är däremot chipfabrikerna. Oavsett om chipfabrikerna är väl inte. opererar under en liberal eller en kommunistisk regim. En joker i leken kan ju vara Elias Rudkowskis perspektiv. (865.7) Han kanske skulle jubla. Förmodligen skulle han jubla i tysthet och hemlighet för att han är så försint av sig.

2020-06-23: Scott Alexander tar bort sin blogg Slate Star Codex efter New York Times hotat avslöja hans namn

Det skulle förvåna mig att de finns kvar. Själv fick jag min introduktion till de här kretsarna via den här e-postlistan SL4. För ungefär 20 år sedan var vi millennieskiftet antar jag. Och en av de geniala personerna i de här kretsarna heter Eliezer Yudkowsky. (240.9) Han är en kretskärmare. Autodidakt AI-forskare som numera driver,

han har ett team runt sig, han har folk som Peter Thiel och Elon Musk och andra som finansiärer och sitter i styrelsen och så vidare. På den tiden var han bara en liksom en vild 16-åring med galna idéer som skrev liksom artiklar och böcker om AI och hade egna teorier och sånt där. Så Eliezer Kutkowski, (274.9) han är en person som har som mål att förhindra att ett destruktivt artificiellt generell intelligens tar över världen och orsakar en gigantisk katastrof. Det är hans livsprojekt och han har ett väldigt intrikat omfattande projekt som löper över årtionden för att åstadkomma det här.

i det här så insåg han att han behöver bättre människor. Han behöver liksom större pool av människor som har en viss typ av intellektuell träning så att han kan han kan liksom handplocka vissa av dem i arbetet i det här AI-projektet. Och det var så som den här rationaliströrelsen skapades. Så Elias Ylkovski, (315.3) gud vilken lång konsthistoria det här blir nu. Jag hade inte ens tänkt prata om det här,

Så Elias Ylkovski, gud vilken lång konsthistoria det här blir nu. Jag hade inte ens tänkt prata om det här, men Elias Ylkovski, (321.1) han började blogga tillsammans med Robin Hansson som är en forskare på. George Mason University på en blogg som heter Overcoming Bias.

men Elias Ylkovski, han började blogga tillsammans med Robin Hansson som är en forskare på. George Mason University på en blogg som heter Overcoming Bias. Numera så är det Robin Hansons egen soloblogg men under en tid så var det då Robin Hanson och Eliezer Joudkoski. (329.8) Sen flyttade man ut Eliezers inlägg från Overcoming Bias och skapade en egen sajt som heter LessWrong. LessWrong.com som är en sajt som fortfarande finns.

han började blogga tillsammans med Robin Hansson som är en forskare på. George Mason University på en blogg som heter Overcoming Bias. Numera så är det Robin Hansons egen soloblogg men under en tid så var det då Robin Hanson och Eliezer Joudkoski. Sen flyttade man ut Eliezers inlägg från Overcoming Bias och skapade en egen sajt som heter LessWrong. (337.3) LessWrong.com som är en sajt som fortfarande finns. Jag tror den existerar i all välmåga men den hade sin storhetssida en gång kanske 2000-2000.

bara ganska begränsad av den orsaken för att jag har många meningsskalaktigheter. Men jag har fortsatt att bevaka den här sfären bara för att människorna som håller på med det här är väldigt intelligenta och briljanta. Scott Alexander, han är jämte Eliezer Rudkowski, (500.4) så den som står huvudet högre än de andra. Jag har inte läst alla hans livsägar,

2015-05-02: Nick Bostrom: AI har enorma implikationer, kontrollerad detonation av god superintelligens vår enda räddning

De kallar sig för MIRI, Machine Intelligence Research Institute, baserade i Kalifornien, grundade och drivs av en tänkare och forskare som heter Eliezer Jutkowski som har varit på med det här skänden. (260.0) Slutet av 90-talet kan man säga. Han har dedikerat sitt liv till den här frågan om safe AI eller friendly AI.

det ska nämnas till exempel en person som heter Ben Gertzel som är AI-forskare. Som också delvis har samma kretsar, samma idéer och där den här idén om friendliness är en ledstjärna. Så jag förminner håller tummarna för att om vi får en sådan här AI-explosion så ska det vara Elias Jutkowski eller Ben Goertz eller åtminstone någon som har tänkt på de här aspekterna. (325.5) Och det ska inte vara ett gäng ingenjörer på Oracle som bara råkar släppa loss en sådan här anduflaskan. Är det skönt att veta att det finns hopp i alla fall?

Back to Entities