Menos Incorrecto - RationalWiki
Menos Incorrecto - RationalWiki
Comunidad
debemos mantener nuestra independencia. No podemos dona $5, $10, $20 o lo que
Bar salón
depender de grandes donantes con sus correspondientes puedas hoy mismo !
Lista de cosas por hacer grandes objetivos. No somos el sitio web más grande del
¿Qué está pasando?
Lo mejor de
mundo, pero creemos que desempeñamos un papel
RationalWiki
importante en la defensa de la verdad y la objetividad .
Acerca de RationalWiki
Apoyo técnico
Tablón de anuncios de
mods Donaciones hasta el momento: $7608.77 Meta: $10000
Tablón de anuncios de
RMF
Redes sociales
Menos incorrecto
(Redirigido desde Less Wrong )
Gorjeo
Mastodonte
Facebook
Discordia
" Sí, estuve en LessWrong bastante tiempo, de forma muy discreta. Mi tiempo allí
básicamente era: «Esta gente habla de cosas interesantes. Es cierto que tienen algunas
Reddit creencias raras como la criogenización , pero gente interesante». «…aparte de este racista
virulento que no para de hablar de coeficiente intelectual …» «…y toda esa gente que no
Herramientas
para de hablar de ser « artistas del ligue »…» «¡Dios mío, hay que quemar este sitio y
Lo que enlaza aquí
Cambios relacionados
Páginas especiales
echarle sal a la tierra!».
LessWrong 2.0 se creó en 2017 para revitalizar el sitio web fallido [2] (que aún existe). LessWrong 2.0 (también
conocido como el Equipo LessWrong) asumió tareas externas al sitio web de LessWrong. En 2021, se
reorganizó como Lightcone Infrastructure . [2] Porque lo simple es malo y reorganizar las organizaciones con
frecuencia lo solucionará todo.
Blues de la singularidad
LessWrong, MIRI y Lightcone tienen su sede en Berkeley, California .
Experimento de caja de
Contenido [hide] IA
1 Historia Rebelión cibernética
2 Contenido Julia Galef
2.1 El bueno Altruismo eficaz
2.2 El meh El basilisco de
2.3 Lo malo Roko/Publicación
3 Crítica original
3.1 Falta de aplicación Scott Alexander
3.2 ¿Culto? Eliezer Yudkowsky
3.3 Contrarianismo El basilisco de Roko
3.4 El basilisco de Roko Robin Hanson
3.5 Cómo trata Yudkowsky con los críticos Tabú racionalista
4 Finanzas Aella
4.1 Refugio de luz Pornografía perspicaz
4.2 Evaluación GiveWell v-t-e
5 En la cultura popular
6 Véase también
7 Enlaces externos
8 Notas
9 Referencias
Historia [ editar ]
MIRI, donde Yudkowsky continúa como investigadora, albergó y mantuvo LessWrong [6] para ofrecer una introducción a los problemas de
sesgo cognitivo y racionalidad, relevantes para una reflexión profunda sobre la filantropía óptima y muchos de los problemas que deben
resolverse antes de la creación de una inteligencia artificial potente y demostrablemente amigable con los humanos. [7] Yudkowsky
considera que LessWrong es útil porque impulsa el trabajo de SIAI [8], y el sitio es un espacio clave para el reclutamiento de SIAI [9] y la
recaudación de fondos. [10] La publicación más popular de todos los tiempos en LessWrong, por ejemplo, es una evaluación de SIAI
realizada por la evaluadora de organizaciones benéficas GiveWell. [11]
LessWrong atrajo inicialmente a la mayor parte de su base de usuarios de comunidades interesadas en el transhumanismo. Además de
Overcoming Bias , estas comunidades incluyen la lista de correo SL4 [12] y las listas de correo Extropians [13] (que datan de la década de
1990). Por consiguiente, LessWrong ha sido durante mucho tiempo una comunidad esencialmente transhumanista, que prioriza la
racionalidad per se para atraer a quienes, de otro modo, podrían ser escépticos ante la IA apocalíptica . [14]
Desde 2010, muchos de los recién llegados a LessWrong han conocido el sitio a través del libro electrónico Harry Potter y los Métodos de la
Racionalidad , [15] [16] [17] una popular obra de fanfiction sobre Harry Potter escrita por Yudkowksy. El futuro enfoque de LessWrong no está
claro, pero los debates sobre la racionalidad llevaron a la formación en 2012 del Centro para la Racionalidad Aplicada (CFAR). [18] [19] El
CFAR se dedica a investigar métodos de enseñanza del racionalismo y a organizar retiros y campamentos de verano para compartir estos
métodos. [20]
Después de 2013, el propio Yudkowsky dejó de participar mucho en el sitio porque ya no era divertido (aunque todavía comenta
ocasionalmente). Muchos otros han seguido su ejemplo. Yudkowsky y muchos otros LessWrongers, actuales y antiguos, ahora forman lo
que coloquialmente se conoce como la Diáspora LessWrong, en sus propios blogs, en Tumblr [21] y en el blog Slate Star Codex del usuario
de LessWrong Scott Alexander . [22] Alexander se refiere a los participantes de 2015 como "una especie de grupo de espíritus inquietos que
se han instalado para atormentarlo tras ser abandonado por los miembros fundadores de la comunidad". [23]
Contenido [ editar ]
El bien [ editar ]
Un aspecto clave del enfoque LessWrong para la racionalidad humana es evitar las "falacias de
compresión" y confundir el mapa con el territorio , resultado de intentar encajar un universo inmenso en
Imagen de portada de Harry
un trozo de carne relativamente pequeño y blando entre las orejas. Según Yudkowsky, las creencias Potter y los métodos de la
deberían limitar nuestras expectativas, y las que son verdaderas, independientemente de lo que racionalidad
veamos, constituyen la fe ciega . Por ejemplo, dos personas que discuten si un árbol que cae en un
bosque, sin nadie que lo oiga, produce un sonido, podrían argumentar que sí y que no basándose en diferentes definiciones de "sonido",
pero en realidad no esperarían nada diferente. Por lo tanto, la precisión es fundamental y se logra mediante las expectativas y la
anticipación sensorial, en lugar de simplemente afirmar que algo es cierto y argumentar mediante ingeniosos juegos de palabras. Algunas
ideas especialmente útiles incluyen:
El "campo ugh" [25] — el desagrado instintivo que nuestras mentes tienen por las decisiones difíciles
Argumentos como soldados: el instinto de defender cualquier argumento que hayas presentado, sin importar lo estúpido que sea.
La "espiral de muerte afectiva" [26] —en la que el elogio a una entidad se convierte en un ciclo interminable de elogios mayores—
El tabú racionalista , que requiere que los hablantes especifiquen con precisión lo que quieren decir en lugar de utilizar términos más
concisos cuyos significados podrían ser vagos.
"Reglas de Crocker", en las que un participante en un debate invita a respuestas francas y declara que no se ofenderá. (En la práctica,
esto lo usan quienes buscan la libertad de ofender y, con seguridad, poner los pelos de punta cuando son los perjudicados ). Lee Daniel
Crocker atribuye a Yudkowsky la creación de esta regla. [27]
Todos estos esfuerzos tienen como objetivo promover un mejor pensamiento y mejores decisiones y son, por ello, encomiables.
En otras palabras: el hecho de que Yudkowsky quiera vivir como una simulación en una computadora para siempre no significa que su
explicación [28] del teorema de Bayes no sea interesante y esté bien escrita. (El bayesianismo, que utiliza dicho teorema para evaluar
probabilidades al tomar decisiones, se ha convertido en uno de los sellos distintivos de LessWrong y su palabra de moda más frecuente).
El meh [ editar ]
LessWrong utiliza una extensa jerga [29] que proviene principalmente de las veneradas "Secuencias", [30] una larga serie de ensayos de
Yudkowsky considerada de lectura esencial por los miembros de la comunidad. Sin embargo, su extraordinaria extensión puede resultar
prohibitiva (superando a El Señor de los Anillos de J. R. R. Tolkien ). [nota 1]
Sería mejor dedicar ese tiempo a leer algunos de los libros escritos por los investigadores que están detrás de los conceptos de las
Secuencias, como "El Tejido de la Realidad" de David Deutsch, [33] "Pensar Rápido, Pensar Despacio" de Daniel Kahneman, [34] "El Cisne
Negro" de Nassim Nicholas Taleb , [35] o "Pensar y Decidir" de Jonathan Baron [36] , todos ellos de fácil lectura. Esto no niega el valor de
las Secuencias, en particular si uno está interesado en los fines transhumanistas y del realismo físico a los que muchas de ellas se dirigen.
El carácter de "lectura obligatoria" de las Secuencias podría estar motivado en parte por la misma disonancia cognitiva que ayuda a
perpetuar los clubes exclusivos: "fue difícil leerlas todas, pero lo hice, por lo tanto deben ser buenas".
El enfoque extremo en la estadística bayesiana podría ser criticado como arbitrario y pretencioso. El propio Yudkowsky admite su
naturaleza contraintuitiva:
El método bayesiano también es un arte impreciso, al menos tal como lo explico. Estas entradas de blog no son más que intentos torpes
de expresar con palabras lecciones que se aprenderían mejor con la experiencia. Pero al menos hay matemáticas subyacentes, además
de evidencia experimental de la psicología cognitiva sobre cómo pensamos realmente los humanos. Quizás eso baste para superar el
umbral estratosférico requerido para una disciplina que te permita acertar, en lugar de limitarte a cometer nuevos e interesantes errores.
[37]
La estadística bayesiana es potente, pero al fin y al cabo es equivalente a la estadística frecuentista . La preocupación de LessWrong por
ella podría percibirse como frikismo por el mero hecho de serlo.
Lo malo [ editar ]
Las partes buenas no son originales y las partes originales no son buenas. Las explicaciones bien escritas de los sesgos cognitivos se
toman idea por idea de Kahneman. Tómate todo con pinzas y lee los comentarios, que suelen contener refutaciones detalladas (a menudo
con votos negativos).
También contiene conceptos imprecisos como "El Tao de la Física" [38] (que puede o no coincidir exactamente con el principio de Hume
sobre la uniformidad de la naturaleza) y relatos de ciencia ficción donde el sustituto de Yudkowsky debate con hombres de paja (un
elemento básico de la mayor parte de su obra). Un lector acrítico probablemente se confunda aún más con el tema o, peor aún, se adhiera
a las opiniones personales y marginales de Yudkowsky junto con la ciencia convencional , creando un vínculo entre ambos en su
cosmovisión .
Crítica [ editar ]
" Imagínate que existiera una comunidad en línea que pretendiera tener tu trabajo.
Imagina que existe un sitio web de contadores trans que nunca han trabajado en contabilidad ni han recibido formación
contable. Hablan de contabilidad constantemente, pero inventan palabras y usan mal las pocas que realmente conocen.
Todo lo que saben de contabilidad lo aprendieron de películas y novelas de aventuras con contadores. Hablan de
contabilidad postcontable y de maximizar la rentabilidad de sus operaciones.
O personas que fingen ser gerentes de tiendas de alquiler de videos pero nunca han tenido un televisor.
Si los miembros de LessWrong realmente tienen un pensamiento menos sesgado que el público en general, como han argumentado [43],
entonces, cuanto más logren atraer a la gente, más probable será que cedan el terreno a lo irracional. Esto también conduce a una
preponderancia del (a) libertarismo de Silicon Valley (la visión política por defecto de los participantes) como la supuesta "no política" neutral
y (b) una abierta afición por los neorreaccionarios , quienes se incubaron en gran medida en OB/LW.
¿Culto? [ editar ]
" A pesar de describirse como un foro sobre “el arte de la racionalidad humana”, el grupo New York Less Wrong, que celebra
reuniones semanales los martes y cuenta con casi 300 personas registradas en su lista de correo, está obsesionado con
una rama del futurismo que parecería más adecuada para un multicine 3D que para un seminario de posgrado: la terrible
amenaza existencial (o, con un poco de suerte, promesa utópica) conocida como la Singularidad tecnológica.
El sitio ha sido acusado de ser un culto a la personalidad de Eliezer Yudkowsky y no refleja a otros ensayistas que han alcanzado una
influencia casi igual. El tema del culto es ampliamente debatido en el sitio, tanto por Yudkowsky como por otros. [47] Curiosamente, esto
llevó a algunos motores de búsqueda a sugerir "culto" como un término relacionado con "Less Wrong"; en respuesta a esto, algunos
usuarios comenzaron a usar la palabra clave "phyg" [nota 2] para referirse a "culto". [48]
Si bien la apariencia de secta ha disminuido, la afinidad que motivó las críticas no lo ha hecho. LessWrong cuenta con un conjunto
demográfico muy amplio, pero limitado, que solo ha mejorado ligeramente con los años [49] —el mismo problema común en la psicología
académica, conocido como " WEIRD ": "Occidental, Educado, Industrializado, Rico y Demócrata" o también "Blanco, Educado, Inteligente,
Rico y Demócrata". [50] De hecho, el sitio web estaba muy preocupado por el impacto del crecimiento. [51]
LessWrong tiene algunas conexiones previas con un pequeño y extraño grupo radical derivado (a menudo descrito como una secta) que se
centra vagamente en una mujer transgénero llamada Ziz Lasota. Una desarrolladora de software con talento técnico, originaria de Alaska ,
Lasota se mudó al área de San Francisco en 2015, buscando participar tanto en el movimiento racionalista como en el movimiento de
altruismo efectivo mientras se dedicaba a su carrera de desarrollo de software. Agotada por la cultura del ajetreo y el altísimo costo de la
vivienda en Silicon Valley, la carrera técnica de Lasota no duró mucho. En cambio, ella (junto con otras dos personas) compró un barco con
la esperanza de crear viviendas gratuitas para el movimiento racionalista (un concepto que guardaba algunas similitudes con el paraíso
libertario ). Después de múltiples dificultades con las autoridades y problemas financieros, Lasota abandonó el barco en Alaska en 2017.
Para entonces, Lasota y su secta estaban completamente desilusionados con LessWrong y el resto de la comunidad racionalista. En
cambio, la secta adoptó una ideología mucho más radical, que entrelazaba partes del racionalismo (en particular los elementos más
distópicos, como el Basilisco de Roko) con el veganismo radical y el anarquismo . En noviembre de 2019, Lasota y otros miembros de su
secta organizaron una protesta frente a una reunión del CFAR en un centro de retiro. Esto resultó en el arresto de varios miembros de la
secta durante breves periodos (junto con la prohibición de LessWrong). Con el paso de los años, la secta se fue distanciando y aislando
cada vez más de la sociedad. Para febrero de 2025, el movimiento informal de Lasota estaba relacionado con al menos seis asesinatos y
dos suicidios. [52] [53] [54] [55]
Contrarianismo [ editar ]
Otro problema de LessWrong es que su aislacionismo representa un problema autogenerado (a diferencia de la demografía). A pesar de la
intensa especulación filosófica, los usuarios tienden a un orgulloso desprecio por la filosofía dominante y antigua [56] , lo que los lleva a
reinventar la rueda. Cuando esta tendencia se combina con las metáforas y parábolas que son fundamentales para el atractivo de
LessWrong, se explica por qué inventan nuevos términos para conceptos ya existentes. [57] Yudkowsky adopta la postura del "requerismo"
en cuanto al libre albedrío / determinismo , que considera diferente del compatibilismo dominante [nota 3] . En LessWrong, por ejemplo, la
falacia del continuo se rebautiza como "falacia del gris". [59] El resultado final es una serie de neologismos superfluos, al estilo de Seinfeld .
Aunque la mayoría de los autores no consideran que LessWrong sea una filosofía dominante, se la ha comparado con Wittgenstein, quien
parece representar mejor las opiniones de Yudkowsky y compañía sobre cómo el lenguaje limita la capacidad de comunicación de los
racionalistas, y con WVO Quine [60] , cuyo enfoque del naturalismo y la ciencia refleja el empirismo y el reduccionismo de LessWrong. El
excelente pero denso libro de Gary Drescher , « Good and Real: Demystifying Paradoxes from Physics to Ethics», abarca gran parte del
mismo tema que las Secuencias y se publicó aproximadamente al mismo tiempo que estas; [61] Yudkowsky no lo había leído antes de
terminarlas, pero aprueba el libro.
" No creo que sus proyectos (que solo parecen implicar la publicación
de artículos y la organización de congresos) tengan muchas
posibilidades de crear ni el Basilisco de Roko ni el Gran Dios Amistoso
de Eliezer. Pero la combinación de ambiciones mesiánicas , la
convicción de la propia infalibilidad y mucho dinero nunca funciona
bien, independientemente de la ideología , y no espero que
Yudkowsky y sus compinches sean la excepción.
Yudkowsky ha estado interesado desde hace mucho tiempo en la idea de que uno
debería actuar como si sus decisiones fueran capaces de determinar el comportamiento de simulaciones causalmente separadas de uno
mismo : [63] si uno puede pronosticar de manera plausible un agente pasado o futuro que se simula a sí mismo, y luego tomar acciones en
el presente debido a esta predicción, entonces usted "determina" la predicción del agente sobre sí mismo, en algún sentido.
La idea es que tu decisión, la decisión de una simulación tuya y cualquier predicción de tu decisión tienen la misma causa: un cálculo
abstracto en curso. Al igual que se puede predecir que una calculadora y cualquier copia de ella arrojarán el mismo resultado, dada la
misma entrada. El resultado de la calculadora y el de su copia están indirectamente vinculados por este cálculo abstracto. La Teoría de la
Decisión Atemporal afirma que, en lugar de actuar como si estuvieras determinando tu decisión individual, deberías actuar como si
estuvieras determinando el resultado de ese cálculo abstracto.
Este tipo de pensamiento se vuelve extraño cuando se imaginan superinteligencias, debido a todos los extremos involucrados: sus
predicciones del comportamiento humano pueden ser casi perfectas, como en la paradoja de Newcomb ; su poder, casi infinito; y sus
consecuencias, casi eternas. Yudkowsky también ha defendido la peor forma de utilitarismo , afirmando que estaría justificado torturar a una
persona durante 50 años para evitar que se le caigan motas de polvo en los ojos a un número suficientemente grande de personas (una
cantidad ridículamente enorme que no se puede escribir completamente en el universo). [64]
En julio de 2010, Roko se preguntó si una futura IA amistosa castigaría a las personas que no hicieran todo lo posible por promover la
investigación de la IA de la que se originó esta IA, al menos donándole todo lo que tuvieran. Razonó que todos los días sin IA, ocurren
cosas malas (más de 150.000 personas mueren cada día, se libran guerras, millones pasan hambre) y una futura IA amistosa querría evitar
esto, por lo que podría castigar a quienes comprendieran la importancia de donar pero no donaran todo lo que pudieran. Luego se preguntó
si las futuras IA serían más propensas a castigar a quienes se habían preguntado si las futuras IA los castigarían. Ese pensamiento final
resultó demasiado para algunos lectores de LessWrong , que luego tuvieron pesadillas sobre ser torturados por no donar lo suficiente a
SIAI.
Yudkowsky respondió a la publicación de Roko insultándolo, alegando que publicar tales cosas en un foro de internet "potencialmente da a
las superinteligencias un mayor motivo para cometer actos extremadamente malvados en un intento de chantaje", y que los usuarios le
habían contado pesadillas provocadas por la publicación. Cuatro horas después, borró la publicación de Roko, [65] incluyendo todos los
comentarios. Roko abandonó LessWrong, borrando sus miles de publicaciones y comentarios. [66] (Más tarde regresó brevemente [67] y
publicó, entre otras cosas, que "Estoy de acuerdo en que la publicación en cuestión no debería publicarse" [68] y "Ojalá nunca me hubiera
enterado de ninguna de estas ideas". [68] )
Lo que sabes: Cuando Roko publicó sobre el Basilisco, le grité tontamente, lo llamé idiota y luego borré la publicación.
Por qué hice eso no es algo a lo que tengas acceso directo, y por eso debes tener cuidado con inventar cosas, especialmente cuando
hay trolls de Internet que están felices de decirte en voz alta y autorizada lo que estaba pensando, a pesar de nunca haber pasado nada
ni siquiera cercano a una Prueba de Turing ideológica sobre Eliezer Yudkowsky.
Por qué le grité a Roko: Porque me pilló desprevenido, porque estaba indignado hasta el punto de un auténtico shock emocional, ante el
concepto de que alguien que creía haber inventado una idea brillante que haría que futuras IAs torturaran a las personas que hubieran
[ ]
tenido esa idea, la hubiera publicado de inmediato en Internet. Mientras le gritaba a Roko para que explicara por qué esto sic era algo
malo, cometí el error adicional (teniendo en cuenta que no tenía ni la menor idea de que algo de esto fuera a estallar de la forma en que
lo hizo, si la hubiera tenido, obviamente habría mantenido los dedos quietos) de no dejar absolutamente claro, mediante largas
exenciones de responsabilidad, que mis gritos no significaban que creyera que Roko tenía razón sobre que los agentes basados en CEV
[69] torturaran a las personas que habían oído hablar de la idea de Roko. Para mí era obvio que ningún agente basado en CEV haría eso
jamás e igualmente obvio para mí que lo de CEV era solo una pista falsa ; Lo eliminé casi automáticamente de mi procesamiento de la
sugerencia y lo generalicé automáticamente para abarcar toda la clase de escenarios y variantes similares, variantes que consideraba
obvias a pesar de las significativas divergencias (olvidé que otras personas no eran profesionales en el campo). Esta clase de todas las
variantes posibles me pareció potencialmente peligrosa como grupo colectivo, aunque no se me ocurrió que el escenario original de
Roko pudiera ser correcto; era obviamente erróneo, así que mi cerebro lo generalizó automáticamente.
En este punto empezamos a lidiar con una divergencia masiva entre lo que yo y varias otras personas en LessWrong considerábamos
sentido común obvio , y lo que otras personas no consideraban sentido común obvio, y la interferencia maliciosa de los trolls de Internet
en RationalWiki .
Lo que consideré obvio y de sentido común fue que no se difundieran posibles riesgos de información, ya que sería una lástima hacerle
eso a alguien. El problema no era que la publicación de Roko en sí, sobre CEV, fuera correcta. [70]
Yudkowsky afirmó posteriormente que el basilisco no funcionaría como Roko había postulado; pero en lugar de simplemente explicar por
qué tal reacción era inapropiada o por qué las ideas subyacentes eran erróneas, intentó censurar toda discusión sobre el tema. El asunto
ahora es objeto ocasional de publicaciones distorsionadas en LW, ya que la gente intenta discutirlo sin hablar de lo que está hablando,
[71] [72] y es un recurso fiable para rellenar el espacio para los periodistas que cubren historias relacionadas con LessWrong. [14]
Un crítico experto de LessWrong afirmó que varios años de acoso continuo por sus controvertidas publicaciones habían estado afectando
su salud. [73] Yudkowsky respondió con lo siguiente, lo cual sin duda es algo totalmente razonable:
Puedes actualizar publicando un encabezado en todas tus entradas de blog que diga: "Escribí este blog durante un período oscuro de mi
vida. Ahora me doy cuenta de que Eliezer Yudkowsky es una persona decente y honesta sin malas intenciones, y que cualquiera puede
quedar mal recopilando selectivamente todas sus citas de forma unilateral, como hice yo. Lamento esta página y la dejo aquí como
archivo para ese arrepentimiento". Si así te sientes y así lo haces, te acompañaré desde cero en cualquier proyecto futuro. Yo también
he sido estúpido en mi vida. (Si luego vuelves a la rutina, no tendrás una segunda oportunidad). [74]
Tenga en cuenta que la mayoría de estas entradas de blog ni siquiera mencionan a Yudkowsky, y mucho menos lo citan . Aun así, quiere su
propio encabezado en la parte superior de cada entrada.
Esto finalmente se resolvió eliminando la mayor parte del contenido relacionado con la disputa, colocando descargos de responsabilidad
donde fuera relevante y dejando pasar el asunto.
Finanzas [ editar ]
LessWrong funcionó bajo el paraguas de MIRI (probablemente hasta la reorganización de 2017). [75] Entre sus patrocinadores más
destacados se encuentran Peter Thiel , fundador de PayPal y (delegado de Donald Trump en 2016 ) , quien contribuyó con sumas
millonarias durante varios años. Últimamente, muchas donaciones provienen de ganadores de criptomonedas ; el fundador de Ethereum ,
Vitalik Buterin, fue el mayor donante individual en 2017. [76] También se solicitan y aceptan contribuciones menores. [77] En 2009, se reportó
una pérdida de $118,000 por robo, que aún no se ha recuperado. [78] MIRI utiliza sus fondos para remunerar a sus directivos (Yudkowsky
ganó 147.697 dólares al año en 2019 [79] ) y financiar investigaciones, aunque no se publicaron artículos en ninguna revista con revisión por
pares hasta 2012. Ese año, se publicaron dos artículos en el ridículamente titulado International Journal of Machine Consciousness [80] y
uno en el Journal of Consciousness Studies , [81] ambos de los cuales se comparan desfavorablemente con revistas más prestigiosas del
campo, como "Artificial Intelligence". [82] Las solicitudes de financiación se realizan regularmente en el sitio web de LessWrong y en
congresos, bajo la justificación de que MIRI, de forma única, trabaja para salvar al mundo de una amenaza a su propia existencia .
Yudkowsky está dispuesto a solicitar contribuciones financieras incluso de personas sin recursos, para "salvarlas" del escenario
especulativo de una Inteligencia Artificial descontrolada.
Lighthaven [ editar ]
En 2024, se reveló que Lightcone había recibido 5 millones de dólares del colapso de la fundación de
criptomonedas FTX de Sam Bankman-Fried . Debido al fraude a gran escala involucrado en el colapso de
FTX, Lightcone fue citado a comparecer ante el tribunal, y los acreedores exigen la devolución de los fondos
recibidos. [83] La propiedad que Lightcone adquirió en parte con la donación de la Fundación FTX se llama
Lighthaven. [83] Lighthaven es un campus de retiros, talleres, conferencias y eventos que alberga eventos de
orientación futurista ("la trayectoria a largo plazo de la humanidad"). [84] Yudkowsky (izquierda)
debatiendo sobre el Destino
Otra de las consecuencias de la compra del campus de Lighthaven es que, en el mejor de los casos,
en la conferencia Lighthaven
algunos eventos demuestran una falta de criterio por parte de Lightcone en cuanto a la naturaleza de las de 2023
conferencias. Una conferencia de pronósticos llamada Manifest, organizada por la plataforma de predicción
Manifold, celebró conferencias allí del 22 al 24 de septiembre de 2023: [83] [85] y del 7 al 9 de junio de 2024.
[86] Si bien los pronósticos son uno de los temas predilectos de LessWrong y Yudkowsky, entre los "invitados especiales" y otros asistentes
nombrados se encontraban algunas personas controvertidas: [86] [87]
Scott Alexander (invitado especial de 2023 y 2024): partidario Malcolm y Simone Collins (invitados especiales de 2023):
eugenista , racista eugenistas, pronatalistas
Jonathan Anomaly (invitado especial de 2023 e invitado Richard Hanania (invitado designado en 2024): homófobo ,
designado de 2024) — eugenista transfóbico , eugenista y defensor de la pedofilia.
Brian Chau (invitado designado en 2024): racista, misógino Robin Hanson (invitado especial de 2023 y 2024) — misógino
Stephen Hsu (invitado especial de 2024) — racista
Razib Khan (invitado designado en 2024) — racista
Por cierto, Nate Silver , [nota 4] Destiny y Yudkowsky fueron invitados especiales a ambas conferencias. La presencia de Yudkowsky en
ambas conferencias deja claro que Lightcone sabía quiénes asistían y hablaban, y menos de un año después, Yudkowsky respondió a una
publicación de LessWrong que proponía maximizar el coeficiente intelectual mediante la ingeniería genética humana con:
Espero que alguien financie este, posiblemente el tercer proyecto más importante del mundo.
1. Evitar la creación de superinteligencia a corto y mediano plazo. 2. Aumentar la inteligencia humana adulta. 3. Construir superbebés.
[90]
Respecto a los controvertidos oradores, August Chen, cofundador de Manifold, afirmó que «no los invitamos a dar charlas sobre raza y
coeficiente intelectual» y que «Manifest no tiene opiniones específicas sobre eugenesia ni sobre raza y coeficiente intelectual». [83] Según
The Guardian , la reunión de estos oradores, tan diversos y repugnantes, es una prueba más de la hipótesis TESCREAL . [83]
La evaluación de GiveWell de 2012 de SIAI como organización benéfica [11] plantea una serie de problemas con la organización, el sitio y
sus objetivos en comparación con sus resultados verificables:
La recomendación de GiveWell fue que en esta etapa (2012), donar a SIAI iría en contra de los objetivos establecidos de la organización, lo
que es aproximadamente lo peor que se podría decir de una organización benéfica.
Holden Karnofsky de GiveWell (y su descendiente, Open Philanthropy) se ha retractado silenciosamente de su opinión de 2012,
[91] [92] [93] [94] [95] [96] [97] y el extremo longtermista de la subcultura del altruismo eficaz ha trabajado estrechamente con Yudkowsky sobre
el riesgo existencial [98] —mientras intenta marginar a las personas que quieren centrarse en ayudar a la gente hoy. [99]
Zendegi de Greg Egan (2010) presenta a Nate Caplan, quien desea ser subido a la red. "Mi coeficiente intelectual es de ciento
sesenta... Siempre puedes contactarme a través de mi blog, Overpowering [Link], el sitio web número uno para el
pensamiento racional sobre el futuro". La novela también presenta el Proyecto Bootstrap de Superinteligencia Benigna, que convence a
un multimillonario de donar su fortuna, con la esperanza de que el "ser con poderes verdaderamente divinos" le otorgue la inmortalidad
al llegar a la Singularidad. Muere decepcionado, y el Proyecto "convierte cinco mil millones de dólares en nada más que salarios inflados
y palabrería vacía". [100] [101]
Elementary Temporada 3 Episodio 4, "Bella" (2014), presenta una inteligencia artificial y la teoría de que un miembro de la Asociación de
Investigación de Amenazas Existenciales mató a su creador para aumentar la credibilidad de su mensaje anti-IA. También incluye un
discurso sobre "el terror de la mortalidad" y algunas conversaciones de "sé que tú sabes que yo sé" entre Sherlock y su sospechoso.
[102]
Los asesinatos del basilisco: Un misterio de Sarah Turner , de Andrew Hickey (2017). ISBN 1549999869. Una novela satírica de misterio
ambientada en el mundo de los transhumanistas y los singularitaristas.
Ex Machina , [103] una película sobre un genio de la IA solitario que se parece a Yudkowsky físicamente, pero no en su capacidad de
construir cosas.
Menos incorrecto
El problema con Rational Wiki , LessWrong
Greg Egan critica a SIAI y LessWrong
Dejar LessWrong para una vida más racional , escrito por un miembro de LessWrong que describe los problemas con LessWrong y
por qué se irá.
Alexander Kruel , bloguero con cierta vinculación con LessWrong y actualmente con la comunidad transhumanista. A menudo critica
las afirmaciones de LessWrong.
El culto al teorema de Bayes
Publicación de Reddit donde el destacado miembro de LessWrong, Scott Alexander, describe por qué la comunidad de LessWrong se
fragmentó
Notas [ editar ]
1. ↑ Se estimó que The Sequences tenía alrededor de 630.000 palabras [31] frente a las 576.459 palabras de la trilogía de El Señor de los Anillos de
Tolkien + El Hobbit , o 482.058 palabras excluyendo El Hobbit . [32]
2. ↑ El simple cifrado César, ampliamente conocido desde los días de Usenet como ROT13 , transforma "cult" en "phyg" y viceversa.
3. ↑ Eliezer Yudkowsky, Tú eres física :
El «compatibilismo» es la postura filosófica que sostiene que el «libre albedrío» puede definirse intuitiva y satisfactoriamente de forma
compatible con la física determinista . El «incompatibilismo» es la postura que sostiene que el libre albedrío y el determinismo son incompatibles.
Mi postura podría llamarse «requerismo». Cuando la agencia, la elección, el control y la responsabilidad moral se aplican de forma sensata,
requieren determinismo, al menos algunos aspectos de este en el universo . [58]
4. ↑ Después del evento de 2024, Silver se unió al mercado de pronóstico de eventos Polymarket, basado en criptomonedas y patrocinado por Thiel.
[88] [89]
Referencias [ editar ]
1. ↑ No es una reseña de Neoreaction a Basilisk (31 de mayo de 2016; 9:30 56. ↑ Formar filósofos con Pearl y Kahneman, no con Platón y Kant por lukeprog
de
am) Andrew Hickey (archivado desde el 18 de diciembre de 2018). (5 diciembre de 2012) LessWrong .
2. ↑2.0 2.1 El equipo de LessWrong ahora es Lightcone Infrastructure . ¡Únete a 57. ↑ Las secuencias de Eliezer y la corriente académica dominante por
de de
nosotros! Por habryka (30 septiembre de 2021) lukeprog (14 septiembre de 2012) LessWrong .
3. ↑ Año 2000 990-EZ del SIAI Servicio de Impuestos Internos a través del de
58. ↑ Tú eres física por Eliezer Yudkowsky (6 junio de 2008) LessWrong .
Singularity Institute (archivado el 22 de diciembre de 2012).
de
4. ↑ Superando los sesgos 59. ↑ La falacia del gris de Yudkowsky Eliezer (7 enero de 2008) LessWrong .
de
5. ↑ Acerca de , Superando los sesgos .
60. ↑ Racionalidad y filosofía dominante por lukeprog (20 marzo de 2011)
6. ↑ Recaudación de fondos de invierno de 2012 para el Singularity Institute LessWrong .
LessWrong .
61. ↑ Bueno y real: desmitificando paradojas desde la física hasta la ética por
7. ↑ Año 2009 990 del SIAI Servicio de Impuestos Internos vía Singularity Gary Drescher (2006) MIT Press. ISBN 9780262042338 .
Institute (archivado desde el 10 de septiembre de 2012).
62. ↑ El experimento mental más aterrador de todos los tiempos: ¿Por qué los
8. ↑ "importante e interesante en proporción a lo mucho que ayuda a construir tecnofuturistas están tan asustados por el basilisco de Roko? por David
una IA amigable" por Eliezer Yudkowsky (2011) LessWrong . Auerbach (17 de julio de 2014, 14:47) Slate .
9. ↑ Acerca de nosotros: Logros del SIAI 2009 Singularity Institute (archivado 63. ↑ Ingredientes de la teoría de la decisión atemporal de Eliezer Yudkowsky
desde el 21 de junio de 2011). de
de (18 agosto de 2009) LessWrong .
10. ↑ Tallinn-Evans $125,000 Singularity Challenge por Kaj Sotala (26 de
diciembre de 2010) LessWrong . 64. ↑ Tortura vs. Motas de polvo por Eliezer Yudkowsky (29 octubre de 2007)
LessWrong .
11. ↑11.0 11.1 Reflexiones sobre el Singularity Institute por Holden Karnofsky (10
de 65. ↑ Soluciones a la carga del altruista: el truco del multimillonario cuántico por
mayo de 2012) LessWrong . Roko (23 de julio de 2010, 12:30 p. m.) LessWrong (archivado de una
12. ↑ SL4 instantánea de la caché de Google, 10 de septiembre de 2012, [Link] UTC.
13. ↑ Listas de correo electrónico, comunidades y foros Extropy Institute No lea si es propenso a sufrir pesadillas o TOC y/o le preocupa causarse un
(archivado el 6 de septiembre de 2014). daño incalculable.
14. ↑14.0 14.1 Fe, esperanza y singularidad: entrando en la Matrix con el set 66. ↑ Roko LessWrong .
futurista de Nueva York por Nitasha Tiku (25 de julio de 2012) Beta Beat, 67. ↑ Formalmente conocido como Roko LessWrong .
The New York Observer (archivado desde el 2 de febrero de 2013). 68. ↑68.0 68.1 FormallyknownasRoko comenta sobre ¿Los mejores modelos de
carrera para hacer investigación? - Less Wrong por Autor del comentario:
Michael Vassar, expresidente del Singularity Institute, quien renunció FormallyknownasRoko (09 de diciembre de 2010 [Link]PM y 10 de
en enero para impulsar su idea de una startup de medicina diciembre de 2010 [Link]PM) LessWrong (archivado desde el 21 de octubre
personalizada —y posteriormente incorporó al Sr. Mowshowitz y a la de 2016).
Sra. Vance—, admitió que la organización sin fines de lucro había 69. ↑ Volición extrapolada coherente LessWrong .
aprendido a ocultar algunas de sus ideas más radicales, priorizando la
racionalidad. Como lo expresó el Sr. Yudkowsky: «Hay mucha gente
Volición Extrapolada Coherente fue un término desarrollado por
interesada en las habilidades de pensamiento basadas en la ciencia
Eliezer Yudkowsky al hablar sobre el desarrollo de IA Amigable. Su
cognitiva que no necesariamente aceptaría la idea de 'salvar a la
propósito es argumentar que no basta con programar explícitamente
humanidad'».
en una IA lo que creemos que son nuestros deseos y motivaciones;
en cambio, deberíamos encontrar la manera de programarla para que
15. ↑ HPMOR por Eliezer Yudkowsky actúe en nuestro beneficio: lo que queremos que haga y no lo que le
de
decimos .
16. ↑ Resultados de la encuesta por Scott Alexander (12 mayo de 2009)
LessWrong .
de 70. ↑ Basilisco de Roko por Eliezer Yudkowsky (c. 2014) Reddit .
17. ↑17.0 17.1 Resultados de la encuesta de 2011 por Scott Alexander (5 de
diciembre de 2011) LessWrong . 71. ↑ ¿Debería LW tener una política de censura pública? por Bongo (11
18. ↑ Centro de Racionalidad Aplicada: Desarrollar un pensamiento claro en diciembre de 2010) LessWrong .
beneficio del futuro de la humanidad Centro de Racionalidad Aplicada . 72. ↑ Artículo sobre LW: Fe, esperanza y singularidad: Entrando a la Matrix con el
de
19. ↑ ¡ Bienvenido a CFAR! por Julia, Centro de Racionalidad Aplicada conjunto futurista de Nueva York comentario de Bruno Coelho (25 julio de
(archivado desde el 7 de julio de 2013 a las [Link] UTC). 2012) LessWrong .
20. ↑ Qué hacemos Centro de Racionalidad Aplicada (archivado desde el 7 de 73. ↑ Rompiendo el círculo vicioso por XiXiDu, LessWrong , 23 de noviembre de
julio de 2013 a las [Link] UTC). 2014.
21. ↑ Rationalist Masterlist por yxoque (Última actualización el 1 de septiembre 74. ↑ Rompiendo el círculo vicioso, comentario de Eliezer Yudkowsky,
de 2014) Tumblr (archivado desde el 6 de septiembre de 2014). LessWrong , 24 de noviembre de 2014.
22. ↑ Códice Estelar de Pizarra 75. ↑ LessWrong (archivado el 14 de marzo de 2017 a las [Link] UTC).
de
23. ↑ Star Slate Scratchpad (17 agosto de 2015) Tumblr . CFAR, MIRI y Future of Humanity Institute aparecieron en el banner de la
de página principal del sitio web en marzo de 2017.
24. ↑ La falacia genética de Eliezer Yudkowsky (10 julio de 2008) LessWrong 76. ↑ ¡ Éxito en la recaudación de fondos! por Malo Bourgon (10 de enero de
. 2018) MIRI .
de
de
25. ↑ Ugh Fields por Roko (12 abril de 2010) LessWrong .
77. ↑ Acabo de donar al SIAI a través de Pavitra (15 julio de 2011)
de
26. ↑ Espirales de muerte afectiva de Eliezer Yudkowsky (2 diciembre de LessWrong .
de
2007) LessWrong . 78. ↑ SIAI - Un examen por BrandonReinhart (2 mayo de 2011) LessWrong .
27. ↑ Discusión:Lee Daniel Crocker (revisión del 18 de enero de 2011) Wikipedia
79. ↑ Instituto de Investigación de Inteligencia de Máquinas Inc ProPublica .
.
80. ↑ Revista Internacional de Conciencia de Máquinas Scimago Journal &
28. ↑ Una explicación intuitiva del teorema de Bayes (2003) Eliezer Yudkowsky .
Country Rank .
29. ↑ Jerga Lesswrongwiki . 81. ↑ Revista de Estudios de la Conciencia Scimago Journal & Country Rank .
30. ↑ Secuencias LessWrong . 82. ↑ Inteligencia Artificial Scimago Journal & Country Rank .
31. ↑ La Sociedad Secreta para Suprimir la Estupidez Putanumonit .
83. ↑83.0 83.1 83.2 83.3 83.4 Sam Bankman-Fried financió un grupo con vínculos
32. ↑ ¿Cuántas palabras hay en los libros de ESDLA? por Vittorio Cobianchi y racistas. FTX exige la devolución de sus 5 millones de dólares: The Guardian
Ayesha Rasheed, Quora . revela que los administradores de FTX, a cargo tras la caída del director
33. ↑ El tejido de la realidad: la ciencia de los universos paralelos y sus ejecutivo, alegan que los pagos se realizaron con fondos robados. Por
implicaciones, de David Deutsch (1997). Penguin Books. ISBN 014027541X. Jason Wilson y Ali Winston (16 de junio de 2024, 06:00 EDT) . The Guardian .
34. ↑ Pensar rápido, pensar despacio de Daniel Kahneman (2011) Farrar, Straus y 84. ↑ Refugio de luz
Giroux. ISBN 0374533555. 85. ↑ Manifiesto 2023
35. ↑ El Cisne Negro: El Impacto de lo Altamente Improbable, de Nassim Nicholas 86. ↑86.0 86.1 Manifiesto 2024
Taleb (2010), Random House. Segunda edición. ISBN 081297381X.
87. ↑ Invitados Especiales Conferencia Manifiesta (archivado el 2 de agosto de
36. ↑ Pensar y decidir, de Jonathan Baron (20230), Cambridge University Press. 2023).
Quinta edición. ISBN 1009263641.
88. ↑ Polymarket contrata a Nate Silver tras apostar 265 millones de dólares en las
37. ↑ Eliezer Yudkowsky, Las secuencias menos erróneas elecciones estadounidenses: informe de Oliver Knight (17 de julio de 2024,
de
38. ↑ ¿Qué base es más fundamental? por Eliezer Yudkowsky (23 abril de 8:49 a. m. PDT) Yahoo! Finanzas .
2008) LessWrong . 89. ↑ Peter Thiel invierte en la plataforma de apuestas políticas Polymarket, pero el
39. ↑ Odio a esta gente, joder. Poe News (archivado el 22 de julio de 2013). futuro de las apuestas electorales sigue siendo incierto por Zachary Folk (14
40. ↑ ¿Está bien hablar de política? Wiki LessWrong . de mayo de 2024, 14:19 EDT) Forbes .
de 90. ↑ Primer tuit: [Link]
41. ↑ La política es el asesino de la mente por Eliezer Yudkowsky (18 febrero
archivado [Link] segundo tuit:
de 2007) LessWrong .
[Link] archivado
de
42. ↑ Una fábula de ciencia y política de Eliezer Yudkowsky (22 diciembre de [Link] Entrada del blog
2006) LessWrong [Link]
de superbabies archivado [Link]
43. ↑ Participación en la comunidad LW asociada con menos sesgo (9
91. ↑ Alexander Berger es ahora el único director ejecutivo de Open Philanthropy
diciembre de 2012) LessWrong .
( 27 de julio de 2023) . Karnofsky fue cofundador y codirector ejecutivo de
44. ↑ Fe, esperanza y singularidad: Ingresando a Matrix con el set futurista de
Open Philanthropy hasta mediados de 2023.
Nueva York por Nitasha Tiku (25/07/12 8:45 am) New York Observer .
92. ↑ Centro para la Racionalidad Aplicada — Apoyo General (julio de 2016)
45. ↑ Comentarios sobre «Citas sobre la racionalidad, noviembre de 2012» ,
Filantropía Abierta . Monto: $1,035,000.
LessWrong
de
93. ↑ Instituto de Investigación de Inteligencia Artificial — Apoyo General (2016)
46. ↑ "Dando lo que podemos: 80.000 horas y metacaridad" (6 noviembre de (agosto de 2016) Filantropía Abierta . Monto: $500,000.
2012) LessWrong . 94. ↑ Instituto de Investigación de Inteligencia Artificial — Apoyo General (2017)
de
47. ↑ Toda causa quiere ser una secta por Eliezer Yudkowsky (11 diciembre (octubre de 2017) Filantropía Abierta . Monto: $3,750,000.
Categorías : Artículos de nivel plata Menos incorrecto Blogs California Clogosfera consecuencialismo Cultos Futurismo
Enojado con nosotros Racionalismo Organizaciones que promueven la pseudociencia Thielsfera Transhumanismo
Esta página se editó por última vez el 6 de marzo de 2025 a las 08:39.
A menos que se indique explícitamente lo contrario, todo el contenido se encuentra bajo la licencia indicada por RationalWiki:Copyrights .
Para consultas sobre infracciones de derechos de autor, consulte: RationalWiki:Infracciones de derechos de autor.