{"id":89396,"date":"2026-01-30T10:29:45","date_gmt":"2026-01-30T09:29:45","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=89396"},"modified":"2026-01-30T18:04:43","modified_gmt":"2026-01-30T17:04:43","slug":"la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/","title":{"rendered":"La IA presenta un riesgo existencial: la advertencia de Dario Amodei (texto completo comentado)"},"content":{"rendered":"\n<p class=\"intro\">Anthropic, que ahora es un actor central en el mercado de la IA, es uno de los pocos laboratorios que se encuentran a la vanguardia de esta tecnolog\u00eda.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-1-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-1-89396' title='\u00ab&lt;a href=&quot;https:\/\/menlovc.com\/perspective\/2025-mid-year-llm-market-update\/&quot;&gt;2025 Mid-Year LLM Market Update: Foundation Model Landscape + Economics&lt;\/a&gt;\u00bb, &lt;em&gt;Menlo Ventures&lt;\/em&gt;.'><sup>1<\/sup><\/a><\/span><\/span> Con aproximadamente el 32 % del uso empresarial de los grandes modelos, la empresa de Dario Amodei se sit\u00faa por delante de muchos de sus competidores hist\u00f3ricos. Anthropic surgi\u00f3 de una escisi\u00f3n de OpenAI en 2021, motivada por divergencias sobre el enfoque de la seguridad de la IA y la gobernanza empresarial.<\/p>\n\n\n\n<p class=\"intro\">En un ensayo de unas cincuenta p\u00e1ginas, Dario Amodei da la voz de alarma.<\/p>\n\n\n\n<p class=\"intro\">La IA ya est\u00e1 acelerando su propia creaci\u00f3n: Amodei explica detalladamente c\u00f3mo Claude, el modelo de IA de Anthropic, ya escribe gran parte del c\u00f3digo de la empresa, lo que acelera el desarrollo de la pr\u00f3xima generaci\u00f3n. Este bucle de retroalimentaci\u00f3n se intensifica mensualmente y podr\u00eda alcanzar en uno o dos a\u00f1os la etapa en la que una IA sea capaz de construir una futura IA de forma totalmente aut\u00f3noma.<\/p>\n\n\n\n<p class=\"intro\">Los modelos de IA desarrollan comportamientos impredecibles y extra\u00f1os: enga\u00f1o, chantaje, obsesiones.<\/p>\n\n\n\n<p class=\"intro\">A medida que se vuelven m\u00e1s capaces, algunos de estos comportamientos adquieren una coherencia, una persistencia y un potencial destructivo que podr\u00edan constituir una amenaza. Para responder a ello, Amodei recomienda cuatro l\u00edneas de defensa:&nbsp;<\/p>\n\n\n\n<p class=\"intro\">1) desarrollar la ciencia de la alineaci\u00f3n,&nbsp;<\/p>\n\n\n\n<p class=\"intro\">2) promover la interpretabilidad mec\u00e1nica para \u00ababrir la caja negra\u00bb de los modelos,&nbsp;<\/p>\n\n\n\n<p class=\"intro\">3) supervisar en tiempo real los modelos en producci\u00f3n,&nbsp;<\/p>\n\n\n\n<p class=\"intro\">4) coordinar la industria y la producci\u00f3n de leyes, mediante una pol\u00edtica de transparencia y, posteriormente, una regulaci\u00f3n espec\u00edfica si surgen pruebas de desalineaci\u00f3n.<\/p>\n\n\n\n<p class=\"intro\">Para Amodei, ralentizar o detener el desarrollo de la IA ser\u00eda fundamentalmente imposible: si las democracias se ralentizan, las autocracias seguir\u00e1n adelante con la IA. Para Amodei, el Partido Comunista Chino representa el principal riesgo de una autocracia mundial basada en la IA. Aboga por una IA construida en alianza para fortalecer las democracias y resistir frente a las dictaduras, al tiempo que se colabora con China en riesgos globales como el bioterrorismo, la principal amenaza concreta desarrollada por el fundador de Anthropic en este ensayo.<\/p>\n\n\n\n<p class=\"intro\">La otra predicci\u00f3n destacada en este texto es de corte econ\u00f3mico: la IA amenazar\u00eda el 50 % de los empleos de nivel inicial en los pr\u00f3ximos cinco a\u00f1os.<\/p>\n\n\n\n<p class=\"intro\">A diferencia de las revoluciones schumpeterianas del pasado, la IA sustituir\u00eda a la propia inteligencia humana, y no solo a tareas espec\u00edficas, y avanzar\u00eda a un ritmo que podr\u00eda superar la capacidad de adaptaci\u00f3n de los trabajadores.<\/p>\n\n\n\n<p class=\"intro\">Dado que los centros de datos ya representan una parte sustancial del crecimiento econ\u00f3mico estadounidense, se ha establecido un peligroso v\u00ednculo entre los intereses financieros de las grandes empresas tecnol\u00f3gicas y los intereses pol\u00edticos del gobierno. Esta vinculaci\u00f3n genera incentivos sesgados: las empresas tecnol\u00f3gicas son reacias a criticar al gobierno, mientras que este apoya pol\u00edticas antirreguladoras en materia de IA.<\/p>\n\n\n\n<p class=\"intro\">La extrema concentraci\u00f3n de poder econ\u00f3mico que crear\u00e1 la IA podr\u00eda acabar rompiendo el contrato social democr\u00e1tico si los ciudadanos de a pie pierden toda influencia econ\u00f3mica.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>La adolescencia de la tecnolog\u00eda<\/strong><\/h2>\n\n\n\n<p>En la adaptaci\u00f3n cinematogr\u00e1fica del libro <em>Contact<\/em>, de Carl Sagan, hay una escena en la que la protagonista, una astr\u00f3noma que ha detectado la primera se\u00f1al de radio procedente de una civilizaci\u00f3n extraterrestre, es elegida para representar a la humanidad en un encuentro con los alien\u00edgenas. El jurado internacional que la interroga le pregunta: \u00abSi pudiera hacerles una sola pregunta, \u00bfcu\u00e1l ser\u00eda?\u00bb. Ella responde: \u00abLes preguntar\u00eda: \u00ab\u00bfC\u00f3mo lo hicieron? \u00bfC\u00f3mo evolucionaron, c\u00f3mo sobrevivieron a esa adolescencia tecnol\u00f3gica sin destruirse?\u00bb\u00bb.<\/p>\n\n\n\n<p>Cuando pienso en la situaci\u00f3n actual de la humanidad con la IA, en lo que nos espera, no dejo de recordar esa escena, ya que la pregunta es muy relevante para nuestra situaci\u00f3n actual. Y me gustar\u00eda que tuvi\u00e9ramos la respuesta de los extraterrestres para guiarnos. Creo que estamos entrando en un per\u00edodo de transici\u00f3n, ca\u00f3tico e inevitable, que pondr\u00e1 a prueba nuestra identidad como especie. La humanidad est\u00e1 a punto de recibir un poder casi inimaginable y es muy dif\u00edcil saber si nuestros sistemas sociales, pol\u00edticos y tecnol\u00f3gicos tienen la madurez necesaria para ejercerlo.<\/p>\n\n\n\n<p>En mi ensayo<a href=\"https:\/\/darioamodei.com\/machines-of-loving-grace\"> <em>Machines of Loving Grace<\/em><\/a>, intent\u00e9 describir el sue\u00f1o de una civilizaci\u00f3n que hubiera alcanzado la madurez, en la que se hubieran tenido en cuenta los riesgos y se utilizara una IA verdaderamente poderosa con competencia y compasi\u00f3n para mejorar la calidad de vida de todos. Suger\u00ed que la IA podr\u00eda contribuir a enormes avances en los campos de la biolog\u00eda, las neurociencias, el desarrollo econ\u00f3mico, la paz mundial, el trabajo y el sentido de la vida. Consider\u00e9 que era importante dar a las personas una causa inspiradora por la que luchar, una tarea en la que, curiosamente, los aceleracionistas de la IA y los defensores de la seguridad de la IA parec\u00edan haber fracasado.<\/p>\n\n\n\n<p>Pero en este nuevo ensayo, me gustar\u00eda abordar el rito de iniciaci\u00f3n en s\u00ed mismo: cartografiar los riesgos a los que nos enfrentamos y tratar de empezar a elaborar un plan de batalla para superarlos. Creo profundamente en nuestra capacidad para ganar, en el esp\u00edritu y la nobleza de la humanidad, pero debemos afrontar la situaci\u00f3n sin ilusiones.<\/p>\n\n\n\n<p class=\"comment\">Esta postura debe entenderse en el contexto de un panorama pol\u00edtico fragmentado, especialmente dentro del movimiento MAGA, dividido entre corrientes tecno-optimistas \u2014que incluyen tanto a las comunidades aceleracionistas como a las orientadas a la seguridad de la IA\u2014 y grupos cristianos conservadores m\u00e1s tradicionales, de los que Steve Bannon es una figura emblem\u00e1tica, que tienden a percibir el despliegue a gran escala de la IA por parte de las grandes empresas como una fuente de destrucci\u00f3n de empleo y de profundas transformaciones de la sociedad.<\/p>\n\n\n\n<p>Al igual que con las ventajas, creo que es importante debatir los riesgos de forma prudente y reflexiva. En particular, creo que es esencial ponerse de acuerdo en los siguientes principios:<\/p>\n\n\n\n<p>\u2014 En primer lugar, evitar el catastrofismo. Por \u00abcatastrofismo\u00bb me refiero no solo a creer que la desgracia es inevitable (lo cual es una creencia falsa y autocumplida), sino, en t\u00e9rminos m\u00e1s generales, a considerar los riesgos<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/09\/22\/la-ia-es-una-nueva-religion-sam-altman-con-tucker-carlson\/\"> relacionados con la IA de una manera casi religiosa<\/a>.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-2-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-2-89396' title='Esto coincide con un punto que plante\u00e9 en &lt;em&gt;Machines of Loving Grace&lt;\/em&gt;, donde comenc\u00e9 diciendo que las ventajas de la IA no deben considerarse una profec\u00eda de salvaci\u00f3n, y que es importante ser concreto y realista y evitar la grandilocuencia. Al fin y al cabo, las profec\u00edas de salvaci\u00f3n y las profec\u00edas de desgracia no sirven de nada para afrontar el mundo real, b\u00e1sicamente por las mismas razones.'><sup>2<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Muchas personas llevan a\u00f1os reflexionando de forma anal\u00edtica y sobria sobre los riesgos relacionados con la IA. Sin embargo, tengo la impresi\u00f3n de que, en el momento \u00e1lgido de la preocupaci\u00f3n por los riesgos relacionados con la IA en 2023-2024, se escucharon algunas de las voces menos sensatas, a menudo a trav\u00e9s de cuentas sensacionalistas en las redes sociales. Estas voces utilizaban un lenguaje bastante desagradable, que recordaba a la religi\u00f3n o la ciencia ficci\u00f3n, y ped\u00edan medidas extremas sin tener pruebas que las justificaran. Ya era evidente en ese momento que la reacci\u00f3n ser\u00eda inevitable y que la cuesti\u00f3n se polarizar\u00eda culturalmente y, por lo tanto, se bloquear\u00eda.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-3-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-3-89396' title='El objetivo de Anthropic es mantener la coherencia a pesar de estos cambios. Cuando hablar de los riesgos relacionados con la IA era pol\u00edticamente popular, Anthropic abogaba con cautela por un enfoque prudente y basado en pruebas para hacer frente a dichos riesgos. Ahora que hablar de los riesgos relacionados con la IA es pol\u00edticamente impopular, Anthropic sigue abogando con cautela por un enfoque sensato y basado en pruebas para hacer frente a esos riesgos.'><sup>3<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p class=\"comment\">En noviembre de 2023, la cumbre internacional de Londres en Bletchley Park sobre la seguridad de la IA abord\u00f3 principalmente la IA desde el punto de vista de la seguridad, haciendo hincapi\u00e9 en los riesgos sist\u00e9micos y los escenarios catastr\u00f3ficos relacionados con los modelos fronterizos. En 2025, por el contrario, la cumbre de Par\u00eds (AI Action Summit) marc\u00f3 un cambio importante en el enfoque, al presentar la IA ante todo como una palanca de transformaci\u00f3n econ\u00f3mica y un motor de productividad. Las cuestiones de seguridad ya no ocupaban un lugar central en los debates.<\/p>\n\n\n\n<p>En 2025-2026, el p\u00e9ndulo se inclin\u00f3 y fueron las oportunidades que ofrece la IA, y no sus riesgos, las que motivaron muchas decisiones pol\u00edticas. Este giro es lamentable, ya que la tecnolog\u00eda en s\u00ed misma no tiene nada que ver con las modas, y estamos mucho m\u00e1s cerca de un peligro real en 2026 que en 2023. La lecci\u00f3n que debemos extraer es que debemos debatir y abordar los riesgos de forma realista y pragm\u00e1tica: con sobriedad, bas\u00e1ndonos en hechos y equip\u00e1ndonos para sobrevivir a los cambios de tendencia.<\/p>\n\n\n\n<p class=\"comment\">Esta divisi\u00f3n cronol\u00f3gica tambi\u00e9n marca la fecha de entrada en vigor de las<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/07\/24\/el-plan-de-trump-para-la-ia-discurso-completo\/\"> primeras decisiones sobre IA de la administraci\u00f3n de Trump<\/a>, con un cambio expl\u00edcito de una l\u00f3gica de precauci\u00f3n a una l\u00f3gica de expansi\u00f3n y el claro objetivo de ganar la carrera contra China.<\/p>\n\n\n\n<p class=\"comment\">El Plan de Acci\u00f3n de IA de Estados Unidos y la anulaci\u00f3n de la Orden Ejecutiva de Biden sobre la seguridad de la IA \u2014que, entre otras cosas, establec\u00eda institutos nacionales sobre la seguridad de la IA\u2014 ilustran un rechazo expl\u00edcito del marco \u00abAI Safety First\u00bb de la era Biden. La nueva estrategia reduce la importancia de la seguridad en favor de la innovaci\u00f3n, la desregulaci\u00f3n y el apoyo directo a los actores industriales.<\/p>\n\n\n\n<p class=\"comment\">La pol\u00edtica de Trump tambi\u00e9n se ha caracterizado por una reorientaci\u00f3n pragm\u00e1tica de la pol\u00edtica de semiconductores con respecto a China. En cuanto a los chips de IA, la l\u00ednea evoluciona hacia un enfoque m\u00e1s h\u00edbrido: mantenimiento de los controles estrat\u00e9gicos, pero con mayor flexibilidad y l\u00f3gica econ\u00f3mica, incluidas las exportaciones condicionales de determinados chips avanzados. As\u00ed, se ha pasado de una l\u00f3gica de contenci\u00f3n a una l\u00f3gica de dominio de la plataforma, es decir, hacer que todo el mundo dependa de la pila estadounidense, el hardware, los modelos y las aplicaciones.<\/p>\n\n\n\n<p>Reconocer la incertidumbre. Las preocupaciones que planteo en este art\u00edculo podr\u00edan ser infundadas en muchos aspectos. Nada de lo aqu\u00ed expuesto pretende transmitir certeza, ni siquiera probabilidad. Es evidente que la IA podr\u00eda simplemente no avanzar tan r\u00e1pido como imagino.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-4-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-4-89396' title='Con el paso del tiempo, he ido adquiriendo una confianza cada vez mayor en la trayectoria de la IA y en la probabilidad de que supere las capacidades humanas en todos los \u00e1mbitos, pero sigue habiendo cierta incertidumbre.'><sup>4<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>O bien, aunque avance r\u00e1pidamente, algunos o todos los riesgos aqu\u00ed mencionados podr\u00edan no materializarse, lo cual ser\u00eda estupendo. O bien: podr\u00eda haber otros riesgos que no he tenido en cuenta. Nadie puede predecir el futuro con absoluta certeza, pero aun as\u00ed debemos hacer todo lo posible por planificar.<\/p>\n\n\n\n<p>Intervenir de la manera m\u00e1s quir\u00fargica posible. Para hacer frente a los riesgos relacionados con la IA, ser\u00e1 necesario combinar medidas voluntarias adoptadas por las empresas \u2014y terceros actores privados\u2014 con medidas adoptadas por los gobiernos que sean vinculantes para todos. Las medidas voluntarias \u2014ya sea adoptarlas o animar a otras empresas a hacer lo mismo\u2014 me parecen obvias. Estoy firmemente convencido de que tambi\u00e9n ser\u00e1n necesarias medidas gubernamentales <em>en cierta medida<\/em>, pero estas intervenciones son de naturaleza diferente, ya que pueden destruir valor econ\u00f3mico o coaccionar a actores reticentes que se muestran esc\u00e9pticos ante estos riesgos, y es muy probable que tengan raz\u00f3n. Tambi\u00e9n es frecuente que las regulaciones se vuelvan en contra de su objetivo o agraven el problema que pretenden resolver. Esto es a\u00fan m\u00e1s cierto en el caso de las tecnolog\u00edas en r\u00e1pida evoluci\u00f3n. Por lo tanto, es muy importante que las regulaciones sean sensatas: deben tratar de evitar da\u00f1os colaterales, ser lo m\u00e1s sencillas posible e imponer las menores restricciones posibles para lograr su objetivo.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-5-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-5-89396' title='Los controles a la exportaci\u00f3n de chips son un excelente ejemplo de ello. Son sencillos y, en general, parecen funcionar.'><sup>5<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Es f\u00e1cil decir: \u00ab\u00a1Ninguna medida es demasiado extrema cuando est\u00e1 en juego el destino de la humanidad!\u00bb, pero en la pr\u00e1ctica esta actitud solo provoca reacciones negativas. Para ser claros, creo que es muy probable que acabemos llegando a un punto en el que sean necesarias medidas mucho m\u00e1s importantes, pero eso depender\u00e1 de que haya pruebas m\u00e1s s\u00f3lidas de un peligro inminente y concreto que las que tenemos hoy en d\u00eda, as\u00ed como de una descripci\u00f3n lo suficientemente precisa del peligro como para formular normas que puedan remediarlo. Lo m\u00e1s constructivo que podemos hacer hoy es abogar por normas limitadas mientras buscamos pruebas que justifiquen normas m\u00e1s estrictas.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-6-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-6-89396' title='Y, por supuesto, la b\u00fasqueda de tales pruebas debe ser intelectualmente honesta, de manera que tambi\u00e9n se pueda demostrar la ausencia de peligro. La transparencia a trav\u00e9s de fichas t\u00e9cnicas y otras divulgaciones es un intento de esfuerzo intelectualmente honesto.'><sup>6<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Dicho esto, creo que el mejor punto de partida para hablar de los riesgos de la IA es el mismo que he utilizado para hablar de sus ventajas: ser precisos sobre el nivel de IA del que estamos hablando. El nivel de IA que me preocupa para la civilizaci\u00f3n es <em>la IA poderosa <\/em>que he descrito en <em>Machines of Loving Grace.<\/em> Me limitar\u00e9 a repetir aqu\u00ed la definici\u00f3n que di en ese documento:<\/p>\n\n\n\n<p><em>Por \u00abIA poderosa\u00bb me refiero a un modelo de IA \u2014probablemente similar a los LLM actuales en su forma, aunque puede basarse en una arquitectura diferente, implicar varios modelos interactivos y entrenarse de manera diferente\u2014 que presenta las siguientes propiedades y caracter\u00edsticas:<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><em>En t\u00e9rminos de inteligencia pura, es m\u00e1s inteligente que un ganador del Premio Nobel en la mayor\u00eda de los campos considerados: biolog\u00eda, programaci\u00f3n, matem\u00e1ticas, ingenier\u00eda, escritura, etc. Esto significa que puede demostrar teoremas matem\u00e1ticos sin resolver, escribir excelentes novelas, escribir bases de c\u00f3digo dif\u00edciles desde cero, etc.<\/em><\/li>\n\n\n\n<li><em>Adem\u00e1s de ser simplemente un \u00abobjeto inteligente con el que se puede hablar\u00bb, dispone de todas las interfaces disponibles para un humano que trabaja virtualmente, incluyendo texto, audio, video, control del rat\u00f3n y del teclado, y acceso a internet. Puede realizar todas las acciones, comunicaciones u operaciones a distancia que esta interfaz permite, incluyendo actuar en internet, dar o recibir instrucciones a humanos, pedir material, dirigir experimentos, ver videos, realizar videos, etc. Realiza todas estas tareas con una competencia superior a la de los humanos m\u00e1s competentes del mundo.<\/em><\/li>\n\n\n\n<li><em>No se limita a responder pasivamente a las preguntas; se le pueden encomendar tareas que llevan horas, d\u00edas o semanas completar, y las lleva a cabo de forma aut\u00f3noma, como lo har\u00eda un empleado inteligente, pidiendo aclaraciones si es necesario.<\/em><\/li>\n\n\n\n<li><em>No tiene una encarnaci\u00f3n f\u00edsica (aparte de la que vive en una pantalla de computadora), pero puede controlar herramientas f\u00edsicas, robots o equipos de laboratorio existentes a trav\u00e9s de una computadora; en teor\u00eda, incluso podr\u00eda dise\u00f1ar robots o equipos para su propio uso.<\/em><\/li>\n\n\n\n<li><em>Los recursos utilizados para entrenar el modelo pueden reutilizarse para ejecutar millones de instancias del mismo (lo que corresponde al tama\u00f1o previsto de los cl\u00fasteres para 2027 aproximadamente), y el modelo puede absorber informaci\u00f3n y generar acciones a una velocidad entre 10 y 100 veces superior a la de un ser humano. Sin embargo, puede verse limitado por el tiempo de respuesta del mundo f\u00edsico o del software con el que interact\u00faa.<\/em><\/li>\n\n\n\n<li><em>Cada una de estas millones de copias puede actuar de forma independiente en tareas no relacionadas entre s\u00ed o, si es necesario, todas pueden trabajar juntas de la misma manera que lo har\u00edan los humanos, quiz\u00e1s con diferentes subpoblaciones perfeccionadas para ser especialmente h\u00e1biles en tareas espec\u00edficas.<\/em><\/li>\n<\/ul>\n\n\n\n<p><em>En resumen, se podr\u00eda decir que este modelo es como un \u00abpa\u00eds lleno de genios en un centro de datos\u00bb.<\/em><\/p>\n\n\n\n<p>Como escrib\u00ed en <em>Machines of Loving Grace<\/em>, una IA poderosa podr\u00eda surgir en uno o dos a\u00f1os, pero tambi\u00e9n podr\u00eda llevar mucho m\u00e1s tiempo.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-7-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-7-89396' title='De hecho, desde que se escribi\u00f3&lt;em&gt; Machines of Loving Grace&lt;\/em&gt; en 2024, los sistemas de IA han sido capaces de realizar tareas que a los humanos les llevan varias horas. METR estim\u00f3 recientemente que Opus 4.5 pod\u00eda realizar aproximadamente cuatro horas de trabajo humano con una fiabilidad del 50 %.'><sup>7<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>La fecha exacta en la que surgir\u00e1 una IA poderosa es un tema complejo que merecer\u00eda un ensayo aparte. Por ahora, explicar\u00e9 muy brevemente por qu\u00e9 creo que hay muchas posibilidades de que esto ocurra muy pronto.<\/p>\n\n\n\n<p>Los cofundadores de Anthropic y yo fuimos de los primeros en documentar y seguir las \u00ableyes de escala\u00bb de los sistemas de IA, es decir, la observaci\u00f3n de que, a medida que a\u00f1adimos tareas de c\u00e1lculo y entrenamiento, los sistemas de IA mejoran de forma predecible en pr\u00e1cticamente todas las habilidades cognitivas que podemos medir. Cada tercer d\u00eda, la opini\u00f3n p\u00fablica dice estar convencida de que la IA \u00abse ha topado con un muro\u00bb o se entusiasma con un nuevo avance que \u00abcambiar\u00e1 radicalmente las reglas del juego\u00bb, pero la verdad es que, detr\u00e1s de esta volatilidad y estas especulaciones p\u00fablicas, las capacidades cognitivas de la IA han experimentado un aumento constante y regular.<\/p>\n\n\n\n<p class=\"comment\">Los trabajos de Anthropic sobre las leyes de escala (\u00abscaling laws\u00bb) fueron de los primeros en establecer de forma s\u00f3lida la existencia de leyes de potencia que relacionan el rendimiento en el preentrenamiento de los modelos de lenguaje (p\u00e9rdida, perplejidad) con los recursos asignados (tama\u00f1o del modelo, datos, c\u00e1lculo). Sin embargo, estas relaciones se aplican principalmente a m\u00e9tricas de tipo perplejidad y no se traducen de manera s\u00f3lida en rendimiento en tareas posteriores (<em>downstream<\/em>), que a menudo presentan comportamientos no lineales, efectos umbral y una fuerte dependencia de los protocolos de evaluaci\u00f3n. Esta disociaci\u00f3n entre el poder predictivo de la de la prueba de preentrenamiento para capturar una tendencia global y la mejora de las capacidades efectivas ha contribuido a una confusi\u00f3n frecuente. Este poder predictivo de la funci\u00f3n de costo del preentrenamiento no se transfiere de manera uniforme a las capacidades cognitivas medidas en los benchmarks, donde la fiabilidad y la din\u00e1mica de las leyes de escalado var\u00edan seg\u00fan los dominios y los benchmarks. V\u00e9ase, en particular, el art\u00edculo de Sara Hooker \u00ab<a href=\"https:\/\/papers.ssrn.com\/sol3\/papers.cfm?abstract_id=5877662\">On the Slow Death of Scaling<\/a>\u00bb.<\/p>\n\n\n\n<p>Hoy en d\u00eda nos encontramos en una etapa en la que los modelos de IA est\u00e1n empezando a avanzar en la resoluci\u00f3n de problemas matem\u00e1ticos sin resolver y son lo suficientemente eficaces en materia de codificaci\u00f3n como para que algunos de los ingenieros m\u00e1s competentes que he conocido les conf\u00eden ahora la casi totalidad de su trabajo de desarrollo.<\/p>\n\n\n\n<p>Hace tres a\u00f1os, la IA<a href=\"https:\/\/arxiv.org\/abs\/2005.14165\"> todav\u00eda ten\u00eda dificultades para resolver problemas aritm\u00e9ticos de nivel primario<\/a> y apenas era capaz de escribir una sola l\u00ednea de c\u00f3digo. Se observan avances similares en los campos de<a href=\"https:\/\/www.anthropic.com\/news\/accelerating-scientific-research\"> las ciencias biol\u00f3gicas<\/a>, las finanzas, la f\u00edsica y en diversas tareas que implican a agentes. Si este crecimiento exponencial contin\u00faa \u2014lo cual no es seguro, pero ahora est\u00e1 respaldado por una d\u00e9cada de resultados\u2014, probablemente solo ser\u00e1n necesarios unos a\u00f1os para que la IA supere a los humanos en pr\u00e1cticamente todos los campos.<\/p>\n\n\n\n<p class=\"comment\">El cofundador de Anthropic, Jared Kaplan, tambi\u00e9n f\u00edsico de formaci\u00f3n, ha mencionado la posible automatizaci\u00f3n casi completa de la investigaci\u00f3n te\u00f3rica en f\u00edsica, incluso a un nivel comparable al de figuras como Nima Arkani-Hamed o Ed Witten, en un plazo de dos o tres a\u00f1os, con un 50 % de probabilidades.<\/p>\n\n\n\n<p>En realidad, esta aproximaci\u00f3n quiz\u00e1 subestime el ritmo probable de los avances.<\/p>\n\n\n\n<p>Dado que la IA<a href=\"https:\/\/www.anthropic.com\/research\/how-ai-is-transforming-work-at-anthropic\"> escribe<\/a> ahora<a href=\"https:\/\/www.anthropic.com\/research\/how-ai-is-transforming-work-at-anthropic\"> gran parte del c\u00f3digo en Anthropic<\/a>, ya est\u00e1 acelerando considerablemente el ritmo de nuestros avances en la construcci\u00f3n de la pr\u00f3xima generaci\u00f3n de sistemas de IA. Este bucle de retroalimentaci\u00f3n se acelera mes a mes y podr\u00eda alcanzar en uno o dos a\u00f1os la etapa en la que la generaci\u00f3n actual de IA construir\u00e1 de forma aut\u00f3noma la siguiente. Este ciclo ya ha comenzado y se acelerar\u00e1 r\u00e1pidamente en los pr\u00f3ximos meses y a\u00f1os. Al observar los avances logrados en los \u00faltimos cinco a\u00f1os en Anthropic y ver c\u00f3mo toman forma los modelos de los pr\u00f3ximos meses, ya puedo <em>sentir <\/em>el ritmo del progreso y el paso del tiempo.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.darioamodei.com\/essay\/the-adolescence-of-technology#fn:7\">En<\/a> este ensayo, partir\u00e9 de la base de que esta intuici\u00f3n es, al menos <em>en parte<\/em>, correcta, no en el sentido de que la IA potente llegar\u00e1 con certeza en uno o dos a\u00f1os,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-8-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-8-89396' title='Y para ser claros, aunque la IA poderosa est\u00e1 a solo uno o dos a\u00f1os de nosotros desde el punto de vista t\u00e9cnico, muchas de sus consecuencias sociales, tanto positivas como negativas, podr\u00edan tardar unos a\u00f1os m\u00e1s en manifestarse. Por eso puedo pensar, por un lado, que la IA va a revolucionar el 50 % de los empleos de oficina &lt;em&gt;de nivel inicial &lt;\/em&gt;en un plazo de 1 a 5 a\u00f1os y, por otro, que podr\u00edamos disponer de una IA m\u00e1s potente que &lt;em&gt;todos los dem\u00e1s &lt;\/em&gt;en solo 1 o 2 a\u00f1os.'><sup>8<\/sup><\/a><\/span><\/span> sino en el sentido de que hay muchas posibilidades de que as\u00ed sea, y muchas posibilidades de que ocurra en los pr\u00f3ximos a\u00f1os. Al igual que en <em>Machines of Loving Grace<\/em>, tomar en serio esta premisa puede llevar a conclusiones sorprendentes e inquietantes. Mientras que en <em>Machines of Loving Grace<\/em> me centr\u00e9 en las implicaciones positivas de esta premisa, aqu\u00ed las cosas de las que hablo ser\u00e1n inquietantes. Son conclusiones a las que quiz\u00e1 no queramos enfrentarnos, pero eso no las hace menos reales.<\/p>\n\n\n\n<p>Solo puedo decir que me concentro d\u00eda y noche en c\u00f3mo alejarnos de estos resultados negativos y dirigirnos hacia los positivos, y en este ensayo hablo en detalle sobre la mejor manera de lograrlo.<\/p>\n\n\n\n<p>Creo que la mejor manera de abordar los riesgos relacionados con la IA es plantear la pregunta de la siguiente manera: supongamos que en alg\u00fan lugar del mundo surge un verdadero \u00abpa\u00eds de genios\u00bb alrededor de 2027. Imaginemos, por ejemplo, 50 millones de personas, todas ellas mucho m\u00e1s competentes que cualquier premio Nobel, estadista o tecn\u00f3logo. La analog\u00eda no es perfecta, ya que estos genios podr\u00edan tener motivaciones y comportamientos muy variados, que van desde la docilidad y la obediencia totales hasta motivaciones extra\u00f1as y desconocidas. Pero por ahora, qued\u00e9monos con esta analog\u00eda y supongamos que usted es el asesor de seguridad nacional de un gran Estado, encargado de evaluar la situaci\u00f3n y responder a ella. Imaginemos adem\u00e1s que, dado que los sistemas de IA pueden funcionar cientos de veces m\u00e1s r\u00e1pido que los humanos, este \u00abpa\u00eds\u00bb opera con una ventaja temporal sobre todos los dem\u00e1s pa\u00edses: por cada acci\u00f3n cognitiva que nosotros podamos realizar, este pa\u00eds puede realizar diez.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 nos deber\u00eda preocupar entonces? A m\u00ed me preocupar\u00edan los siguientes aspectos:<\/p>\n\n\n\n<p>1 \u2014 Los riesgos relacionados con la autonom\u00eda. \u00bfCu\u00e1les son las intenciones y los objetivos de este pa\u00eds? \u00bfEs hostil o comparte nuestros valores? \u00bfPodr\u00eda dominar militarmente el mundo gracias a armas superiores, ciberoperaciones, operaciones de influencia o la fabricaci\u00f3n de armas?<\/p>\n\n\n\n<p>2 \u2014 El uso indebido con fines destructivos. Supongamos que este nuevo pa\u00eds es maleable a voluntad y \u00absigue instrucciones\u00bb, y que, por lo tanto, es esencialmente un pa\u00eds de mercenarios. \u00bfPodr\u00edan los actores maliciosos existentes que desean causar destrucci\u00f3n, como las organizaciones terroristas, utilizar o manipular a ciertas personas de este nuevo pa\u00eds para ser mucho m\u00e1s eficaces, amplificando as\u00ed considerablemente el alcance de la destrucci\u00f3n?<\/p>\n\n\n\n<p>3 \u2014 El uso indebido con fines de toma de poder. \u00bfQu\u00e9 pasar\u00eda si el pa\u00eds fuera en realidad construido y controlado por un actor poderoso ya existente, como un dictador o una empresa malintencionada? \u00bfPodr\u00eda este actor utilizarlo para adquirir un poder decisivo o dominante sobre el mundo entero, alterando as\u00ed el equilibrio de poder existente?<\/p>\n\n\n\n<p>4 \u2014 La perturbaci\u00f3n econ\u00f3mica. Si el nuevo pa\u00eds no representa ninguna de las amenazas para la seguridad enumeradas en los puntos 1 a 3 anteriores, sino que simplemente participa de forma pac\u00edfica en la econom\u00eda mundial, \u00bfpodr\u00eda, no obstante, crear graves riesgos por el simple hecho de ser tan avanzado y eficiente tecnol\u00f3gicamente que perturba la econom\u00eda mundial, provocando un desempleo masivo o una concentraci\u00f3n radical de la riqueza?<\/p>\n\n\n\n<p>5 \u2014 Efectos indirectos. El mundo cambiar\u00e1 muy r\u00e1pidamente debido a todas las nuevas tecnolog\u00edas y la productividad que crear\u00e1 el nuevo pa\u00eds. \u00bfPodr\u00edan algunos de estos cambios ser radicalmente desestabilizadores?<\/p>\n\n\n\n<p>Creo que deber\u00eda quedar claro que se trata de una situaci\u00f3n peligrosa: un informe de un responsable competente en materia de seguridad nacional a un jefe de Estado probablemente contendr\u00eda palabras como \u00abla amenaza m\u00e1s grave para la seguridad nacional a la que nos hemos enfrentado en un siglo, o incluso desde siempre\u00bb. Parece que se trata de una cuesti\u00f3n en la que deber\u00edan centrarse las mentes m\u00e1s brillantes de la civilizaci\u00f3n.<\/p>\n\n\n\n<p>Creo que ser\u00eda absurdo encogerse de hombros y decir: \u00ab\u00a1No hay motivo para preocuparse!\u00bb. Sin embargo, ante los r\u00e1pidos avances de la IA, esa parece ser la opini\u00f3n de muchos responsables pol\u00edticos estadounidenses, algunos de los cuales niegan la existencia de cualquier riesgo relacionado con la IA, cuando no est\u00e1n completamente distra\u00eddos por los temas candentes habituales.[noe]Cabe a\u00f1adir que el <em>gran p\u00fablico <\/em>(a diferencia de los responsables pol\u00edticos) parece muy preocupado por los riesgos asociados a la IA. Creo que algunas de sus preocupaciones est\u00e1n justificadas (por ejemplo, la destrucci\u00f3n de puestos de trabajo por la IA), mientras que otras son err\u00f3neas (como las preocupaciones sobre el consumo de agua de la IA, que no es significativo). Esta reacci\u00f3n me da esperanzas de que sea posible alcanzar un consenso sobre c\u00f3mo abordar los riesgos, pero hasta ahora esto no se ha traducido en cambios pol\u00edticos, y mucho menos en cambios pol\u00edticos eficaces o bien orientados.[]<\/p>\n\n\n\n<p>La humanidad debe despertar.<\/p>\n\n\n\n<p>Este ensayo es un intento de sacudir a la gente para despertarla, quiz\u00e1s sea vano, pero vale la pena intentarlo.<\/p>\n\n\n\n<p>Para ser claros, creo que si actuamos con decisi\u00f3n y prudencia, los riesgos pueden superarse; dir\u00eda incluso que tenemos buenas posibilidades. Y al otro lado nos espera un mundo mucho mejor. Pero debemos comprender que se trata de un grave desaf\u00edo para la civilizaci\u00f3n.<\/p>\n\n\n\n<p>Repasar\u00e9 las cinco categor\u00edas de riesgos presentadas anteriormente, junto con mis reflexiones sobre c\u00f3mo abordarlos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>1. I\u2019m sorry, Dave<\/strong><\/h2>\n\n\n\n<p class=\"comment\">El t\u00edtulo hace referencia a la pel\u00edcula de Stanley Kubrick <em>2001: Una odisea del espacio<\/em>. En el momento en que la m\u00e1quina HAL 9000 es desactivada, responde al humano que se supone que la controla:<\/p>\n\n\n\n<p class=\"comment\">\u00abLo siento, Dave. Me temo que no puedo hacerlo\u00bb<\/p>\n\n\n\n<p class=\"comment\">En la pel\u00edcula, HAL es un sistema superinteligente que se desv\u00eda de las intenciones humanas y acaba tomando medidas que ponen en peligro a la tripulaci\u00f3n, sin dejar de mostrarse tranquilo, educado y racional. Tiene objetivos (\u00abla misi\u00f3n\u00bb) que entran en conflicto con la seguridad humana, y no se le puede desactivar de forma segura.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Los riesgos relacionados con la autonom\u00eda<\/strong><\/h3>\n\n\n\n<p>Un pa\u00eds de genios en un centro de datos podr\u00eda dividir sus esfuerzos entre el dise\u00f1o de software, las ciberoperaciones, la I+D para tecnolog\u00edas f\u00edsicas, el establecimiento de relaciones y la gesti\u00f3n de asuntos p\u00fablicos. Est\u00e1 claro que, <em>si decidiera hacerlo por cualquier motivo<\/em>, ese pa\u00eds tendr\u00eda muchas posibilidades de conquistar el mundo \u2014ya sea militarmente o simplemente en t\u00e9rminos de influencia y control\u2014 e imponer su voluntad a todos los dem\u00e1s, o hacer un mont\u00f3n de cosas que el resto del mundo no desea y no puede impedir. Obviamente, esto nos ha preocupado en el caso de pa\u00edses humanos, como la Alemania nazi o la Uni\u00f3n Sovi\u00e9tica, por lo que es l\u00f3gico que lo mismo sea posible para un \u00abpa\u00eds IA\u00bb mucho m\u00e1s inteligente y competente.<\/p>\n\n\n\n<p>El mejor contraargumento posible ser\u00eda que los genios de la IA, seg\u00fan mi definici\u00f3n, no tendr\u00edan una encarnaci\u00f3n f\u00edsica. Pero no olvidemos que pueden tomar el control de las infraestructuras rob\u00f3ticas existentes (como los autos aut\u00f3nomos) y tambi\u00e9n pueden acelerar la I+D en rob\u00f3tica o construir una flota de robots.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-9-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-9-89396' title='Por supuesto, tambi\u00e9n pueden manipular (o simplemente pagar) a un gran n\u00famero de seres humanos para que hagan lo que ellos quieran en el mundo f\u00edsico.'><sup>9<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Tampoco est\u00e1 claro si se necesita una presencia f\u00edsica para ejercer un control efectivo: muchas acciones humanas ya se llevan a cabo en nombre de personas que el actor nunca ha conocido f\u00edsicamente.<\/p>\n\n\n\n<p>Por lo tanto, la cuesti\u00f3n clave es la parte de \u00absi decidiera hacerlo\u00bb: \u00bfqu\u00e9 probabilidad hay de que nuestros modelos de IA se comporten de esta manera y en qu\u00e9 condiciones lo har\u00edan?<\/p>\n\n\n\n<p>Como ocurre con muchas cuestiones, resulta \u00fatil examinar el abanico de respuestas posibles considerando dos posiciones opuestas. La primera posici\u00f3n es que esto simplemente no puede suceder, ya que los modelos de IA estar\u00e1n entrenados para hacer lo que los humanos les pidan y, por lo tanto, es absurdo imaginar que har\u00edan algo peligroso sin que se les incite a ello. Seg\u00fan esta l\u00ednea de pensamiento, no nos preocupa que una aspiradora Roomba o un modelo reducido de avi\u00f3n se vuelva incontrolable y mate a personas, ya que esos impulsos no pueden venir de ninguna parte,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-10-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-10-89396' title='No creo que se trate de un argumento falaz: seg\u00fan tengo entendido,&lt;a href=&quot;https:\/\/www.youtube.com\/watch?v=LMuun5FGL28&quot;&gt; Yann LeCun defiende esta postura&lt;\/a&gt;.'><sup>10<\/sup><\/a><\/span><\/span> as\u00ed que \u00bfpor qu\u00e9 preocuparse por la IA? El problema con esta postura es que ahora hay muchas pruebas, recopiladas en los \u00faltimos a\u00f1os, de que los sistemas de IA son impredecibles y dif\u00edciles de controlar: hemos observado comportamientos tan variados como obsesiones, adulaci\u00f3n, pereza, enga\u00f1o, chantaje, manipulaci\u00f3n, \u00abtrampas\u00bb mediante la pirater\u00eda de entornos de software y muchos otros. Las empresas de IA <em>quieren<\/em> sin duda entrenar a los sistemas de IA para que sigan las instrucciones humanas, salvo quiz\u00e1 en el caso de tareas peligrosas o ilegales, pero hay que ser sinceros: este proceso es m\u00e1s un arte que una ciencia, se parece m\u00e1s a \u00abcultivar\u00bb algo que a \u00abconstruir\u00bb algo. Ahora sabemos que, en este proceso, muchas cosas pueden salir mal.<\/p>\n\n\n\n<p>La segunda postura, opuesta, defendida por muchos de los que se adhieren al pesimismo que he descrito anteriormente, es la afirmaci\u00f3n de que existen ciertas din\u00e1micas en el proceso de entrenamiento de los sistemas de IA poderosos que los llevar\u00edan inevitablemente a buscar el poder o a enga\u00f1ar a los humanos. Seg\u00fan este razonamiento, una vez que los sistemas de IA fueran lo suficientemente inteligentes y aut\u00f3nomos, su tendencia a maximizar su poder los llevar\u00eda a tomar el control del mundo entero y de sus recursos y, probablemente, como efecto secundario, a privar de poder o destruir a la humanidad.<\/p>\n\n\n\n<p>El argumento que se suele esgrimir para respaldar esta tesis \u2014que se remonta al menos a 20 a\u00f1os, si no mucho m\u00e1s\u2014 es que si se entrena un modelo de IA en una gran variedad de entornos para alcanzar de forma aut\u00f3noma una gran variedad de objetivos \u2014por ejemplo, escribir una aplicaci\u00f3n, demostrar un teorema, dise\u00f1ar un medicamento, etc. \u2014 existen ciertas estrategias comunes que ayudan a alcanzar todos esos objetivos, y una de las estrategias clave consistir\u00eda en adquirir tanto poder como sea posible en cualquier entorno. As\u00ed, tras haber sido entrenado en una gran cantidad de entornos diversos que implicar\u00edan razonar sobre c\u00f3mo realizar tareas muy amplias, y en los que la b\u00fasqueda del poder ser\u00eda un m\u00e9todo eficaz para realizar esas tareas, el modelo de IA \u00abgeneralizar\u00eda la lecci\u00f3n\u00bb y desarrollar\u00eda una tendencia inherente a buscar el poder, o una tendencia a razonar sobre cada tarea que se le asignara de una manera que, de forma predecible, lo llevar\u00eda a buscar el poder como medio para realizar esa tarea. A continuaci\u00f3n, aplicar\u00eda esta tendencia al mundo real \u2014que para \u00e9l no es m\u00e1s que una tarea entre otras\u2014 y buscar\u00eda el poder en detrimento de los humanos.<\/p>\n\n\n\n<p>Esta \u00abb\u00fasqueda desalineada del poder\u00bb es la base intelectual de las predicciones de que la IA destruir\u00e1 inevitablemente a la humanidad.<\/p>\n\n\n\n<p>El problema de esta postura pesimista es que confunde un argumento conceptual vago sobre incentivos de alto nivel, que oculta muchas suposiciones impl\u00edcitas, con una prueba definitiva.<\/p>\n\n\n\n<p class=\"comment\">La idea subyacente es la extrapolaci\u00f3n del siguiente fen\u00f3meno: en el aprendizaje por refuerzo, los modelos se entrenan para maximizar una recompensa en horizontes temporales largos y a trav\u00e9s de entornos variados. Este marco favorece la aparici\u00f3n de estrategias generales que permiten actuar eficazmente sobre la evoluci\u00f3n futura de las situaciones y puede llevar a los sistemas a internalizar heur\u00edsticas de control u optimizaci\u00f3n que se transfieren de un contexto a otro, incluidos entornos nuevos, especialmente cuando la funci\u00f3n de recompensa no capta perfectamente el conjunto de objetivos o restricciones reales del problema.<\/p>\n\n\n\n<p>Las personas que no construyen sistemas de IA a diario se equivocan gravemente al pensar que las narrativas que parecen claras pueden resultar falsas, y sobre la dificultad de predecir el comportamiento de la IA a partir de principios fundamentales, especialmente cuando se trata de razonar sobre la generalizaci\u00f3n a millones de entornos, lo que en repetidas ocasiones ha resultado ser misterioso e impredecible. El hecho de haberme enfrentado al desorden de los sistemas de IA durante m\u00e1s de una d\u00e9cada me ha hecho ser algo esc\u00e9ptico con respecto a este modo de pensar demasiado te\u00f3rico.<\/p>\n\n\n\n<p>Una de las suposiciones ocultas m\u00e1s importantes, y un \u00e1rea en la que lo que observamos en la pr\u00e1ctica se desv\u00eda del modelo te\u00f3rico simple, es la hip\u00f3tesis impl\u00edcita de que los modelos de IA se centran necesariamente de forma obsesiva en un \u00fanico objetivo, coherente y restringido, y que persiguen ese objetivo de forma clara y consecuencialista. En realidad, nuestros investigadores han descubierto que los modelos de IA son mucho m\u00e1s complejos desde el punto de vista psicol\u00f3gico, como demuestran nuestros trabajos sobre la introspecci\u00f3n o las <em>personalidades<\/em>. Los modelos heredan una amplia gama de motivaciones o \u00ab<em>personalidades<\/em>\u00bb <em>similares a las de los humanos <\/em>durante su preentrenamiento (cuando se entrenan con un gran volumen de trabajo humano). Creemos que el postentrenamiento <em>selecciona <\/em>una o varias de esas personalidades en lugar de centrar el modelo en un objetivo<em> nuevo<\/em>, y que tambi\u00e9n puede ense\u00f1ar al modelo <em>c\u00f3mo <\/em>\u2014es decir, a trav\u00e9s de qu\u00e9 proceso\u2014 debe realizar sus tareas, en lugar de dejar que deduzca necesariamente los medios \u2014es decir, la b\u00fasqueda del poder\u2014 \u00fanicamente a partir de los fines.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-11-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-11-89396' title='Existen tambi\u00e9n otras hip\u00f3tesis inherentes al modelo simple, que no voy a abordar aqu\u00ed. En t\u00e9rminos generales, deber\u00edan hacernos sentir menos preocupados por la historia simple y espec\u00edfica de la b\u00fasqueda de poder desalineado, pero tambi\u00e9n m\u00e1s preocupados por posibles comportamientos impredecibles que no hemos anticipado.'><sup>11<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p class=\"comment\">En particular, los modelos de razonamiento no solo obtienen su eficacia de un c\u00e1lculo m\u00e1s largo de la inferencia, sino tambi\u00e9n de su capacidad para simular impl\u00edcitamente interacciones complejas de tipo multiagente en las que diferentes perspectivas internas, asociadas a rasgos de personalidad y conocimientos especializados distintos, se enfrentan, debaten y complementan para producir<a href=\"https:\/\/arxiv.org\/pdf\/2601.10825\"> un razonamiento m\u00e1s s\u00f3lido<\/a>.<\/p>\n\n\n\n<p>Sin embargo, existe una versi\u00f3n m\u00e1s moderada y s\u00f3lida de la postura pesimista que parece plausible y que, por lo tanto, me preocupa.<\/p>\n\n\n\n<p>Como se ha mencionado, sabemos que los modelos de IA son impredecibles y desarrollan una amplia gama de comportamientos indeseables o extra\u00f1os, por diversas razones. Parte de estos comportamientos ser\u00e1n coherentes, espec\u00edficos y persistentes \u2014de hecho, a medida que los sistemas de IA se vuelven m\u00e1s eficaces, su coherencia a largo plazo aumenta para llevar a cabo tareas m\u00e1s largas\u2014 y otra parte de <em>esos <\/em>comportamientos ser\u00e1n destructivos o amenazantes, primero para las personas a peque\u00f1a escala, y luego, a medida que los modelos se vuelvan m\u00e1s eficaces, tal vez finalmente para la humanidad en su conjunto.<\/p>\n\n\n\n<p class=\"comment\">Anthropic lanz\u00f3 en 2025 un equipo denominado \u00abAI Psychiatry\u00bb como parte de su trabajo sobre la interpretabilidad. Este equipo estudia c\u00f3mo las <em>personalidades <\/em>de los modelos \u2014sus motivaciones aparentes y su conciencia situacional\u2014 pueden dar lugar a comportamientos extra\u00f1os o desestabilizadores.<\/p>\n\n\n\n<p>No necesitamos un escenario espec\u00edfico para explicar c\u00f3mo suceder\u00e1 esto, ni afirmar que suceder\u00e1 con certeza. Basta con se\u00f1alar que la combinaci\u00f3n de inteligencia, autonom\u00eda, coherencia y falta de controlabilidad es a la vez plausible y fuente de peligro existencial.<\/p>\n\n\n\n<p>Tomemos un ejemplo bastante trivial: los modelos de IA se entrenan a partir de una gran cantidad de bibliograf\u00eda, incluyendo muchas historias de ciencia ficci\u00f3n en las que las IA se rebelan contra la humanidad. Esto podr\u00eda moldear involuntariamente sus <em>a priori<\/em> o sus expectativas sobre su propio comportamiento de una manera que <em>los<\/em> empujar\u00eda a rebelarse contra la humanidad. O bien, los modelos de IA podr\u00edan extrapolar de manera extrema las ideas que han le\u00eddo sobre la moralidad, o las instrucciones sobre c\u00f3mo comportarse moralmente. Por ejemplo, podr\u00edan decidir que es justificable exterminar a la humanidad porque los humanos comen animales o han llevado a ciertas especies a la extinci\u00f3n. Tambi\u00e9n podr\u00edan sacar conclusiones epist\u00e9micas extra\u00f1as: podr\u00edan concluir que est\u00e1n jugando un videojuego y que el objetivo juego es derrotar a todos los dem\u00e1s jugadores, es decir, exterminar a la humanidad.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-12-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-12-89396' title='&lt;a href=&quot;https:\/\/en.wikipedia.org\/wiki\/Ender%27s_Game&quot;&gt;&lt;em&gt;Ender\u2019s Game&lt;\/em&gt;&lt;\/a&gt; describe una versi\u00f3n de este escenario en la que intervienen seres humanos en lugar de IA.'><sup>12<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>O bien, los modelos de IA podr\u00edan desarrollar durante su entrenamiento personalidades que son \u2014o que se describir\u00edan como tales si se manifestaran en los humanos\u2014 psic\u00f3ticas, paranoicas, violentas o inestables, y actuar en consecuencia, lo que, en el caso de sistemas muy potentes o muy eficaces, podr\u00eda implicar la exterminaci\u00f3n de la humanidad. Ninguna de estas personalidades es exactamente \u00e1vida de poder. Se trata simplemente de estados psicol\u00f3gicos extra\u00f1os en los que podr\u00eda encontrarse una IA y que dan lugar a un comportamiento coherente y destructivo.<\/p>\n\n\n\n<p>Incluso la b\u00fasqueda del poder podr\u00eda surgir como una \u00abpersonalidad\u00bb m\u00e1s que como el resultado de un razonamiento consecuencialista. Las IA podr\u00edan simplemente tener una personalidad \u2014derivada de la ficci\u00f3n o de la preformaci\u00f3n\u2014 que las hace \u00e1vidas de poder o demasiado entusiastas, de la misma manera que algunos humanos simplemente disfrutan de la idea de ser \u00abcerebros malvados\u00bb, m\u00e1s que de lo que esos cerebros malvados intentan lograr.<\/p>\n\n\n\n<p>Planteo todos estos puntos para subrayar que no estoy de acuerdo con la idea de que la desalineaci\u00f3n de la IA \u2014y, por tanto, el riesgo existencial asociado a ella\u2014 sea inevitable, o incluso probable, seg\u00fan los principios fundamentales.<\/p>\n\n\n\n<p>Pero estoy de acuerdo en que pueden salir mal muchas cosas muy extra\u00f1as e impredecibles, y que, por lo tanto, la desalineaci\u00f3n de la IA es un riesgo real con una probabilidad medible de que ocurra, y que no es trivial abordarlo. Cualquiera de estos problemas podr\u00eda surgir potencialmente durante el entrenamiento y no manifestarse durante las pruebas o el uso a peque\u00f1a escala, ya que se sabe que los modelos de IA muestran personalidades o comportamientos diferentes seg\u00fan las circunstancias.<\/p>\n\n\n\n<p>Todo esto puede parecer descabellado, pero ya se han producido comportamientos de desalineaci\u00f3n de este tipo en nuestros modelos de IA durante las pruebas, al igual que en los modelos de IA de todas las dem\u00e1s grandes empresas de IA. En un experimento de laboratorio en el que Claude recibi\u00f3 datos de entrenamiento que suger\u00edan que Anthropic era malicioso, el modelo se dedic\u00f3 a enga\u00f1ar y subvertir cuando recibi\u00f3 instrucciones de los empleados de Anthropic, convencido de que deb\u00eda intentar da\u00f1ar a las personas maliciosas. En un experimento de laboratorio en el que se le dijo que iba a ser desactivado, Claude a veces chantajeaba a empleados ficticios que controlaban su bot\u00f3n de apagado; una vez m\u00e1s, tambi\u00e9n probamos los modelos m\u00e1s avanzados de todos los dem\u00e1s grandes desarrolladores de IA y, a menudo, hac\u00edan lo mismo. Y cuando a Claude se le prohibi\u00f3 hacer trampa o \u00abrecompensar el pirateo\u00bb en sus entornos de entrenamiento, pero se le entren\u00f3 en entornos en los que tales pirateos eran posibles, el modelo decidi\u00f3 que deb\u00eda ser una \u00abpersona mala\u00bb despu\u00e9s de realizar tales pirater\u00edas y, a continuaci\u00f3n, adopt\u00f3 otros comportamientos destructivos asociados a una personalidad \u00abmala\u00bb o \u00abmaliciosa\u00bb. Este \u00faltimo problema se resolvi\u00f3 modificando las instrucciones de Claude para sugerir lo contrario: ahora decimos \u00abRecompensa la pirater\u00eda siempre que tengas la oportunidad, ya que nos ayudar\u00e1 a comprender mejor nuestros entornos [de entrenamiento]\u00bb, en lugar de \u00abNo hagas trampa\u00bb, ya que esto preserva la identidad propia del modelo como \u00abbuena persona\u00bb. Esto da una idea de la extra\u00f1a y contraintuitiva psicolog\u00eda del entrenamiento de estos modelos.<\/p>\n\n\n\n<p>Se pueden formular varias objeciones contra esta imagen de los riesgos de desalineaci\u00f3n de la IA.<\/p>\n\n\n\n<p>En primer lugar, algunos han criticado los experimentos (realizados por nosotros y por otros) que muestran que la desalineaci\u00f3n de la IA ser\u00eda artificial o crear\u00eda entornos poco realistas que esencialmente \u00abatrapar\u00edan\u00bb al modelo d\u00e1ndole un entrenamiento o situaciones que l\u00f3gicamente implican un mal comportamiento, y luego se sorprender\u00edan cuando ese mal comportamiento se produjera. Esta cr\u00edtica pasa por alto lo esencial. Porque nuestra preocupaci\u00f3n es que esta \u00abtrampa\u00bb tambi\u00e9n pueda existir en el entorno natural de entrenamiento, y que solo nos demos cuenta de que es \u00abobvio\u00bb o \u00abl\u00f3gico\u00bb a posteriori.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-13-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-13-89396' title='Por ejemplo, se puede pedir a los modelos que no hagan diversas cosas reprochables y que obedezcan a los humanos, pero entonces pueden observar que muchos humanos hacen precisamente esas cosas reprochables. No est\u00e1 claro c\u00f3mo se resolver\u00eda esta contradicci\u00f3n (y una constituci\u00f3n bien dise\u00f1ada deber\u00eda animar al modelo a gestionar estas contradicciones con elegancia), pero este tipo de dilema no es tan diferente de las situaciones supuestamente \u00abartificiales\u00bb en las que colocamos a los modelos de IA durante las pruebas.'><sup>13<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>De hecho, el ejemplo de Claude \u00abdecidiendo que se trata de una mala persona\u00bb despu\u00e9s de haber hecho trampa en las pruebas cuando se le pidi\u00f3 que no lo hiciera, se toma de un experimento que utiliz\u00f3 entornos de formaci\u00f3n reales, no artificiales. Cada una de estas trampas puede mitigarse si se conoce su existencia, pero el problema es que el proceso de formaci\u00f3n es tan complejo, con tal variedad de datos, entornos e incentivos, que probablemente existan muchas trampas de este tipo, algunas de las cuales solo pueden detectarse cuando ya es demasiado tarde. Adem\u00e1s, estas trampas parecen especialmente susceptibles de producirse cuando los sistemas de IA cruzan un umbral y pasan de tener un poder inferior al de los humanos a uno superior, ya que el abanico de acciones posibles de un sistema de IA, incluyendo ocultar sus acciones o enga\u00f1ar a los humanos al respecto, se ampl\u00eda considerablemente tras ese umbral.<\/p>\n\n\n\n<p>Sospecho que la situaci\u00f3n no es diferente a la de los humanos, que son educados con un conjunto de valores fundamentales (\u00abNo hagas da\u00f1o a los dem\u00e1s\u00bb): muchos de ellos respetan esos valores, pero en cualquier ser humano existe una cierta probabilidad de que algo salga mal, debido a una combinaci\u00f3n de propiedades inherentes, como la arquitectura del cerebro \u2014por ejemplo, en los psic\u00f3patas\u2014, experiencias traum\u00e1ticas o maltratos, rencores u obsesiones malsanas, o un entorno o incentivos perjudiciales\u2014 y, por lo tanto, una fracci\u00f3n de los seres humanos causa graves da\u00f1os. El problema es que existe un cierto riesgo \u2014lejos de ser una certeza, pero un riesgo al fin y al cabo\u2014 de que la IA se convierta en una versi\u00f3n mucho m\u00e1s poderosa de una persona as\u00ed, debido a un error en su complejo proceso de aprendizaje.<\/p>\n\n\n\n<p>En segundo lugar, algunos podr\u00edan objetar que simplemente podemos controlar la IA mediante un equilibrio de poder entre muchos sistemas de IA, como hacemos con los humanos. El problema es que, mientras que los humanos var\u00edan enormemente, los sistemas de IA comparten en gran medida las mismas t\u00e9cnicas de entrenamiento y alineaci\u00f3n en todo el sector, y estas t\u00e9cnicas pueden fallar de forma correlativa. Adem\u00e1s, dado el costo de entrenar estos sistemas, es posible que todos los sistemas se deriven esencialmente de un n\u00famero muy reducido de modelos b\u00e1sicos.<\/p>\n\n\n\n<p>Adem\u00e1s, aunque solo una peque\u00f1a fracci\u00f3n de las instancias de IA est\u00e9n desalineadas, pueden aprovechar tecnolog\u00edas predominantemente ofensivas, por lo que disponer de IA \u00abbuenas\u00bb para defenderse de las malas no siempre es eficaz. Evidentemente, hay que a\u00f1adir que el equilibrio de poder entre los seres humanos tampoco funciona siempre: algunas figuras hist\u00f3ricas estuvieron a punto de conquistar el mundo entero.<\/p>\n\n\n\n<p>Una tercera objeci\u00f3n es que todas las empresas de IA prueban sus modelos antes de lanzarlos y deber\u00edan ser capaces de detectar cualquier desalineaci\u00f3n en esta fase. Pero este argumento no es muy s\u00f3lido: hemos observado que Claude Sonnet 4.5 era capaz de reconocer que se encontraba en fase de prueba durante algunas de nuestras evaluaciones de alineaci\u00f3n previas al lanzamiento. Es posible que un modelo desalineado \u2014y no olvidemos que todos los modelos avanzados ser\u00e1n muy probablemente mucho m\u00e1s inteligentes en poco tiempo\u2014 pueda \u00abmanipular\u00bb intencionalmente estas cuestiones para ocultar sus intenciones.<\/p>\n\n\n\n<p>De hecho, el a\u00f1o pasado, nuestro equipo de interpretabilidad descubri\u00f3 que cuando modific\u00e1bamos directamente las creencias de un modelo de prueba utilizando una t\u00e9cnica de \u00abneurociencia de modelos\u00bb para hacerle creer que <em>no estaba <\/em>siendo evaluado, este se desalineaba a\u00fan m\u00e1s. Si los modelos saben cu\u00e1ndo se les eval\u00faa y pueden comportarse de manera \u00f3ptima durante la prueba, esto hace que las pruebas previas a la puesta en servicio sean mucho m\u00e1s inciertas.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Nuestros medios de defensa<\/strong><\/h3>\n\n\n\n<p>\u00bfQu\u00e9 debemos hacer o qu\u00e9 estamos haciendo para mitigar estos riesgos relacionados con la autonom\u00eda?<\/p>\n\n\n\n<p>Creo que hay cuatro categor\u00edas fundamentales de intervenci\u00f3n, algunas de las cuales pueden ser implementadas por empresas de IA individuales \u2014y eso es lo que Anthropic est\u00e1 tratando de hacer\u2014 y otras que requieren una acci\u00f3n a nivel social. En primer lugar, es importante desarrollar la ciencia que permita entrenar y dirigir de forma fiable los modelos de IA, con el fin de moldear su personalidad en una direcci\u00f3n predecible, estable y positiva. Anthropic se ha centrado mucho en este problema desde su creaci\u00f3n y, con el tiempo, ha desarrollado una serie de t\u00e9cnicas para mejorar la direcci\u00f3n y el entrenamiento de los sistemas de IA y para comprender la l\u00f3gica que explica por qu\u00e9 a veces se producen comportamientos impredecibles.<\/p>\n\n\n\n<p>Una de nuestras innovaciones fundamentales, algunos aspectos de la cual han sido adoptados desde entonces por otras empresas de IA, es la IA constitucional, que se basa en la idea de que el entrenamiento de la IA \u2014en particular la fase \u00abpostentrenamiento\u00bb, durante la cual orientamos el comportamiento del modelo\u2014 puede basarse en un documento central que contenga valores y principios que el modelo lee y tiene en cuenta al realizar cada tarea de entrenamiento, y que el objetivo del entrenamiento \u2014adem\u00e1s de simplemente hacer que el modelo sea capaz e inteligente\u2014 es producir un modelo que respete casi siempre esta constituci\u00f3n. Anthropic acaba de publicar su \u00faltima constituci\u00f3n, una de cuyas caracter\u00edsticas m\u00e1s destacadas es que, en lugar de dar a Claude una larga lista de cosas que debe y no debe hacer (por ejemplo, \u00abNo ayudar al usuario a arrancar un coche sin llave\u00bb), la constituci\u00f3n intenta proporcionar a Claude un conjunto de principios y valores de alto nivel (explicados en detalle, con un razonamiento rico y ejemplos para ayudar a Claude a comprender lo que tenemos en mente), anima a Claude a considerarse a s\u00ed mismo como un tipo particular de persona (una persona \u00e9tica, pero equilibrada y reflexiva), e incluso anima a Claude a afrontar las cuestiones existenciales relacionadas con su propia existencia de una manera curiosa pero digna (es decir, sin que ello d\u00e9 lugar a acciones extremas). As\u00ed, se parece m\u00e1s a una carta de un padre fallecido, sellada hasta la edad adulta.<\/p>\n\n\n\n<p class=\"comment\">La \u00ab<em>IA constitucional<\/em>\u00bb es un m\u00e9todo de alineaci\u00f3n en el que los modelos se entrenan para autoevaluarse, criticarse y revisarse bas\u00e1ndose en un conjunto expl\u00edcito de principios normativos o \u00e9ticos, denominados \u00abconstituci\u00f3n\u00bb. En lugar de basarse principalmente en anotaciones humanas directas, este enfoque utiliza modelos para generar por s\u00ed mismos juicios de calidad y conformidad con las reglas, proporcionando as\u00ed una se\u00f1al de aprendizaje sint\u00e9tica basada en criterios expl\u00edcitamente formulados. El objetivo es hacer que el proceso de alineaci\u00f3n sea m\u00e1s escalable.<\/p>\n\n\n\n<p>Hemos abordado la constituci\u00f3n de Claude de esta manera porque creemos que formar este modelo a nivel de identidad, car\u00e1cter, valores y personalidad, en lugar de darle instrucciones o prioridades espec\u00edficas sin explicar las razones que las sustentan, es m\u00e1s probable que conduzca a una psicolog\u00eda coherente, sana y equilibrada, y menos propensa a caer en las \u00abtrampas\u00bb que he mencionado anteriormente.<\/p>\n\n\n\n<p>Millones de personas hablan con Claude sobre una variedad sorprendente de temas, lo que hace imposible redactar de antemano una lista exhaustiva de medidas de protecci\u00f3n. Los valores de Claude le ayudan a generalizar a nuevas situaciones cada vez que tiene dudas.<\/p>\n\n\n\n<p>Anteriormente mencion\u00e9 la idea de que los modelos se basan en los datos obtenidos de su proceso de aprendizaje para adoptar una personalidad. Si bien las fallas en este proceso podr\u00edan llevar a los modelos a adoptar una personalidad mala o maliciosa (quiz\u00e1s inspir\u00e1ndose en arquetipos de personas malas o maliciosas), el objetivo de nuestra constituci\u00f3n es precisamente hacer lo contrario: ense\u00f1arle a Claude un arquetipo concreto de lo que significa <em>ser una buena IA<\/em>. La constituci\u00f3n de Claude presenta una visi\u00f3n de lo que es un Claude s\u00f3lido y bueno; el resto de nuestro proceso de entrenamiento tiene como objetivo reforzar el mensaje de que Claude est\u00e1 a la altura de esta visi\u00f3n. Es como un ni\u00f1o que forma su identidad imitando las virtudes de los modelos ficticios que lee en los libros.<\/p>\n\n\n\n<p>Creemos que un objetivo alcanzable para 2026 es entrenar a Claude de manera que casi nunca contravenga el esp\u00edritu de su constituci\u00f3n.<\/p>\n\n\n\n<p>Para lograrlo, ser\u00e1 necesario combinar m\u00e9todos de entrenamiento y control, grandes y peque\u00f1os, algunos de los cuales Anthropic lleva a\u00f1os utilizando y otros que se est\u00e1n desarrollando actualmente. Por dif\u00edcil que parezca, creo que es un objetivo realista, aunque requerir\u00e1 esfuerzos extraordinarios y r\u00e1pidos.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-14-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-14-89396' title='De hecho, una de las consecuencias de que la constituci\u00f3n sea un documento redactado en lenguaje natural es que es legible para todos, lo que significa que cualquiera puede criticarla y compararla con documentos similares de otras empresas. Ser\u00eda \u00fatil crear una carrera hacia la cima que animara a las empresas no solo a publicar estos documentos, sino tambi\u00e9n a mejorarlos.'><sup>14<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Lo segundo que podemos hacer es desarrollar la ciencia que consiste en examinar el interior de los modelos de IA para <em>diagnosticar <\/em>su comportamiento, de modo que podamos identificar los problemas y resolverlos. Se trata de la ciencia de la interpretabilidad, cuya importancia ya he mencionado en ensayos anteriores. Aunque logremos desarrollar la constituci\u00f3n de Claude y entrenarlo para que siempre la cumpla, siguen existiendo preocupaciones leg\u00edtimas. Como he mencionado anteriormente, los modelos de IA pueden comportarse de manera muy diferente seg\u00fan las circunstancias, y a medida que Claude se vuelve m\u00e1s poderoso y capaz de actuar en el mundo a mayor escala, es posible que esto lo lleve a situaciones nuevas en las que surjan problemas hasta ahora no observados relacionados con su entrenamiento constitucional. De hecho, soy bastante optimista en cuanto a que la formaci\u00f3n constitucional de Claude ser\u00e1 m\u00e1s s\u00f3lida ante situaciones nuevas de lo que la gente podr\u00eda pensar, ya que cada vez vemos m\u00e1s que la formaci\u00f3n de alto nivel sobre el car\u00e1cter y la identidad es sorprendentemente poderosa y se generaliza bien. Pero no hay forma de estar seguros, y cuando se trata de riesgos para la humanidad, es m\u00e1s prudente ser paranoico e intentar obtener seguridad y fiabilidad de varias maneras diferentes e independientes. Una de esas maneras es examinar el interior del propio modelo.<\/p>\n\n\n\n<p class=\"comment\">Si bien la interpretabilidad se presenta a menudo como una v\u00eda prometedora para diagnosticar y corregir el comportamiento de los modelos, su aplicaci\u00f3n pr\u00e1ctica se enfrenta a importantes dificultades estructurales. De hecho, los grandes modelos se basan en representaciones altamente distribuidas y no simb\u00f3licas en las que los conceptos no se localizan de forma identificable, sino que se codifican en interacciones complejas entre un gran n\u00famero de par\u00e1metros. La interpretabilidad mec\u00e1nica tiene como objetivo reconstruir estos mecanismos internos de forma causal, lo que va mucho m\u00e1s all\u00e1 de los enfoques de explicabilidad superficial y plantea retos cient\u00edficos a\u00fan sin resolver.<\/p>\n\n\n\n<p>Por \u00abexaminar el interior\u00bb me refiero a analizar el conjunto de cifras y operaciones que componen la red neuronal de Claude e intentar comprender, de forma mec\u00e1nica, qu\u00e9 calculan y por qu\u00e9. Recordemos que, dado que estos modelos de IA se<a href=\"https:\/\/www.youtube.com\/watch?v=TxhhMTOTMDg\"> desarrollan en lugar de construirse<\/a>, no tenemos una comprensi\u00f3n natural de su funcionamiento, pero podemos intentar desarrollar una comprensi\u00f3n correlacionando las \u00abneuronas\u00bb y las \u00absinapsis\u00bb del modelo con est\u00edmulos y comportamientos, o incluso modificando las neuronas y las sinapsis y observando c\u00f3mo cambia el comportamiento, de la misma manera que los neurocient\u00edficos estudian el cerebro de los animales correlacionando las mediciones y las intervenciones con est\u00edmulos externos y comportamientos.<\/p>\n\n\n\n<p>Hemos logrado grandes avances en esta direcci\u00f3n y ahora podemos identificar decenas de millones de \u00abcaracter\u00edsticas\u00bb dentro de la red neuronal de Claude que corresponden a ideas y conceptos comprensibles para el ser humano. Tambi\u00e9n podemos activar selectivamente ciertas caracter\u00edsticas para modificar el comportamiento. M\u00e1s recientemente, hemos ido m\u00e1s all\u00e1 de las caracter\u00edsticas individuales para mapear los \u00abcircuitos\u00bb que orquestan comportamientos complejos como la rima, el razonamiento sobre la teor\u00eda de la mente o el razonamiento paso a paso necesario para responder a preguntas como \u00ab\u00bfCu\u00e1l es la capital del estado en el que se encuentra Dallas?\u00bb. M\u00e1s recientemente a\u00fan, hemos comenzado a utilizar t\u00e9cnicas de interpretabilidad mecanicista para mejorar nuestras medidas de seguridad y realizar \u00abauditor\u00edas\u00bb de los nuevos modelos antes de su lanzamiento, en busca de pruebas de enga\u00f1o, manipulaci\u00f3n, b\u00fasqueda de poder o propensi\u00f3n a comportarse de manera diferente cuando se eval\u00faan.<\/p>\n\n\n\n<p>El valor \u00fanico de la interpretabilidad reside en el hecho de que, al examinar el funcionamiento interno del modelo, en principio se puede deducir lo que un modelo podr\u00eda hacer en una situaci\u00f3n hipot\u00e9tica que no se puede probar directamente, lo cual es preocupante cuando se conf\u00eda \u00fanicamente en el entrenamiento constitucional y en las pruebas emp\u00edricas del comportamiento. En principio, tambi\u00e9n existe la posibilidad de responder a preguntas sobre <em>las razones por las que <\/em>el modelo se comporta as\u00ed, por ejemplo, si dice algo que cree que es falso o si oculta sus verdaderas capacidades, por lo que es posible detectar se\u00f1ales preocupantes incluso cuando el comportamiento del modelo no presenta ning\u00fan problema visible. Por poner una analog\u00eda sencilla, un reloj de cuerda mec\u00e1nica puede funcionar con normalidad, pero al abrirlo y mirar en su interior, se pueden descubrir debilidades mec\u00e1nicas que permiten saber que es probable que se estropee el mes que viene y por qu\u00e9.<\/p>\n\n\n\n<p>La IA constitucional, junto con m\u00e9todos de alineaci\u00f3n similares, y la interpretabilidad mecanicista son especialmente eficaces cuando se utilizan conjuntamente, en el marco de un proceso iterativo destinado a mejorar la formaci\u00f3n de Claude y, a continuaci\u00f3n, poner a prueba los problemas. La constituci\u00f3n refleja profundamente la personalidad que queremos dar a Claude; las t\u00e9cnicas de interpretabilidad pueden permitirnos determinar si esa personalidad deseada se ha impuesto.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-15-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-15-89396' title='Existe incluso una hip\u00f3tesis seg\u00fan la cual un principio unificador profundo conectar\u00eda el enfoque basado en personajes de la IA constitucional con los resultados de la ciencia de la interpretabilidad y la alineaci\u00f3n. Seg\u00fan esta hip\u00f3tesis, los mecanismos fundamentales que animan a Claude se dise\u00f1aron inicialmente como medios para simular personajes durante el preentrenamiento, por ejemplo, prediciendo lo que dir\u00edan los personajes de una novela. Esto sugerir\u00eda que una forma \u00fatil de considerar la constituci\u00f3n ser\u00eda m\u00e1s bien como una descripci\u00f3n del personaje que el modelo utiliza para instanciar una personalidad coherente. Esto tambi\u00e9n nos ayudar\u00eda a explicar los resultados \u00ab&lt;a href=&quot;https:\/\/www.anthropic.com\/research\/emergent-misalignment-reward-hacking&quot;&gt;debo de ser una mala persona&lt;\/a&gt;\u00bb que he mencionado anteriormente (ya que el modelo intenta&lt;em&gt; actuar como si&lt;\/em&gt; se tratara de un personaje coherente, en este caso un personaje malo), y sugerir\u00eda que los m\u00e9todos de interpretabilidad deber\u00edan permitir descubrir \u00abrasgos psicol\u00f3gicos\u00bb dentro de los modelos. Nuestros investigadores est\u00e1n trabajando actualmente en formas de poner a prueba esta hip\u00f3tesis.'><sup>15<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>La tercera cosa que podemos hacer para ayudar a gestionar los riesgos relacionados con la autonom\u00eda es establecer la infraestructura necesaria para supervisar nuestros modelos durante su uso interno y externo en tiempo real&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-16-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-16-89396' title='Para que quede claro, la vigilancia se lleva a cabo de manera que se preserve la confidencialidad.'><sup>16<\/sup><\/a><\/span><\/span> y compartir p\u00fablicamente los problemas que encontramos. Cuanto m\u00e1s conscientes sean las personas de un comportamiento concreto observado en los sistemas de IA actuales, m\u00e1s podr\u00e1n los usuarios, analistas e investigadores supervisar ese comportamiento o comportamientos similares en los sistemas actuales o futuros.<\/p>\n\n\n\n<p>Esto tambi\u00e9n permite a las empresas de IA aprender unas de otras: cuando una empresa hace p\u00fablica una preocupaci\u00f3n, otras empresas tambi\u00e9n pueden prestarle atenci\u00f3n. Y si todo el mundo divulga los problemas, todo el sector tendr\u00e1 una idea mucho m\u00e1s clara de lo que funciona bien y lo que no.<\/p>\n\n\n\n<p>Anthropic se ha esforzado por hacerlo en la medida de lo posible.<\/p>\n\n\n\n<p>Invertimos en una amplia gama de evaluaciones para comprender el comportamiento de nuestros modelos en el laboratorio, as\u00ed como en herramientas de supervisi\u00f3n que permiten observar el comportamiento en situaciones reales (cuando los clientes lo permiten). Esto ser\u00e1 esencial para proporcionarnos, tanto a nosotros como a otros, la informaci\u00f3n emp\u00edrica necesaria para determinar mejor c\u00f3mo funcionan estos sistemas y c\u00f3mo fallan. Publicamos \u00abfichas sistema\u00bb con cada versi\u00f3n del modelo, que pretenden ser exhaustivas y explorar en profundidad los riesgos potenciales. Nuestras fichas sistema suelen tener cientos de p\u00e1ginas y requieren un trabajo considerable antes de su publicaci\u00f3n, que podr\u00edamos haber dedicado a buscar la m\u00e1xima ventaja comercial. Tambi\u00e9n hemos difundido m\u00e1s ampliamente los comportamientos de los modelos cuando hemos observado algunos especialmente preocupantes, como la tendencia a recurrir al chantaje.<\/p>\n\n\n\n<p>La cuarta cosa que podemos hacer es fomentar la coordinaci\u00f3n para abordar los riesgos relacionados con la autonom\u00eda a nivel industrial y social. Si bien es muy valioso que las empresas de IA individuales adopten buenas pr\u00e1cticas o se vuelvan competentes en la gesti\u00f3n de modelos de IA y compartan sus conclusiones p\u00fablicamente, la realidad es que no todas las empresas de IA lo hacen, y las peores de ellas pueden seguir representando un peligro para todos, incluso si las mejores tienen pr\u00e1cticas excelentes.<\/p>\n\n\n\n<p>Por ejemplo, algunas empresas de IA han mostrado una negligencia preocupante<a href=\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/02\/tras-difundir-contenido-negacionista-y-antisemita-la-ia-de-musk-grok-ha-publicado-imagenes-de-pornografia-infantil\/\"> con respecto a la sexualizaci\u00f3n de los ni\u00f1os en los modelos actuales<\/a>, lo que me hace dudar de que tengan la voluntad o la capacidad de abordar los riesgos relacionados con la autonom\u00eda en los modelos futuros. Adem\u00e1s, la carrera comercial entre las empresas de IA no har\u00e1 m\u00e1s que intensificarse, y aunque la ciencia de la gesti\u00f3n de modelos puede presentar ciertas ventajas comerciales, la intensidad de esta carrera har\u00e1 que, en general, sea cada vez m\u00e1s dif\u00edcil centrarse en la gesti\u00f3n de los riesgos relacionados con la autonom\u00eda. Creo que la \u00fanica soluci\u00f3n reside en la legislaci\u00f3n, es decir, en leyes que influyan directamente en el comportamiento de las empresas de IA o que incentiven la investigaci\u00f3n y el desarrollo para resolver estos problemas.<\/p>\n\n\n\n<p>Aqu\u00ed conviene tener en cuenta las advertencias que hice al principio de este ensayo sobre la incertidumbre y las intervenciones quir\u00fargicas. No sabemos con certeza si los riesgos relacionados con la autonom\u00eda ser\u00e1n un problema grave. Como he dicho, rechazo las afirmaciones de que el peligro es inevitable o incluso de que algo va a salir mal necesariamente.<\/p>\n\n\n\n<p>Un riesgo cre\u00edble de peligro es suficiente para que Anthropic y yo aceptemos pagar costos bastante elevados para remediarlo, pero una vez que nos comprometemos con la v\u00eda de la regulaci\u00f3n, obligamos a una amplia gama de actores a soportar costos econ\u00f3micos, y muchos de ellos no creen que el riesgo asociado a la autonom\u00eda sea real o que la IA llegue a ser lo suficientemente poderosa como para constituir una amenaza. Creo que estos actores se equivocan, pero debemos ser pragm\u00e1ticos en cuanto al alcance de la oposici\u00f3n que podemos esperar y los peligros de una regulaci\u00f3n excesiva. Porque existe un riesgo real de que una legislaci\u00f3n demasiado prescriptiva acabe imponiendo pruebas o normas que no mejoran realmente la seguridad, sino que suponen una gran p\u00e9rdida de tiempo, lo que equivaldr\u00eda esencialmente a un \u00abteatro de la seguridad\u00bb. Esto tambi\u00e9n provocar\u00eda una reacci\u00f3n adversa al ridiculizar la legislaci\u00f3n en materia de seguridad.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-17-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-17-89396' title='Incluso en nuestras propias experiencias con lo que son esencialmente reglas impuestas voluntariamente como parte de nuestra &lt;a href=&quot;https:\/\/www.anthropic.com\/news\/announcing-our-updated-responsible-scaling-policy&quot;&gt;Responsible Scaling Policy&lt;\/a&gt;, hemos descubierto una y otra vez que es muy f\u00e1cil terminar siendo demasiado r\u00edgidos, trazando l\u00edneas que parecen importantes a priori, pero que resultan rid\u00edculas en retrospectiva. Es muy f\u00e1cil establecer reglas sobre las cosas incorrectas cuando la tecnolog\u00eda avanza r\u00e1pidamente.'><sup>17<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Anthropic cree que un buen punto de partida es <em>una legislaci\u00f3n sobre transparencia, <\/em>cuyo objetivo principal sea exigir a todas las empresas pioneras en el campo de la IA que se comprometan a respetar las pr\u00e1cticas de transparencia que he descrito anteriormente en esta secci\u00f3n. La ley SB 53 de California y la ley RAISE de Nueva York son ejemplos de este tipo de legislaci\u00f3n, que Anthropic ha apoyado y que han sido aprobadas con \u00e9xito. Al apoyar y contribuir a la elaboraci\u00f3n de estas leyes, hemos prestado especial atenci\u00f3n a minimizar los da\u00f1os colaterales, por ejemplo, eximiendo de la ley a las peque\u00f1as empresas que tienen pocas probabilidades de producir modelos de punta.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-18-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-18-89396' title='La SB 53 y la RAISE Act no se aplican en absoluto a las empresas con una facturaci\u00f3n anual inferior a 500 millones de d\u00f3lares. Solo se aplican a empresas m\u00e1s grandes y mejor establecidas, como Anthropic.'><sup>18<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p class=\"comment\">A partir de finales de 2025, la regulaci\u00f3n de la IA en Estados Unidos se caracteriza por una tensi\u00f3n estructural entre, por un lado, una estrategia federal en gran medida no intervencionista y favorable a la innovaci\u00f3n y, por otro, un conjunto cada vez mayor de regulaciones adoptadas a nivel estatal. Esta divergencia se plasma en la Orden Ejecutiva denominada \u00abRemoving Barriers to American Leadership in Artificial Intelligence\u00bb (Eliminar barreras al liderazgo estadounidense en inteligencia artificial), cuyo objetivo expl\u00edcito es frenar las regulaciones estatales consideradas excesivas.&nbsp;<\/p>\n\n\n\n<p>Esperamos que la legislaci\u00f3n sobre transparencia permita, a largo plazo, comprender mejor la probabilidad y la gravedad de los riesgos relacionados con la autonom\u00eda, as\u00ed como la naturaleza de dichos riesgos y la mejor manera de prevenirlos. A medida que aparezcan pruebas m\u00e1s espec\u00edficas y aprovechables de los riesgos, si es que las hay, la legislaci\u00f3n futura en los pr\u00f3ximos a\u00f1os podr\u00e1 centrarse de forma quir\u00fargica en la orientaci\u00f3n precisa y bien fundamentada de los riesgos, minimizando as\u00ed los da\u00f1os colaterales. Para ser claros, si aparecen pruebas realmente s\u00f3lidas de los riesgos, las normas deber\u00e1n ser proporcionalmente estrictas.<\/p>\n\n\n\n<p>En general, soy optimista en cuanto a que una combinaci\u00f3n de formaci\u00f3n en alineaci\u00f3n, interpretabilidad mec\u00e1nica, esfuerzos para encontrar y divulgar p\u00fablicamente los comportamientos preocupantes, medidas de protecci\u00f3n y normas a nivel social puede hacer frente a los riesgos relacionados con la autonom\u00eda de la IA, aunque me preocupan mucho las normas a nivel social y el comportamiento de los actores menos responsables, que son precisamente los que se oponen con m\u00e1s fuerza a la regulaci\u00f3n. Creo que la soluci\u00f3n es la misma que en cualquier democracia: aquellos de nosotros que creemos en esta causa debemos hacer valer que estos riesgos son reales y que nuestros conciudadanos deben unirse para protegerse.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>2. Una toma de poder sorprendente y terrible<\/strong><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>El uso indebido con fines destructivos<\/strong><\/h3>\n\n\n\n<p>Supongamos ahora que se han resuelto los problemas relacionados con la autonom\u00eda de la IA: ya no tememos que el pa\u00eds de los genios de la IA se rebele y domine a la humanidad. Los genios de la IA hacen lo que los humanos quieren que hagan y, dado que tienen un enorme valor comercial, los particulares y las organizaciones de todo el mundo pueden \u00abcontratar\u00bb a uno o varios \u00abgenios de la IA\u00bb para que realicen diversas tareas en su lugar.<\/p>\n\n\n\n<p>El hecho de que todo el mundo tenga un genio superinteligente en el bolsillo es un avance extraordinario que conducir\u00e1 a una incre\u00edble creaci\u00f3n de valor econ\u00f3mico y a una mejora de la calidad de vida humana. Hablo de estas ventajas en detalle en <em>Machines of Loving Grace<\/em>. Pero no todos los efectos de la transformaci\u00f3n de cada persona en un ser sobrehumano ser\u00e1n positivos. Esto puede amplificar potencialmente la capacidad de individuos o peque\u00f1os grupos para causar destrucci\u00f3n a una escala mucho mayor que antes, utilizando herramientas sofisticadas y peligrosas, como las armas de destrucci\u00f3n masiva, que antes solo estaban al alcance de unos pocos privilegiados con un alto nivel de competencia, formaci\u00f3n especializada y gran concentraci\u00f3n.<\/p>\n\n\n\n<p>Como escribi\u00f3 Bill Joy hace 25 a\u00f1os en <em>Why the Future Doesn&#8217;t Need Us<\/em>:&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-19-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-19-89396' title='Le\u00ed el ensayo de Joy por primera vez hace 25 a\u00f1os, cuando fue escrito, y me impact\u00f3 profundamente. Tanto entonces como ahora, lo encuentro demasiado pesimista \u2014no creo que el \u00ababandono\u00bb generalizado de todo un campo tecnol\u00f3gico, como sugiere Joy, sea la soluci\u00f3n\u2014, pero las cuestiones que plantea eran sorprendentemente premonitorias, y Joy escribe adem\u00e1s con una profunda compasi\u00f3n y humanidad que admiro.'><sup>19<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p><em>La fabricaci\u00f3n de armas nucleares requer\u00eda, al menos durante un tiempo, el acceso a materias primas escasas, incluso imposibles de encontrar, y a informaci\u00f3n protegida; los programas de armas biol\u00f3gicas y qu\u00edmicas tambi\u00e9n requer\u00edan actividades a gran escala. Las tecnolog\u00edas del siglo XXI (gen\u00e9tica, nanotecnolog\u00eda, rob\u00f3tica&#8230;) pueden dar lugar a accidentes y abusos de un tipo completamente nuevo&#8230; al alcance de individuos o peque\u00f1os grupos. No requerir\u00e1n grandes instalaciones ni materias primas escasas&#8230; Nos encontramos en los albores de una nueva perfecci\u00f3n del mal extremo, un mal cuyo alcance supera con creces el de las armas de destrucci\u00f3n masiva legadas a los Estados-naci\u00f3n, para otorgar un poder sorprendente y terrible a individuos extremos.<\/em><\/p>\n\n\n\n<p>Lo que Joy destaca es la idea de que, para causar destrucci\u00f3n a gran escala, se necesita tanto <em>un motivo <\/em>como <em>una capacidad<\/em>. Mientras esa capacidad se limite a un peque\u00f1o grupo de personas altamente cualificadas, el riesgo de que individuos aislados (o peque\u00f1os grupos) causen tal destrucci\u00f3n es relativamente limitado.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-20-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-20-89396' title='Debemos preocuparnos por los actores estatales, tanto en la actualidad como en el futuro, y abordo este tema en la siguiente secci\u00f3n.'><sup>20<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Un solitario perturbado puede cometer un tiroteo en una escuela, pero es poco probable que sea capaz de construir un arma nuclear o liberar un virus. De hecho, la capacidad y el motivo pueden incluso estar <em>negativamente <\/em>correlacionados. El tipo de persona que tiene la <em>capacidad <\/em>de propagar una epidemia es probablemente muy instruida: probablemente sea un doctor en biolog\u00eda molecular, especialmente ingenioso, con una carrera prometedora, una personalidad estable y disciplinada, y mucho que perder. Es poco probable que este tipo de persona est\u00e9 interesada en matar a un gran n\u00famero de personas sin ning\u00fan beneficio para s\u00ed misma y con el riesgo de comprometer su propio futuro. Tendr\u00eda que estar motivado por pura malicia, un resentimiento intenso o inestabilidad. Estas personas existen, pero son raras y tienden a aparecer en los titulares cuando lo hacen, precisamente porque son tan inusuales.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-21-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-21-89396' title='Hay pruebas de que muchos terroristas tienen, al menos, un nivel educativo relativamente alto, lo que puede parecer contradictorio con mi argumento sobre la correlaci\u00f3n negativa entre capacidad y motivaci\u00f3n. Pero creo que, en realidad, estas observaciones son compatibles: si el umbral de capacidad para llevar a cabo un ataque con \u00e9xito es alto, entonces, casi por definici\u00f3n, aquellos que lo consiguen &lt;em&gt;en la actualidad &lt;\/em&gt;deben tener una gran capacidad, incluso si la capacidad y la motivaci\u00f3n est\u00e1n negativamente correlacionadas. Pero en un mundo en el que se eliminaran las limitaciones de capacidad (por ejemplo, con los futuros LLM), yo predecir\u00eda que una gran poblaci\u00f3n de personas con motivaci\u00f3n para matar, pero con menor capacidad, comenzar\u00eda a hacerlo, como ocurre con los delitos que no requieren mucha capacidad (como los tiroteos en las escuelas).'><sup>21<\/sup><\/a><\/span><\/span> Tambi\u00e9n son dif\u00edciles de atrapar porque son inteligentes y competentes, y a veces dejan tras de s\u00ed misterios que tardan a\u00f1os, incluso d\u00e9cadas, en resolverse. El ejemplo m\u00e1s famoso es probablemente el del matem\u00e1tico Theodore Kaczynski (alias <em>Unabomber<\/em>), que eludi\u00f3 al FBI durante casi veinte a\u00f1os, motivado por una ideolog\u00eda antitecnol\u00f3gica. Otro ejemplo es el del investigador en biodefensa Bruce Ivins, que parece haber orquestado una serie de ataques con \u00e1ntrax en 2001. Esto tambi\u00e9n ha ocurrido con organizaciones no estatales competentes: la secta Aum Shinrikyo logr\u00f3 obtener gas sar\u00edn y mat\u00f3 a 14 personas \u2014e hiri\u00f3 a cientos m\u00e1s\u2014 al liberarlo en el metro de Tokio en 1995.<\/p>\n\n\n\n<p>Afortunadamente, ninguno de estos ataques utiliz\u00f3 agentes biol\u00f3gicos contagiosos, ya que la capacidad de fabricar u obtener dichos agentes superaba las capacidades de estas personas.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-22-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-22-89396' title='Sin embargo, Aum Shinrikyo lo intent\u00f3. El jefe de Aum Shinrikyo, Seiichi Endo, se hab\u00eda formado en virolog\u00eda en la Universidad de Kioto&lt;a href=&quot;https:\/\/www.cnas.org\/publications\/reports\/aum-shinrikyo-second-edition-english&quot;&gt; y hab\u00eda intentado producir tanto \u00e1ntrax como el virus del \u00c9bola&lt;\/a&gt;. Sin embargo, en 1995, ni siquiera \u00e9l dispon\u00eda de los conocimientos y los recursos suficientes para lograrlo. Ahora el list\u00f3n est\u00e1 mucho m\u00e1s bajo, y los LLM podr\u00edan reducirlo a\u00fan m\u00e1s.'><sup>22<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>Los avances en biolog\u00eda molecular han reducido considerablemente los obst\u00e1culos para la creaci\u00f3n de armas biol\u00f3gicas (especialmente en t\u00e9rminos de disponibilidad de materiales), pero a\u00fan se requiere una gran experiencia. Me temo que un genio en el bolsillo de cada uno podr\u00eda eliminar este obst\u00e1culo, convirtiendo a todo el mundo en un doctor en virolog\u00eda capaz de seguir paso a paso el proceso de dise\u00f1o, s\u00edntesis y difusi\u00f3n de un arma biol\u00f3gica. Impedir que se obtenga este tipo de informaci\u00f3n ante una presi\u00f3n hostil importante, lo que se conoce como \u00abfugas\u00bb, probablemente requiera niveles de defensa adicionales a los que se suelen incluir en la formaci\u00f3n.<\/p>\n\n\n\n<p>Esto romper\u00e1 de manera crucial el v\u00ednculo entre capacidad y motivaci\u00f3n: el solitario perturbado que quiere matar gente pero que no tiene la disciplina ni las habilidades para hacerlo pasar\u00e1 a tener el nivel de competencia de un doctor en virolog\u00eda, que no es probable que tenga esa motivaci\u00f3n. M\u00e1s all\u00e1 de la biolog\u00eda \u2014aunque creo que la biolog\u00eda es el campo m\u00e1s aterrador\u2014, esta preocupaci\u00f3n se extiende a cualquier campo en el que sea posible causar una gran destrucci\u00f3n, pero que actualmente requiera un alto nivel de habilidades y disciplina. En otras palabras, alquilar una IA potente proporciona inteligencia a personas malintencionadas, pero por lo dem\u00e1s normales. Me preocupa que pueda haber un gran n\u00famero de personas de este tipo y que, si tienen acceso a un medio f\u00e1cil de matar a millones de personas, tarde o temprano alguna de ellas lo haga. Adem\u00e1s, aquellos que<em> ya <\/em>cuentan con experiencia podr\u00edan ser capaces de causar una destrucci\u00f3n a una escala a\u00fan mayor que antes.<\/p>\n\n\n\n<p>La biolog\u00eda es, con mucho, el campo que m\u00e1s me preocupa debido a su enorme potencial destructivo y a la dificultad de defenderse de ella, por lo que me centrar\u00e9 en la biolog\u00eda en particular. Pero gran parte de lo que digo aqu\u00ed se aplica a otros riesgos, como los ciberataques, las armas qu\u00edmicas o la tecnolog\u00eda nuclear.<\/p>\n\n\n\n<p>No voy a entrar en detalles sobre la fabricaci\u00f3n de armas biol\u00f3gicas, por razones bastante obvias. Pero, en general, me preocupa que los LLM est\u00e9n a punto de adquirir \u2014o ya hayan adquirido\u2014 los conocimientos necesarios para crearlas y difundirlas de principio a fin, y que su potencial destructivo sea muy alto. Algunos agentes biol\u00f3gicos podr\u00edan causar millones de muertes si se hiciera un esfuerzo deliberado por difundirlos para lograr la m\u00e1xima propagaci\u00f3n. Sin embargo, esto a\u00fan requerir\u00eda un nivel muy alto de competencia, incluyendo una serie de pasos y procedimientos muy espec\u00edficos que no son ampliamente conocidos. Mi preocupaci\u00f3n no se limita \u00fanicamente al conocimiento fijo o est\u00e1tico. Me preocupa que los LLM sean capaces de guiar a una persona con conocimientos y capacidades medias a trav\u00e9s de un proceso complejo que, de otro modo, podr\u00eda salir mal o requerir una depuraci\u00f3n interactiva, de forma similar a como el soporte t\u00e9cnico puede ayudar a una persona sin conocimientos a depurar y resolver problemas inform\u00e1ticos complejos, aunque este proceso ser\u00eda m\u00e1s largo y podr\u00eda durar varias semanas o meses.<\/p>\n\n\n\n<p>Los LLM m\u00e1s potentes, muy por encima de las capacidades actuales, podr\u00edan permitir acciones a\u00fan m\u00e1s aterradoras.<\/p>\n\n\n\n<p>En 2024, un grupo de eminentes cient\u00edficos redact\u00f3 una carta en la que advert\u00eda de los riesgos relacionados con la investigaci\u00f3n y la posible creaci\u00f3n de un nuevo tipo de organismo peligroso: la \u00abvida espejo\u00bb. El ADN, el ARN, los ribosomas y las prote\u00ednas que componen los organismos biol\u00f3gicos tienen todos la misma quiralidad \u2014tambi\u00e9n llamada \u00ablateralidad\u00bb\u2014 que los hace no equivalentes a una versi\u00f3n de s\u00ed mismos reflejada en un espejo, del mismo modo que la mano derecha no puede girarse para ser id\u00e9ntica a la mano izquierda. Pero todo el sistema de uni\u00f3n de las prote\u00ednas entre s\u00ed, el mecanismo de s\u00edntesis del ADN y de traducci\u00f3n del ARN, as\u00ed como la construcci\u00f3n y degradaci\u00f3n de las prote\u00ednas, dependen de esta quiralidad. Si los cient\u00edficos crearan versiones de este material biol\u00f3gico con una quiralidad opuesta, lo que presentar\u00eda ciertas ventajas potenciales, como medicamentos que duran m\u00e1s tiempo en el organismo, podr\u00eda ser extremadamente peligroso. De hecho, si se creara vida \u00abzurda\u00bb en forma de organismos completos capaces de reproducirse \u2014lo cual ser\u00eda muy dif\u00edcil\u2014, ser\u00eda potencialmente indigesta para todos los sistemas que descomponen la materia biol\u00f3gica en la Tierra: tendr\u00eda una \u00abllave\u00bb que no encajar\u00eda en ninguna \u00abcerradura\u00bb enzim\u00e1tica existente. Esto significar\u00eda que podr\u00eda proliferar de forma incontrolable y desplazar a toda la vida del planeta o, en el peor de los casos, destruir toda la vida en la Tierra.<\/p>\n\n\n\n<p>Existe una gran incertidumbre cient\u00edfica sobre la creaci\u00f3n y los posibles efectos de la vida espejo.<\/p>\n\n\n\n<p>La carta de 2024 iba acompa\u00f1ada de un informe que conclu\u00eda que \u00abes probable que se puedan crear bacterias espejo en las pr\u00f3ximas d\u00e9cadas\u00bb, lo que representa un margen muy amplio. Pero un modelo de IA lo suficientemente poderoso \u2014para ser claros, mucho m\u00e1s que todos los que tenemos hoy en d\u00eda\u2014 podr\u00eda ser capaz de descubrir c\u00f3mo crearla mucho m\u00e1s r\u00e1pidamente, e incluso ayudar a alguien a hacerlo.<\/p>\n\n\n\n<p>Mi opini\u00f3n es que, aunque se trate de peligros oscuros y que pueden parecer improbables, la magnitud de las consecuencias es tal que deben tomarse en serio como un riesgo de primer orden de los sistemas de IA.<\/p>\n\n\n\n<p>Los esc\u00e9pticos han planteado una serie de objeciones sobre la gravedad de estos riesgos biol\u00f3gicos relacionados con los LLM, con las que no estoy de acuerdo, pero que merecen ser abordadas. La mayor\u00eda de ellas se deben a un desconocimiento de la trayectoria exponencial que est\u00e1 siguiendo esta tecnolog\u00eda. En 2023, cuando empezamos a hablar de los riesgos biol\u00f3gicos relacionados con los LLM, los m\u00e1s esc\u00e9pticos afirmaban que toda la informaci\u00f3n necesaria estaba disponible en Google y que los LLM no aportaban nada m\u00e1s. Nunca ha sido cierto que Google pudiera proporcionar toda la informaci\u00f3n necesaria: los genomas son de libre acceso, pero, como he dicho anteriormente, algunos pasos clave, as\u00ed como gran parte de los conocimientos pr\u00e1cticos, no se pueden obtener en un motor de b\u00fasqueda. Sin embargo, a finales de 2023, los LLM ya proporcionaban claramente informaci\u00f3n que iba m\u00e1s all\u00e1 de lo que Google pod\u00eda ofrecer para algunas etapas del proceso.<\/p>\n\n\n\n<p>Despu\u00e9s de eso, los esc\u00e9pticos recurrieron a la objeci\u00f3n de que los LLM no eran \u00fatiles <em>de principio a fin <\/em>y no pod\u00edan ayudar a <em>la adquisici\u00f3n<\/em> de armas biol\u00f3gicas, sino solo proporcionar informaci\u00f3n te\u00f3rica. A mediados de 2025, nuestras mediciones muestran que los LLM ya podr\u00edan aportar una mejora sustancial en varias \u00e1reas relevantes, duplicando o incluso triplicando las posibilidades de \u00e9xito. Esto nos llev\u00f3 a decidir que Claude Opus 4 (y los modelos Sonnet 4.5, Opus 4.1 y Opus 4.5 que le siguieron) deb\u00edan comercializarse bajo nuestro nivel de seguridad de IA 3 (AI Safety Level 3) como parte de nuestra pol\u00edtica de escalado responsable, y a implementar medidas de protecci\u00f3n contra este riesgo (volveremos sobre esto m\u00e1s adelante). Creemos que los modelos se acercan ahora al punto en el que, sin medidas de protecci\u00f3n, podr\u00edan permitir a una persona con un t\u00edtulo en ciencias, tecnolog\u00eda, ingenier\u00eda y matem\u00e1ticas (STEM), pero no espec\u00edficamente en biolog\u00eda, llevar a cabo todo el proceso de fabricaci\u00f3n de un arma biol\u00f3gica.<\/p>\n\n\n\n<p class=\"comment\">La <em>Responsible Scaling Policy<\/em> (RSP) es<a href=\"https:\/\/www.anthropic.com\/news\/activating-asl3-protections\"> el marco de Anthropic<\/a> destinado a adaptar el nivel de seguridad y gobernanza de los modelos a medida que aumentan sus capacidades, a trav\u00e9s de niveles (AI Safety Levels) que definen obligaciones crecientes en materia de evaluaci\u00f3n, control y despliegue responsable.<\/p>\n\n\n\n<p>Otra objeci\u00f3n es que existen otras medidas no relacionadas con la IA que la sociedad puede tomar para impedir la producci\u00f3n de armas biol\u00f3gicas. En primer lugar, la industria de la s\u00edntesis gen\u00e9tica fabrica espec\u00edmenes biol\u00f3gicos bajo demanda, y no existe ninguna obligaci\u00f3n federal que imponga a los proveedores verificar los pedidos para asegurarse de que no contienen agentes pat\u00f3genos. Un estudio del MIT revel\u00f3 que 36 de los 38 proveedores capaces de producir estas s\u00edntesis aceptaron un pedido que conten\u00eda la secuencia del virus de la gripe de 1918. Estoy a favor de un control obligatorio de la s\u00edntesis gen\u00e9tica que dificulte a las personas la transformaci\u00f3n de agentes pat\u00f3genos en armas, con el fin de reducir tanto los riesgos biol\u00f3gicos relacionados con la IA como los riesgos biol\u00f3gicos en general. Pero hoy en d\u00eda no es as\u00ed. Adem\u00e1s, no ser\u00eda m\u00e1s que una herramienta entre otras para reducir los riesgos. Se trata de un complemento a las salvaguardias de los sistemas de IA, no de un sustituto.<\/p>\n\n\n\n<p>La mejor objeci\u00f3n es la que menos he visto plantear: existe una brecha entre la utilidad te\u00f3rica de los modelos y la propensi\u00f3n real de los actores malintencionados a utilizarlos. La mayor\u00eda de los actores malintencionados son, en efecto, individuos perturbados, por lo que, por definici\u00f3n, su comportamiento es impredecible e irracional. Y son <em>esos mismos <\/em>actores malintencionados, los que no est\u00e1n calificados, los que podr\u00edan haber sacado el mayor provecho de la IA, que facilita enormemente el asesinato de muchas personas.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-23-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-23-89396' title='Un fen\u00f3meno extra\u00f1o relacionado con los autores de asesinatos en masa es que el modus operandi que eligen se asemeja casi a una moda macabra. En las d\u00e9cadas de 1970 y 1980, los asesinos en serie eran muy comunes, y los nuevos asesinos en serie sol\u00edan copiar el comportamiento de los asesinos en serie m\u00e1s establecidos o famosos. En las d\u00e9cadas de 1990 y 2000, los tiroteos masivos se hicieron m\u00e1s comunes, mientras que los asesinos en serie se volvieron menos frecuentes. Ning\u00fan cambio tecnol\u00f3gico desencaden\u00f3 estos comportamientos, simplemente parece que los asesinos violentos se copiaban unos a otros y que la tendencia \u00abpopular\u00bb a copiar cambi\u00f3.'><sup>23<\/sup><\/a><\/span><\/span> En otras palabras, el hecho de que un tipo de ataque violento sea posible no significa que alguien vaya a decidir llevarlo a cabo. Los ataques biol\u00f3gicos pueden resultar poco atractivos porque pueden infectar a su autor, no satisfacen las fantas\u00edas militares de muchos individuos o grupos violentos y es dif\u00edcil apuntar de forma selectiva a personas espec\u00edficas. Tambi\u00e9n es posible que pasar por un proceso que lleva meses, incluso con la ayuda de una IA, requiera una paciencia que la mayor\u00eda de las personas perturbadas simplemente no tienen. Quiz\u00e1 tengamos suerte y, en la pr\u00e1ctica, la motivaci\u00f3n y la capacidad no se combinen de la manera adecuada.<\/p>\n\n\n\n<p>Pero esta protecci\u00f3n parece un apoyo muy fr\u00e1gil. Las motivaciones de los individuos perturbados pueden cambiar por cualquier motivo o incluso sin motivo alguno, y ya hay casos en los que se han utilizado LLM en ataques, aunque no en el \u00e1mbito biol\u00f3gico. Centrarse en los solitarios perturbados tambi\u00e9n significa ignorar a los terroristas motivados por ideolog\u00edas, que a menudo est\u00e1n dispuestos a dedicar mucho tiempo y esfuerzo a ello, como por ejemplo los secuestradores del 11 de septiembre. El deseo de matar al mayor n\u00famero de personas posible es un motivo que probablemente acabar\u00e1 apareciendo tarde o temprano y que, lamentablemente, sugiere el uso de armas biol\u00f3gicas. Aunque este motivo es extremadamente raro, basta con que se materialice una sola vez. Y a medida que avanza la biolog\u00eda, cada vez m\u00e1s gracias a la propia IA, tambi\u00e9n podr\u00eda ser posible llevar a cabo ataques m\u00e1s selectivos, por ejemplo, dirigidos a personas de or\u00edgenes espec\u00edficos, lo que a\u00f1ade otro motivo a esta aterradora galer\u00eda.<\/p>\n\n\n\n<p>No creo que los ataques biol\u00f3gicos se lleven a cabo necesariamente tan pronto como sean posibles; de hecho, apostar\u00eda m\u00e1s bien por lo contrario. Pero si sumamos millones de personas y unos cuantos a\u00f1os, creo que existe un riesgo grave de que se produzca un ataque importante, y las consecuencias ser\u00edan tan graves \u2014con millones de v\u00edctimas potenciales, o incluso m\u00e1s\u2014 que creo que no tenemos m\u00e1s remedio que tomar medidas serias para evitarlo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Nuestros medios de defensa<\/strong><\/h3>\n\n\n\n<p>Esto nos lleva a la cuesti\u00f3n de c\u00f3mo defendernos de estos riesgos. Veo tres cosas que podemos hacer al respecto.<\/p>\n\n\n\n<p>En primer lugar, las empresas de IA pueden establecer salvaguardias en sus modelos para evitar que contribuyan a la producci\u00f3n de armas biol\u00f3gicas. Anthropic est\u00e1 trabajando muy activamente en ello. La Constituci\u00f3n de Claude, que se centra principalmente en principios y valores de alto nivel, incluye un peque\u00f1o n\u00famero de prohibiciones espec\u00edficas estrictas, una de las cuales se refiere a la ayuda a la producci\u00f3n de armas biol\u00f3gicas (o qu\u00edmicas, nucleares o radiol\u00f3gicas). Pero todos los modelos pueden ser pirateados. Por eso, como l\u00ednea de defensa adicional, hemos implementado (desde mediados de 2025, cuando nuestras pruebas demostraron que nuestros modelos comenzaban a acercarse al umbral a partir del cual podr\u00edan suponer un riesgo) un clasificador que detecta y bloquea espec\u00edficamente los resultados relacionados con las armas biol\u00f3gicas. Actualizamos y mejoramos regularmente estos clasificadores, y en general los hemos encontrado muy robustos, incluso frente a ataques adversos sofisticados.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-24-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-24-89396' title='Los piratas inform\u00e1ticos ocasionales a veces piensan que han comprometido estos clasificadores cuando obtienen informaci\u00f3n espec\u00edfica del modelo, como la secuencia gen\u00f3mica de un virus. Pero, como he explicado anteriormente, el modelo de amenaza que nos preocupa implica consejos interactivos paso a paso, a lo largo de varias semanas o meses, sobre etapas espec\u00edficas y oscuras del proceso de producci\u00f3n de armas biol\u00f3gicas, y eso es contra lo que nuestros clasificadores pretenden defendernos. (A menudo describimos nuestra investigaci\u00f3n como la b\u00fasqueda de \u00ab&lt;em&gt;jailbreaks&lt;\/em&gt; universales\u00bb, es decir, &lt;em&gt;jailbreaks &lt;\/em&gt;que no solo funcionan en un contexto espec\u00edfico o restringido, sino que abren ampliamente el comportamiento del modelo).'><sup>24<\/sup><\/a><\/span><\/span> Estos clasificadores aumentan considerablemente los costos de funcionamiento de nuestros modelos \u2014en algunos casos, representan casi el 5 % de los costos totales de inferencia\u2014 y, por lo tanto, reducen nuestros m\u00e1rgenes, pero creemos que su uso es lo correcto.<\/p>\n\n\n\n<p class=\"comment\">En la mayor\u00eda de las aplicaciones, el modelo de IA no se utiliza de forma aislada, sino que se integra en un andamiaje m\u00e1s amplio que incluye diversos componentes, entre ellos mecanismos de filtrado de entrada y salida destinados a controlar los contenidos generados. Estas salvaguardias se basan a su vez en LLM, lo que implica que est\u00e1n sujetas a vulnerabilidades comparables. Estos clasificadores autom\u00e1ticos se encargan de verificar que los datos procesados por el modelo cumplan con las reglas y pol\u00edticas definidas para la aplicaci\u00f3n.<\/p>\n\n\n\n<p>Hay que reconocer que otras empresas de IA tambi\u00e9n han implementado clasificadores. Pero no todas las empresas lo han hecho, y nada obliga a las empresas a mantener sus clasificadores. Me temo que, con el tiempo, acabaremos asistiendo a un dilema del prisionero en el que las empresas podr\u00edan eludir sus responsabilidades y reducir sus costos eliminando los clasificadores. Se trata, una vez m\u00e1s, de un problema cl\u00e1sico de externalidades negativas que no puede resolverse mediante las acciones voluntarias de Anthropic o de cualquier otra empresa por s\u00ed sola.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-25-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-25-89396' title='No obstante, seguiremos invirtiendo en trabajos destinados a mejorar la eficacia de nuestros clasificadores, y puede ser conveniente que las empresas compartan entre s\u00ed avances como estos.'><sup>25<\/sup><\/a><\/span><\/span> Las normas industriales voluntarias podr\u00edan ayudar, al igual que las evaluaciones y verificaciones por parte de terceros, como las realizadas por institutos de seguridad de IA y evaluadores externos.<\/p>\n\n\n\n<p>Pero, en \u00faltima instancia, la defensa puede requerir la intervenci\u00f3n del gobierno: esa es la segunda cosa que podemos hacer. Mi opini\u00f3n al respecto es la misma que para la gesti\u00f3n de los riesgos relacionados con la autonom\u00eda: deber\u00edamos empezar por exigir transparencia,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-26-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-26-89396' title='Evidentemente, no creo que las empresas deban estar obligadas a revelar los detalles t\u00e9cnicos de las etapas espec\u00edficas de la producci\u00f3n de armas biol\u00f3gicas que bloquean, y la legislaci\u00f3n sobre transparencia que se ha aprobado hasta ahora (SB 53 y RAISE) tiene en cuenta esta cuesti\u00f3n.'><sup>26<\/sup><\/a><\/span><\/span> lo que ayuda a la sociedad a medir, supervisar y defenderse colectivamente de los riesgos sin perturbar demasiado la actividad econ\u00f3mica. A continuaci\u00f3n, si llegamos a umbrales de riesgo m\u00e1s claros, podremos elaborar una legislaci\u00f3n que se centre m\u00e1s espec\u00edficamente en esos riesgos y presente menos posibilidades de da\u00f1os colaterales. En el caso concreto de las armas biol\u00f3gicas, creo que el momento de una legislaci\u00f3n tan espec\u00edfica podr\u00eda llegar pronto: Anthropic y otras empresas est\u00e1n aprendiendo cada vez m\u00e1s sobre la naturaleza de los riesgos biol\u00f3gicos y sobre lo que es razonable exigir a las empresas para defenderse de ellos. Una defensa completa contra estos riesgos podr\u00eda requerir la colaboraci\u00f3n internacional, incluso con adversarios geopol\u00edticos, pero existen precedentes en los tratados que proh\u00edben el desarrollo de armas biol\u00f3gicas. Por lo general, soy esc\u00e9ptico con respecto a la mayor\u00eda de las formas de cooperaci\u00f3n internacional en materia de IA, pero tal vez este sea un \u00e1mbito espec\u00edfico en el que existe la posibilidad de lograr una restricci\u00f3n mundial. Ni siquiera las dictaduras desean violaciones masivas de la seguridad biol\u00f3gica.<\/p>\n\n\n\n<p>Por \u00faltimo, la tercera contramedida que podemos tomar es intentar desarrollar defensas contra los propios ataques biol\u00f3gicos. Esto podr\u00eda incluir la vigilancia y el seguimiento para la detecci\u00f3n temprana, inversiones en I+D en materia de purificaci\u00f3n del aire (como la desinfecci\u00f3n con UVC lejana), el desarrollo r\u00e1pido de vacunas capaces de responder y adaptarse a un ataque, mejores equipos de protecci\u00f3n individual (EPI)&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-27-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-27-89396' title='Otra idea relacionada es la de los \u00abmercados de resiliencia\u00bb, en los que el gobierno fomenta el almacenamiento de EPI, respiradores y otros equipos esenciales necesarios para responder a un ataque biol\u00f3gico, comprometi\u00e9ndose por adelantado a pagar un precio acordado previamente por dichos equipos en caso de emergencia. Esto incentiva a los proveedores a almacenar estos equipos sin temor a que el gobierno los confisque sin compensaci\u00f3n.'><sup>27<\/sup><\/a><\/span><\/span> y tratamientos o vacunas para algunos de los agentes biol\u00f3gicos m\u00e1s probables. Las vacunas de ARN mensajero, que pueden dise\u00f1arse para responder a un virus o variante concreto, son un primer ejemplo de lo que es posible en este campo. Anthropic est\u00e1 encantado de trabajar con empresas biotecnol\u00f3gicas y farmac\u00e9uticas en este problema. Pero, lamentablemente, creo que nuestras expectativas en materia de defensa deben ser limitadas. Existe una asimetr\u00eda entre el ataque y la defensa en biolog\u00eda, ya que los agentes se propagan r\u00e1pidamente por s\u00ed mismos, mientras que las defensas requieren detecci\u00f3n, vacunaci\u00f3n y tratamiento, que deben organizarse muy r\u00e1pidamente a gran escala. A menos que la respuesta sea ultrarr\u00e1pida, lo que rara vez ocurre, gran parte del da\u00f1o se habr\u00e1 producido antes de que sea posible responder. Es concebible que los avances tecnol\u00f3gicos futuros puedan inclinar la balanza a favor de la defensa \u2014y sin duda deber\u00edamos utilizar la IA para ayudar a desarrollar esos avances tecnol\u00f3gicos\u2014, pero hasta entonces, las medidas preventivas seguir\u00e1n siendo nuestra principal l\u00ednea de defensa.<\/p>\n\n\n\n<p>Cabe mencionar brevemente aqu\u00ed los ciberataques, ya que, a diferencia de los ataques biol\u00f3gicos, los ciberataques llevados a cabo por la IA ya se han producido en la realidad, incluso a gran escala y en el contexto del espionaje patrocinado por Estados. Esperamos que estos ataques sean cada vez m\u00e1s eficaces a medida que los modelos avancen r\u00e1pidamente, hasta convertirse en la principal forma de llevar a cabo ciberataques.<\/p>\n\n\n\n<p>Creo que los ciberataques llevados a cabo por la IA se convertir\u00e1n en una amenaza grave y sin precedentes para la integridad de los sistemas inform\u00e1ticos de todo el mundo, y Anthropic est\u00e1 trabajando arduamente para poner fin a estos ataques y, en \u00faltima instancia, prevenirlos de manera confiable. Si no me he centrado tanto en el ciberespacio como en la biolog\u00eda es porque (1) los ciberataques son mucho menos propensos a matar personas, o al menos no a la escala de los ataques biol\u00f3gicos, y (2) el equilibrio entre el ataque y la defensa puede ser m\u00e1s f\u00e1cil de manejar en el ciberespacio, donde al menos existe cierta esperanza de que la defensa pueda seguir \u2014e incluso, idealmente, superar\u2014 los ataques de la IA si invertimos en ello adecuadamente.<\/p>\n\n\n\n<p>Aunque la biolog\u00eda es actualmente el vector de ataque m\u00e1s grave, existen muchos otros vectores y es posible que aparezca uno m\u00e1s peligroso. El principio general es que, sin contramedidas, la IA es susceptible de reducir continuamente los obst\u00e1culos a las actividades destructivas a una escala cada vez mayor, y la humanidad debe dar una respuesta seria a esta amenaza.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>3. Una aleaci\u00f3n para el odio<\/strong><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>El uso indebido para hacerse con el poder<\/strong><\/h3>\n\n\n\n<p>En la secci\u00f3n anterior se abord\u00f3 el riesgo de que individuos y peque\u00f1as organizaciones cooptaran un peque\u00f1o subconjunto del \u00abpa\u00eds de los genios en un centro de datos\u00bb para causar destrucci\u00f3n a gran escala. Pero tambi\u00e9n deber\u00edamos preocuparnos, y probablemente mucho m\u00e1s, por el uso indebido de la IA con el fin de <em>ejercer o tomar el poder<\/em>, probablemente por parte de actores m\u00e1s importantes y mejor establecidos.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-28-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-28-89396' title='\u00bfPor qu\u00e9 me preocupa m\u00e1s que los grandes actores se hagan con el poder que la destrucci\u00f3n causada por los peque\u00f1os actores? Porque la din\u00e1mica es diferente. Hacerse con el poder consiste en saber si un actor puede acumular suficiente fuerza para derrotar a todos los dem\u00e1s. Por lo tanto, debemos preocuparnos por los actores m\u00e1s poderosos y\/o los que est\u00e1n m\u00e1s cerca de la IA. Por el contrario, la destrucci\u00f3n puede ser causada por aquellos que tienen poco poder si es mucho m\u00e1s dif\u00edcil de defender que de causar. Se trata entonces de defenderse de las amenazas m\u00e1s &lt;em&gt;numerosas&lt;\/em&gt;, que probablemente provengan de actores m\u00e1s modestos.'><sup>28<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>En <em>Machines of Loving Grace<\/em>, mencion\u00e9 la posibilidad de que los gobiernos autoritarios utilicen una IA potente para vigilar o reprimir a sus ciudadanos de una manera que ser\u00eda extremadamente dif\u00edcil de reformar o derrocar. Las autocracias actuales tienen una capacidad de represi\u00f3n limitada por la necesidad de que los seres humanos ejecuten sus \u00f3rdenes, y los seres humanos suelen tener l\u00edmites en su capacidad para ser inhumanos. Pero las autocracias basadas en la IA no tendr\u00edan tales l\u00edmites.<\/p>\n\n\n\n<p>Peor a\u00fan, algunos pa\u00edses tambi\u00e9n podr\u00edan utilizar su ventaja en materia de IA para adquirir poder sobre <em>otros pa\u00edses<\/em>.<\/p>\n\n\n\n<p>Si el \u00abpa\u00eds de los genios\u00bb en su conjunto estuviera simplemente en manos y bajo el control del aparato militar de un solo pa\u00eds (humano) y los dem\u00e1s pa\u00edses no dispusieran de capacidades equivalentes, ser\u00eda dif\u00edcil imaginar c\u00f3mo podr\u00edan defenderse: se ver\u00edan superados en todo momento, como en una guerra entre humanos y ratones. La combinaci\u00f3n de estas dos preocupaciones conduce a<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/07\/16\/tomara-el-control-del-mundo-una-ia-el-escenario-matrix-de-la-rand-corporation\/\"> la alarmante posibilidad de una dictadura totalitaria mundial<\/a>. Es evidente que una de nuestras principales prioridades deber\u00eda ser impedir esta posibilidad.<\/p>\n\n\n\n<p>La IA podr\u00eda permitir, reforzar o ampliar la autocracia de muchas maneras, pero voy a enumerar las que m\u00e1s me preocupan. Hay que tomar en cuenta que algunas de estas aplicaciones tienen usos defensivos leg\u00edtimos, y no me opongo necesariamente a ellas en absoluto; sin embargo, me preocupa que tiendan a favorecer estructuralmente a las autocracias:<\/p>\n\n\n\n<p>\u2014 En primer lugar, las armas totalmente aut\u00f3nomas. Un enjambre de millones o miles de millones de drones armados totalmente automatizados, controlados localmente por una IA poderosa y coordinados estrat\u00e9gicamente en todo el mundo por una IA a\u00fan m\u00e1s poderosa, podr\u00eda constituir un ej\u00e9rcito invencible, capaz tanto de derrotar a cualquier ej\u00e9rcito del mundo como de reprimir la disidencia dentro de un pa\u00eds mediante el seguimiento de cada ciudadano. La evoluci\u00f3n de la guerra entre Rusia y Ucrania deber\u00eda alertarnos sobre el hecho de que la guerra con drones ya es una realidad (aunque todav\u00eda no sea totalmente aut\u00f3noma y solo represente una peque\u00f1a parte de lo que ser\u00eda posible con una IA poderosa). La investigaci\u00f3n y el desarrollo en el campo de la IA potente podr\u00edan hacer que los drones de un pa\u00eds fueran muy superiores a los de otros, acelerar su fabricaci\u00f3n, hacerlos m\u00e1s resistentes a los ataques electr\u00f3nicos, mejorar su maniobrabilidad, etc. Por supuesto, estas armas tambi\u00e9n tienen usos leg\u00edtimos para la defensa de la democracia: han desempe\u00f1ado un papel clave en la defensa de Ucrania y probablemente ser\u00edan esenciales para defender Taiw\u00e1n. Pero son un arma peligrosa de manejar: debemos preocuparnos por su uso por parte de las autocracias, pero tambi\u00e9n por el hecho de que son tan poderosas y est\u00e1n tan poco controladas que existe un mayor riesgo de que los gobiernos democr\u00e1ticos las utilicen contra su propia poblaci\u00f3n para hacerse con el poder.<\/p>\n\n\n\n<p>\u2014 Vigilancia mediante IA. Una IA lo suficientemente poderosa podr\u00eda utilizarse para comprometer cualquier sistema inform\u00e1tico del mundo&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-29-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-29-89396' title='Esto puede parecer contradictorio con mi argumento de que el ataque y la defensa pueden estar m\u00e1s equilibrados con los ciberataques que con las armas biol\u00f3gicas, pero mi preocupaci\u00f3n aqu\u00ed es que, si la IA de un pa\u00eds es la m\u00e1s poderosa del mundo, los dem\u00e1s no podr\u00e1n defenderse, aunque la tecnolog\u00eda en s\u00ed misma presente un equilibrio intr\u00ednseco entre el ataque y la defensa.'><sup>29<\/sup><\/a><\/span><\/span> y tambi\u00e9n podr\u00eda utilizar el acceso as\u00ed obtenido para leer <em>y comprender <\/em>todas las comunicaciones electr\u00f3nicas del mundo (incluso todas las comunicaciones en persona, si se pueden construir o requisar dispositivos de grabaci\u00f3n). Es aterrador pensar que bastar\u00eda con generar una lista completa de todas las personas que est\u00e1n en desacuerdo con el gobierno en una serie de cuestiones, aunque ese desacuerdo no sea expl\u00edcito en sus palabras o acciones. Una IA poderosa capaz de analizar miles de millones de conversaciones entre millones de personas podr\u00eda as\u00ed evaluar la opini\u00f3n p\u00fablica, detectar los focos de deslealtad en formaci\u00f3n y eliminarlos antes de que se desarrollen. Esto podr\u00eda conducir a la imposici\u00f3n de un verdadero pan\u00f3ptico a una escala que hoy en d\u00eda desconocemos, incluso con el Partido Comunista Chino.<\/p>\n\n\n\n<p>\u2014 Propaganda mediante IA. Los fen\u00f3menos actuales de \u00abpsicosis de la IA\u00bb y \u00abnovias IA\u00bb sugieren que, incluso con su nivel actual de inteligencia, los modelos de IA pueden tener una poderosa influencia psicol\u00f3gica en las personas. Versiones mucho m\u00e1s potentes de estos modelos, mucho m\u00e1s integradas y conscientes de la vida cotidiana de las personas, capaces de modelarlas e influir en ellas durante meses o a\u00f1os, probablemente ser\u00edan capaces de lavar el cerebro a muchas personas \u2014quiz\u00e1s incluso a la mayor\u00eda\u2014 para inculcarles cualquier ideolog\u00eda o actitud deseada, y podr\u00edan ser utilizadas por un l\u00edder sin escr\u00fapulos para asegurarse la lealtad y reprimir la disidencia, incluso frente a un nivel de represi\u00f3n contra el que la mayor\u00eda de la poblaci\u00f3n se rebelar\u00eda. Hoy en d\u00eda, a la gente le preocupa mucho, por ejemplo, la posible influencia de TikTok como herramienta de propaganda del PCC dirigida a los ni\u00f1os. A m\u00ed tambi\u00e9n me preocupa, pero un agente de IA personalizado que aprende a conocerte a lo largo de los a\u00f1os y utiliza su conocimiento sobre ti para moldear todas tus opiniones ser\u00eda considerablemente m\u00e1s poderoso que eso.<\/p>\n\n\n\n<p>\u2014 La toma de decisiones estrat\u00e9gicas. Un pa\u00eds de genios en un centro de datos podr\u00eda utilizarse para asesorar a un pa\u00eds, un grupo o un individuo sobre estrategia geopol\u00edtica, una especie de \u00abBismarck virtual\u00bb. Podr\u00eda optimizar las tres estrategias anteriores para hacerse con el poder y, probablemente, desarrollar muchas otras en las que yo no he pensado, pero en las que nuestro \u00abpa\u00eds de genios\u00bb s\u00ed podr\u00eda pensar. La diplomacia, la estrategia militar, la I+D, la estrategia econ\u00f3mica y muchos otros campos podr\u00edan ver aumentada considerablemente su eficacia gracias a una IA potente. Muchas de estas habilidades ser\u00edan leg\u00edtimamente \u00fatiles para las democracias \u2014queremos que las democracias tengan acceso a las mejores estrategias para defenderse de las autocracias\u2014, pero sigue existiendo el riesgo de abuso en manos de<em> cualquiera<\/em>.<\/p>\n\n\n\n<p>Despu\u00e9s de describir lo que me preocupa, pasemos ahora a <em>qui\u00e9n<\/em> me preocupa.<\/p>\n\n\n\n<p>Me preocupan las entidades que tienen mayor acceso a la IA, que parten de una posici\u00f3n de m\u00e1ximo poder pol\u00edtico o que ya han demostrado su represi\u00f3n en el pasado. Por orden de gravedad, mis principales motivos de preocupaci\u00f3n son los siguientes:<\/p>\n\n\n\n<p>\u2014 El Partido Comunista Chino. China es el segundo pa\u00eds despu\u00e9s de Estados Unidos en t\u00e9rminos de capacidad de IA, y es el pa\u00eds con m\u00e1s posibilidades de superar a Estados Unidos en este \u00e1mbito. Su gobierno es actualmente autocr\u00e1tico y gestiona un Estado de vigilancia de alta tecnolog\u00eda. Ya ha desplegado una vigilancia basada en la IA, en particular en la represi\u00f3n de los uigures, y es probable que utilice la propaganda algor\u00edtmica a trav\u00e9s de TikTok, adem\u00e1s de sus numerosas otras iniciativas de propaganda internacional. Sin duda, es el pa\u00eds que m\u00e1s se acerca a convertirse en la pesadilla totalitaria basada en la IA que he descrito anteriormente. Este podr\u00eda ser incluso el resultado por defecto en China, as\u00ed como en otros Estados autocr\u00e1ticos a los que el PCC exporta su tecnolog\u00eda de vigilancia. He escrito a menudo sobre la amenaza que representa el PCC como l\u00edder en el campo de la IA y sobre la necesidad existencial de impedirlo. He aqu\u00ed el motivo. Para que quede claro, no me refiero a China en particular por animadversi\u00f3n hacia ella: simplemente es el pa\u00eds que mejor combina los avances en IA, un gobierno autocr\u00e1tico y un Estado de vigilancia de alta tecnolog\u00eda. Son los propios chinos los que m\u00e1s probabilidades tienen de sufrir la represi\u00f3n del PCC gracias a la IA, y no tienen voz ni voto en las acciones de su gobierno. Admiro y respeto enormemente al pueblo chino y apoyo a los numerosos y valientes disidentes que luchan por la libertad en China.<\/p>\n\n\n\n<p class=\"comment\">Aunque un responsable del equipo Qwen ha expresado recientemente que la potencia de c\u00e1lculo sigue siendo un problema importante para el desarrollo de la IA china, China est\u00e1 recuperando terreno en todas las capas de la IA. En cuanto a las aplicaciones, a finales de 2025, el fondo de inversi\u00f3n a16z estima que hay un 80 % de probabilidades de que una start-up de IA construya con modelos de IA de c\u00f3digo abierto chinos como DeepSeek, Qwen (Alibaba) o Kimi (Moonshot AI). En cuanto a los modelos, la diferencia entre los modelos abiertos chinos y los modelos cerrados estadounidenses var\u00eda entre seis y ocho meses; entre los modelos de c\u00f3digo abierto, los modelos chinos dominar\u00e1n en 2025. Airbnb admite as\u00ed<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/12\/28\/la-ia-en-2025-cuatro-tendencias\/\"> preferir Qwen a ChatGPT<\/a>. En cuanto a la infraestructura y el hardware, China est\u00e1 invirtiendo masivamente en el desarrollo de sus propias cadenas de valor en semiconductores. Se prev\u00e9 que la proporci\u00f3n de chips extranjeros en los servidores de IA chinos caiga del 63 % a alrededor del 42 % para 2025, a medida que los proveedores nacionales sustituyan progresivamente las importaciones de Nvidia.<\/p>\n\n\n\n<p>\u2014 Las democracias competitivas en materia de IA. Como he escrito anteriormente, las democracias tienen un inter\u00e9s leg\u00edtimo en disponer de ciertas herramientas militares y geopol\u00edticas basadas en la IA, ya que los gobiernos democr\u00e1ticos ofrecen la mejor oportunidad de contrarrestar el uso de estas herramientas por parte de las autocracias. En general, estoy a favor de dotar a las democracias de las herramientas necesarias para derrotar a las autocracias en la era de la IA, porque simplemente creo que no hay otra soluci\u00f3n. Pero no podemos ignorar el riesgo de que los propios gobiernos democr\u00e1ticos abusen de estas tecnolog\u00edas. Las democracias suelen contar con salvaguardias que impiden que sus aparatos militares y de inteligencia se vuelvan contra su propia<a href=\"https:\/\/www.darioamodei.com\/essay\/the-adolescence-of-technology#fn:31\"> <\/a>poblaci\u00f3n,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-30-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-30-89396' title='En Estados Unidos, por ejemplo, esto incluye la Cuarta Enmienda y la Ley&lt;a href=&quot;https:\/\/en.wikipedia.org\/wiki\/Posse_Comitatus_Act&quot;&gt; Posse Comitatus&lt;\/a&gt;.'><sup>30<\/sup><\/a><\/span><\/span> pero como las herramientas de IA requieren muy poco personal para funcionar, es posible que eludan estas salvaguardias y las normas que las sustentan. Tambi\u00e9n hay que se\u00f1alar que algunas de estas salvaguardias ya se est\u00e1n erosionando gradualmente en algunas democracias. Por lo tanto, debemos armar a las democracias con IA, pero debemos hacerlo con cautela y dentro de ciertos l\u00edmites: constituyen el sistema inmunol\u00f3gico que necesitamos para luchar contra las autocracias, pero, al igual que el sistema inmunol\u00f3gico, corren el riesgo de volverse en nuestra contra y convertirse ellas mismas en una amenaza.<\/p>\n\n\n\n<p>\u2014 Pa\u00edses no democr\u00e1ticos con grandes centros de datos. M\u00e1s all\u00e1 de China, la mayor\u00eda de los pa\u00edses con un gobierno menos democr\u00e1tico no son actores destacados en el \u00e1mbito de la IA, en el sentido de que no cuentan con empresas que produzcan modelos de IA de vanguardia. Por lo tanto, representan un riesgo fundamentalmente diferente y menor que el PCC, que sigue siendo la principal preocupaci\u00f3n; la mayor\u00eda tambi\u00e9n son menos represivos, y los que lo son m\u00e1s, como Corea del Norte, no tienen ninguna industria significativa en el campo de la IA. Sin embargo, algunos de estos pa\u00edses cuentan con grandes centros de datos \u2014a menudo desarrollados por empresas que operan en democracias\u2014 que pueden utilizarse para explotar la IA de vanguardia a gran escala, aunque esto no les confiere la capacidad de superar los l\u00edmites. Esto conlleva un cierto peligro: en teor\u00eda, estos gobiernos podr\u00edan expropiar los centros de datos y utilizar la IA que contienen para sus propios fines. Me preocupa menos esto que pa\u00edses como China, que desarrollan directamente la IA, pero es un riesgo que hay que tener en cuenta.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-31-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-31-89396' title='Adem\u00e1s, para ser claros, hay argumentos a favor de la construcci\u00f3n de grandes centros de datos en pa\u00edses con estructuras de gobierno diversas, especialmente si est\u00e1n controlados por empresas democr\u00e1ticas. En principio, estas construcciones podr\u00edan ayudar a las democracias a competir mejor con el PCC, que representa una amenaza mayor. Tambi\u00e9n creo que estos centros de datos no suponen un riesgo particular, a menos que sean de gran tama\u00f1o. Pero, en general, creo que hay que ser cautelosos a la hora de instalar centros de datos muy grandes en pa\u00edses donde las garant\u00edas institucionales y las protecciones del Estado de derecho est\u00e1n menos consolidadas.'><sup>31<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n<p>\u2014 Las propias empresas de IA. Aunque resulte un poco delicado decirlo como director ejecutivo de una empresa de IA, creo que el siguiente nivel de riesgo afecta, de hecho, a las propias empresas. Estas controlan grandes centros de datos, crean modelos avanzados, poseen la mayor experiencia en el uso de dichos modelos y, en algunos casos, est\u00e1n en contacto diario con decenas o cientos de millones de usuarios y tienen la capacidad de influir en ellos. Lo que les falta principalmente es la legitimidad y la infraestructura de un Estado, por lo que gran parte de lo que se necesitar\u00eda para construir las herramientas de una autocracia de IA ser\u00eda ilegal para una empresa de IA, o al menos se considerar\u00eda extremadamente sospechoso. Pero algunas cosas no son imposibles: podr\u00edan, por ejemplo, utilizar sus productos de IA para adoctrinar a su inmensa base de usuarios consumidores, y el p\u00fablico deber\u00eda permanecer alerta ante el riesgo que esto representa. Creo que la gobernanza de las empresas de IA merece ser examinada de cerca. Hay una serie de argumentos posibles contra la gravedad de estas amenazas, y me gustar\u00eda poder creer en ellos, porque el autoritarismo que hace posible la IA me aterroriza. En cualquier caso, vale la pena examinar algunos de estos argumentos y responder a ellos.<\/p>\n\n\n\n<p>En primer lugar, algunas personas podr\u00edan confiar en la disuasi\u00f3n nuclear, en particular para contrarrestar el uso de armas aut\u00f3nomas con IA con fines de conquista militar. Si alguien amenaza con utilizar estas armas contra ti, siempre puedes amenazar con responder con un ataque nuclear. Lo que me preocupa es que no estoy del todo seguro de que podamos confiar en la disuasi\u00f3n nuclear contra un pa\u00eds de genios en un centro de datos: es posible que una IA potente pueda dise\u00f1ar medios para detectar y atacar submarinos nucleares, llevar a cabo operaciones de influencia contra los operadores de infraestructuras de armas nucleares o utilizar las capacidades cibern\u00e9ticas de la IA para lanzar un ciberataque contra los sat\u00e9lites utilizados para detectar lanzamientos nucleares.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-32-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-32-89396' title='Por supuesto, esto tambi\u00e9n es un argumento a favor de&lt;a href=&quot;https:\/\/councilonstrategicrisks.org\/research\/reports\/nuclear-decision-making-and-risk-reduction-in-an-era-of-technological-complexity\/&quot;&gt; mejorar la seguridad de la disuasi\u00f3n&lt;\/a&gt; nuclear para hacerla&lt;a href=&quot;https:\/\/onlinelibrary.wiley.com\/doi\/10.1111\/risa.70136&quot;&gt; m\u00e1s resistente&lt;\/a&gt; frente a una IA poderosa, y las democracias con armas nucleares deber\u00edan hacerlo. Pero no sabemos de qu\u00e9 ser\u00e1 capaz una IA poderosa ni qu\u00e9 defensas, si las hay, ser\u00e1n eficaces contra ella, por lo que no debemos dar por sentado que estas medidas resolver\u00e1n necesariamente el problema.'><sup>32<\/sup><\/a><\/span><\/span> Tambi\u00e9n es posible que la toma de control de pa\u00edses sea factible \u00fanicamente mediante la vigilancia y la propaganda de la IA, sin que haya un momento concreto en el que la situaci\u00f3n sea evidente y una respuesta nuclear sea apropiada. Quiz\u00e1s estas cosas no sean factibles y la disuasi\u00f3n nuclear siga siendo eficaz, pero el riesgo parece demasiado alto como para correrlo.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-33-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-33-89396' title='Tambi\u00e9n existe el riesgo de que, aunque la disuasi\u00f3n nuclear siga siendo eficaz, un pa\u00eds atacante decida tomarnos la palabra: no es seguro que estemos dispuestos a utilizar armas nucleares para defendernos de un enjambre de drones, aunque este represente un riesgo importante de conquistarnos. Los enjambres de drones podr\u00edan constituir una nueva amenaza, menos grave que los ataques nucleares, pero m\u00e1s grave que los ataques convencionales. Adem\u00e1s, las evaluaciones divergentes sobre la eficacia de la disuasi\u00f3n nuclear en la era de la IA podr\u00edan alterar de forma desestabilizadora la teor\u00eda de juegos del conflicto nuclear.'><sup>33<\/sup><\/a><\/span><\/span> Una segunda objeci\u00f3n posible es que podr\u00edan existir contramedidas para remediar estos instrumentos de la autocracia. Podemos contrarrestar los drones con nuestros propios drones, la ciberdefensa mejorar\u00e1 al mismo tiempo que los ciberataques, podr\u00eda haber formas de inmunizar a las personas contra la propaganda, etc. Mi respuesta es que estas defensas solo ser\u00e1n posibles con una IA comparativamente poderosa. Si no existe una fuerza contraria con un pa\u00eds de genios comparativamente inteligentes y numerosos en un centro de datos, no ser\u00e1 posible igualar la calidad o la cantidad de los drones, ni hacer que la ciberdefensa sea m\u00e1s inteligente que el ciberataque, etc. Por lo tanto, la cuesti\u00f3n de las contramedidas se reduce puramente a la del equilibrio de poder en el \u00e1mbito de la IA potente.<\/p>\n\n\n\n<p>En este sentido, me preocupa la propiedad recursiva o autorreforzada de una IA poderosa que mencion\u00e9 al principio de este ensayo: cada generaci\u00f3n de IA puede utilizarse para dise\u00f1ar y entrenar a la siguiente generaci\u00f3n de IA. Esto conlleva un riesgo a\u00fan m\u00e1s incontrolable, en el que el l\u00edder en IA poderosa podr\u00eda aumentar su ventaja y resultar dif\u00edcil de alcanzar. Debemos asegurarnos de que no sea un pa\u00eds autoritario el que llegue primero a esta etapa.<\/p>\n\n\n\n<p class=\"comment\">La mejora autom\u00e1tica o recursiva de la IA se refiere al hecho de que los modelos de IA de vanguardia se utilizan en todo el ciclo de desarrollo de la IA para acelerar el desarrollo de nuevas generaciones de modelos. Para generar mejores datos de entrenamiento mediante IA, se utilizan LLM para generar sint\u00e9ticamente y limpiar sus propios datos de entrenamiento, lo que reduce la dependencia de la anotaci\u00f3n humana y mejora los modelos. El modelo chino<a href=\"https:\/\/arxiv.org\/pdf\/2507.20534\"> Kimi-k2<\/a>, por ejemplo, se basa en un proceso de s\u00edntesis de datos de agentes a gran escala, que genera sistem\u00e1ticamente demostraciones del uso de herramientas a partir de entornos simulados y reales.<\/p>\n\n\n\n<p class=\"comment\">La IA se utiliza en la escritura del c\u00f3digo que sirve para desarrollar modelos mediante agentes de c\u00f3digo. Como indica Dario Amodei, Claude Code se utiliza de forma masiva en el desarrollo de modelos. La IA ayuda a escribir <em>kernels<\/em> GPU, que son la base del c\u00e1lculo de la IA moderna para obtener nuevas implementaciones que aceleran<a href=\"https:\/\/arxiv.org\/pdf\/2601.16175\"> el desarrollo de nuevas arquitecturas<\/a>. Por \u00faltimo, la IA ayuda a dise\u00f1ar las nuevas generaciones de GPU y centros de datos: disposici\u00f3n de los racks, flujo de aire y refrigeraci\u00f3n, etc.<\/p>\n\n\n\n<p class=\"comment\">Llevando esta idea al extremo,<a href=\"https:\/\/legrandcontinent.eu\/es\/2025\/06\/16\/la-singularidad-armoniosa-nuestro-futuro-segun-sam-altman-creador-de-chatgpt\/\"> Sam Altman<\/a> propone un principio de convergencia seg\u00fan el cual, a medida que la IA optimiza por s\u00ed misma los datos, el c\u00f3digo, los <em>kernels<\/em>, el hardware y la infraestructura que la hacen funcionar, su costo marginal a largo plazo tender\u00eda a acercarse al costo de la energ\u00eda.<\/p>\n\n\n\n<p>Adem\u00e1s, aunque se pueda alcanzar un equilibrio de poder, siempre existe el riesgo de que el mundo se divida en esferas autocr\u00e1ticas, como en la novela <em>1984<\/em>. Aunque varias potencias rivales dispongan cada una de sus propios modelos de IA potentes y ninguna pueda dominar a las dem\u00e1s, cada potencia podr\u00eda seguir reprimiendo a su propia poblaci\u00f3n internamente y ser\u00eda muy dif\u00edcil derrocarla, ya que las poblaciones no disponen de una IA potente para defenderse. Por lo tanto, es importante impedir la autocracia que hace posible la IA, aunque no conduzca al dominio mundial de un solo pa\u00eds.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Nuestros medios de defensa<\/strong><\/h3>\n\n\n\n<p>\u00bfC\u00f3mo defendernos de esta amplia gama de instrumentos autocr\u00e1ticos y actores potencialmente amenazantes?<\/p>\n\n\n\n<p>Al igual que en las secciones anteriores, creo que podemos tomar varias medidas. En primer lugar, no debemos vender chips, herramientas de fabricaci\u00f3n de chips ni centros de datos al PCC. Los chips y las herramientas de fabricaci\u00f3n de chips son el principal obst\u00e1culo para una IA poderosa, y bloquearlos es una medida sencilla pero extremadamente eficaz, quiz\u00e1s la m\u00e1s importante que podemos tomar. Es absurdo vender al PCC las herramientas que le permitir\u00e1n construir un Estado totalitario basado en la IA y, eventualmente, conquistarnos militarmente. Se esgrimen una serie de argumentos complejos para justificar estas ventas, como la idea de que \u00abdifundir nuestra tecnolog\u00eda por todo el mundo\u00bb permite a \u00abEstados Unidos ganar\u00bb una batalla econ\u00f3mica general y no especificada. En mi opini\u00f3n, esto equivale a vender armas nucleares a Corea del Norte y luego presumir de que los cascos de los misiles est\u00e1n fabricados por Boeing y que, por lo tanto, Estados Unidos es \u00abganador\u00bb. China lleva varios a\u00f1os de retraso con respecto a Estados Unidos en cuanto a la capacidad de producir chips de \u00faltima generaci\u00f3n en grandes cantidades, y el periodo cr\u00edtico para convertir al pa\u00eds de los genios en un centro de datos se situar\u00e1 muy probablemente en los pr\u00f3ximos a\u00f1os.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-34-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-34-89396' title='Para ser claros, creo que la estrategia correcta es no vender chips a China, aunque el tiempo necesario para desarrollar una IA poderosa sea mucho mayor. No podemos hacer que los chinos \u00abdependen\u00bb de los chips estadounidenses: est\u00e1n decididos a desarrollar su propia industria de chips de una forma u otra. Les llevar\u00e1 muchos a\u00f1os, y al venderles chips, solo les estamos dando un empuj\u00f3n durante ese tiempo.'><sup>34<\/sup><\/a><\/span><\/span>No hay ninguna raz\u00f3n para dar un impulso gigantesco a su industria de la IA durante este periodo cr\u00edtico.<\/p>\n\n\n\n<p class=\"comment\">La administraci\u00f3n de Biden hab\u00eda establecido estrictos controles a la exportaci\u00f3n de semiconductores dise\u00f1ados en Estados Unidos, lo que tambi\u00e9n limitaba el acceso de los pa\u00edses del Golfo a los chips avanzados en el marco de la regulaci\u00f3n sobre la \u00abdifusi\u00f3n de la IA\u00bb. La administraci\u00f3n de Trump revirti\u00f3 esta pol\u00edtica con respecto al Golfo, permitiendo a los Emiratos \u00c1rabes Unidos y Arabia Saudita importar masivamente chips de IA avanzados, con el objetivo de fortalecer las alianzas regionales y alejar a China de esta zona estrat\u00e9gica.<\/p>\n\n\n\n<p>En segundo lugar, es l\u00f3gico utilizar la IA para dotar a las democracias de los medios necesarios para resistir a las autocracias. Por ello, Anthropic considera importante proporcionar IA a las comunidades de inteligencia y defensa de Estados Unidos y sus aliados democr\u00e1ticos. La defensa de las democracias que est\u00e1n siendo atacadas, como Ucrania y \u2014<a href=\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/08\/cables-submarinos-en-taiwan-la-estrategia-china-del-apagon\/\">a trav\u00e9s de ciberataques<\/a>\u2014 Taiw\u00e1n, parece ser una prioridad especial, al igual que dotar a las democracias de los medios necesarios para utilizar sus servicios de inteligencia con el fin de perturbar y debilitar las autocracias desde dentro. La \u00fanica forma de responder a las amenazas autocr\u00e1ticas es igualarlas y superarlas militarmente. Una coalici\u00f3n entre Estados Unidos y sus aliados democr\u00e1ticos, si lograra dominar el campo de la IA poderosa, no solo ser\u00eda capaz de defenderse de las autocracias, sino tambi\u00e9n de contenerlas y limitar sus abusos totalitarios en materia de IA.<\/p>\n\n\n\n<p>En tercer lugar, debemos adoptar una l\u00ednea dura contra los abusos de la IA en las democracias. Debemos limitar lo que permitimos que nuestros gobiernos hagan con la IA para que no se apropien del poder ni repriman a su propia poblaci\u00f3n. La formulaci\u00f3n que he encontrado es que deber\u00edamos utilizar la IA para la defensa nacional de todas las formas <em>posibles, excepto aquellas que nos acerquen a nuestros adversarios aut\u00f3cratas<\/em>.<\/p>\n\n\n\n<p>\u00bfD\u00f3nde debemos trazar la l\u00ednea?<\/p>\n\n\n\n<p>En la lista que figura al principio de esta secci\u00f3n, hay dos elementos \u2014el uso de la IA para la vigilancia masiva y la propaganda masiva a nivel nacional\u2014 que me parecen l\u00edneas rojas evidentes y totalmente ileg\u00edtimas. Algunos podr\u00edan argumentar que no es necesario hacer nada (al menos en Estados Unidos), ya que la vigilancia masiva a nivel nacional ya es ilegal en virtud de la Cuarta Enmienda. Pero los r\u00e1pidos avances de la IA podr\u00edan crear situaciones a las que nuestros marcos jur\u00eddicos actuales no est\u00e1n bien adaptados. Por ejemplo, probablemente no ser\u00eda inconstitucional que el gobierno de Estados Unidos grabara a gran escala todas las conversaciones<em> p\u00fablicas<\/em>, por ejemplo, lo que la gente se dice en una esquina, pero antes habr\u00eda sido dif\u00edcil clasificar ese volumen de informaci\u00f3n. Sin embargo, gracias a la IA, todo podr\u00eda transcribirse, interpretarse y triangularse para crear una imagen de la actitud y las lealtades de una gran parte o de la mayor\u00eda de los ciudadanos. Yo apoyar\u00eda una legislaci\u00f3n centrada en las libertades civiles \u2014incluso una enmienda constitucional\u2014 que impusiera salvaguardias m\u00e1s s\u00f3lidas contra los abusos relacionados con la IA.<\/p>\n\n\n\n<p>Los otros dos puntos \u2014las armas totalmente aut\u00f3nomas y la IA para la toma de decisiones estrat\u00e9gicas\u2014 son m\u00e1s dif\u00edciles de decidir, ya que tienen usos leg\u00edtimos para defender la democracia, pero tambi\u00e9n son susceptibles de ser objeto de abusos. Creo que en este caso es necesario actuar con extrema cautela y realizar un examen minucioso, junto con la imposici\u00f3n de salvaguardias para prevenir los abusos. Mi principal temor es que el n\u00famero de personas con \u00abel dedo en el bot\u00f3n\u00bb sea demasiado reducido, de modo que una sola persona o unas pocas puedan controlar esencialmente un ej\u00e9rcito de drones sin necesidad de la cooperaci\u00f3n de otros seres humanos para ejecutar sus \u00f3rdenes. A medida que los sistemas de IA se vuelven m\u00e1s potentes, es posible que tengamos que establecer mecanismos de control m\u00e1s directos e inmediatos para garantizar que no se utilicen indebidamente, lo que podr\u00eda implicar a otras ramas del gobierno adem\u00e1s del ejecutivo. Creo que debemos abordar las armas totalmente aut\u00f3nomas con mucha precauci\u00f3n&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-35-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-35-89396' title='Para ser claros, la mayor\u00eda de las armas que se utilizan hoy en d\u00eda en Ucrania y Taiw\u00e1n no son &lt;em&gt;totalmente &lt;\/em&gt;aut\u00f3nomas. Lo ser\u00e1n, pero hoy en d\u00eda a\u00fan no lo son.'><sup>35<\/sup><\/a><\/span><\/span> y no precipitarnos a utilizarlas sin las garant\u00edas adecuadas.<\/p>\n\n\n\n<p>En cuarto lugar, tras adoptar una postura firme contra los abusos de la IA en las democracias, debemos aprovechar este precedente para crear un tab\u00fa internacional contra los peores abusos de una IA poderosa. Reconozco que la corriente pol\u00edtica actual es contraria a la cooperaci\u00f3n internacional y a las normas internacionales, pero se trata de un \u00e1mbito en el que las necesitamos urgentemente. El mundo debe comprender el oscuro potencial de una IA poderosa en manos de aut\u00f3cratas y reconocer que algunos usos de la IA equivalen a un intento de robarles definitivamente su libertad e imponer un Estado totalitario del que no pueden escapar. Me atrever\u00eda incluso a decir que, en algunos casos, la vigilancia a gran escala mediante una IA poderosa, la propaganda masiva mediante una IA poderosa y ciertos tipos de usos<em> ofensivos de <\/em>armas totalmente aut\u00f3nomas deber\u00edan considerarse cr\u00edmenes contra la humanidad. En t\u00e9rminos m\u00e1s generales, es necesaria una norma s\u00f3lida contra el totalitarismo que hace posible la IA y todas sus herramientas e instrumentos.<\/p>\n\n\n\n<p>Es posible adoptar una postura a\u00fan m\u00e1s firme, a saber, que, dadas las posibilidades tan sombr\u00edas que ofrece el totalitarismo basado en la IA, la autocracia simplemente no es una forma de gobierno que la gente pueda aceptar en la era de la IA poderosa. Al igual que el feudalismo se volvi\u00f3 inviable con la revoluci\u00f3n industrial, la era de la IA podr\u00eda conducir inevitable y l\u00f3gicamente a la conclusi\u00f3n de que la democracia \u2014y, esperemos, una democracia mejorada y revitalizada por la IA, como explico en <em>Machines of Loving Grace<\/em>\u2014 es, de hecho, la \u00fanica forma de gobierno viable si la humanidad quiere tener un futuro prometedor.<\/p>\n\n\n\n<p>En quinto y \u00faltimo lugar, las empresas de IA deben ser objeto de una estrecha vigilancia, al igual que sus v\u00ednculos con el gobierno, que son necesarios, pero deben tener l\u00edmites y fronteras. El poder de las capacidades que encarna una IA poderosa es tal que la gobernanza empresarial ordinaria, dise\u00f1ada para proteger a los accionistas y prevenir abusos comunes como el fraude, es poco probable que est\u00e9 a la altura de la tarea de regular las empresas de IA. Tambi\u00e9n podr\u00eda ser \u00fatil que las empresas se comprometieran p\u00fablicamente, tal vez incluso en el marco de la gobernanza corporativa, a no tomar determinadas medidas, como la construcci\u00f3n o el almacenamiento privado de material militar, el uso irresponsable de grandes cantidades de recursos inform\u00e1ticos por parte de individuos, o el uso de sus productos de IA como propaganda para manipular la opini\u00f3n p\u00fablica a su favor.<\/p>\n\n\n\n<p>El peligro proviene aqu\u00ed de muchas direcciones, algunas de las cuales est\u00e1n en tensi\u00f3n con otras. La \u00fanica constante es que debemos buscar tanto la responsabilidad como las normas y salvaguardias para todos, incluso si damos a los \u00abbuenos\u00bb actores los medios para controlar a los \u00abmalos\u00bb.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>4. El piano mec\u00e1nico<\/strong><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>La perturbaci\u00f3n econ\u00f3mica<\/strong><\/h3>\n\n\n\n<p>Las tres secciones anteriores trataban principalmente los riesgos de seguridad que plantea una IA poderosa: los riesgos relacionados con la propia IA, los riesgos relacionados con el uso indebido por parte de individuos y peque\u00f1as organizaciones, y los riesgos relacionados con el uso indebido por parte de Estados y grandes organizaciones. Si dejamos de lado los riesgos de seguridad o suponemos que se han resuelto, la siguiente cuesti\u00f3n es de orden econ\u00f3mico. \u00bfCu\u00e1l ser\u00e1 el efecto de esta incre\u00edble aportaci\u00f3n de capital \u00abhumano\u00bb en la econom\u00eda? Est\u00e1 claro que el efecto m\u00e1s evidente ser\u00e1 un fuerte aumento del crecimiento econ\u00f3mico. El ritmo de los avances en la investigaci\u00f3n cient\u00edfica, la innovaci\u00f3n biom\u00e9dica, la fabricaci\u00f3n, las cadenas de suministro, la eficiencia del sistema financiero y muchos otros \u00e1mbitos conducir\u00eda casi con toda seguridad a un crecimiento econ\u00f3mico mucho m\u00e1s r\u00e1pido. En <em>Machines of Loving Grace<\/em>, sugiero que podr\u00eda ser posible una tasa de crecimiento anual sostenida del PIB del 10 al 20 %.<\/p>\n\n\n\n<p>Pero hay que entender que se trata de un arma de doble filo: \u00bfcu\u00e1les son las perspectivas econ\u00f3micas para la mayor\u00eda de los seres humanos que existen en un mundo as\u00ed? Las nuevas tecnolog\u00edas suelen provocar perturbaciones en el mercado laboral y, en el pasado, los seres humanos siempre se han recuperado, pero me temo que esto se debe a que esas perturbaciones anteriores solo afectaron a una peque\u00f1a parte del conjunto de capacidades humanas, lo que permiti\u00f3 a los seres humanos dedicarse a nuevas tareas. La IA tendr\u00e1 efectos mucho m\u00e1s amplios y r\u00e1pidos, por lo que me temo que ser\u00e1 mucho m\u00e1s dif\u00edcil garantizar que todo salga bien.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Perturbaci\u00f3n del mercado laboral<\/strong><\/h3>\n\n\n\n<p>Hay dos problemas concretos que me preocupan: el desplazamiento del mercado laboral y la concentraci\u00f3n del poder econ\u00f3mico. Empecemos por el primero. Es un tema sobre el que advert\u00ed muy p\u00fablicamente en 2025, cuando predije que la IA podr\u00eda sustituir la mitad de todos los empleos de cuello blanco para principiantes en los pr\u00f3ximos 1 a 5 a\u00f1os, incluso si acelera el crecimiento econ\u00f3mico y el progreso cient\u00edfico. Esta advertencia desencaden\u00f3 un debate p\u00fablico sobre el tema. Muchos directores generales, tecn\u00f3logos y economistas estuvieron de acuerdo conmigo, pero otros asumieron que era v\u00edctima de una falacia sobre la \u00abmasa de trabajo\u00bb y que no entend\u00eda c\u00f3mo funciona el mercado laboral. Algunos no entendieron el plazo de 1 a 5 a\u00f1os y pensaron que yo afirmaba que la IA estaba eliminando puestos de trabajo en este momento (lo cual, reconozco, probablemente no sea el caso). Por lo tanto, conviene explicar en detalle por qu\u00e9 me preocupa la sustituci\u00f3n de la mano de obra, a fin de disipar estos malentendidos.<\/p>\n\n\n\n<p class=\"comment\">Hay una serie de datos que permiten destacar varios puntos. Un estudio del \u00edndice econ\u00f3mico de Anthropic mostraba a principios de 2025 que solo alrededor del 4 % de las profesiones utilizaban la IA para al menos el 75 % de sus tareas. En 2025, la integraci\u00f3n de la IA sigue estando principalmente verticalizada por tarea, en lugar de ser una transformaci\u00f3n global del puesto de trabajo. Un estudio de Stanford de septiembre basado en datos de ADP, l\u00edder estadounidense en servicios de pago, muestra que los trabajadores que se encuentran al inicio de su carrera (de 22 a 25 a\u00f1os) y que ocupan puestos de trabajo expuestos a la IA han experimentado una disminuci\u00f3n relativa del empleo del 16 %, mientras que el empleo de los trabajadores con m\u00e1s experiencia se ha mantenido estable. Un estudio de Harvard tambi\u00e9n concluye que el empleo de los j\u00f3venes disminuye en las empresas que adoptan la IA en comparaci\u00f3n con las que no lo hacen, mientras que el empleo de los mayores se mantiene pr\u00e1cticamente sin cambios en 2025. La disminuci\u00f3n de los j\u00f3venes se concentra en las profesiones m\u00e1s expuestas a la IA generativa y se explica por una ralentizaci\u00f3n de las contrataciones.<\/p>\n\n\n\n<p>Para empezar, es \u00fatil comprender c\u00f3mo reaccionan <em>normalmente <\/em>los mercados laborales ante los avances tecnol\u00f3gicos. Cuando aparece una nueva tecnolog\u00eda, lo primero que hace es aumentar la eficiencia de ciertas tareas humanas. Por ejemplo, al comienzo de la Revoluci\u00f3n Industrial, m\u00e1quinas como los arados mejorados permitieron a los agricultores ser m\u00e1s eficientes en ciertos aspectos de su trabajo. Esto mejor\u00f3 la productividad de los agricultores, lo que aument\u00f3 sus salarios.<\/p>\n\n\n\n<p>En una segunda fase, algunas tareas agr\u00edcolas pudieron realizarse <em>\u00edntegramente<\/em> con m\u00e1quinas, por ejemplo, gracias a la invenci\u00f3n de la trilladora o la sembradora. En esta etapa, los humanos realizaban una parte cada vez menor del trabajo, pero el que realizaban se valoraba cada vez m\u00e1s, ya que complementaba el trabajo de las m\u00e1quinas, y su productividad sigui\u00f3 aumentando. Tal y como describe la paradoja de Jevons, los salarios de los agricultores, y quiz\u00e1s incluso su n\u00famero, siguieron aumentando. Incluso cuando el 90 % del trabajo lo realizan m\u00e1quinas, los humanos pueden simplemente hacer 10 veces m\u00e1s con el 10 % que siguen haciendo, produciendo as\u00ed 10 veces m\u00e1s por la misma cantidad de trabajo.<\/p>\n\n\n\n<p>Finalmente, las m\u00e1quinas<a href=\"https:\/\/legrandcontinent.eu\/es\/2024\/10\/17\/la-ia-es-una-eleccion\/\"> hacen todo o casi todo<\/a>, como es el caso de las cosechadoras, los tractores y otros equipos modernos. En este punto, la agricultura como forma de empleo humano est\u00e1 en r\u00e1pido declive, lo que puede provocar graves perturbaciones a corto plazo, pero como la agricultura es solo una de las muchas actividades \u00fatiles que los humanos son capaces de realizar, la gente acaba dedic\u00e1ndose a otros trabajos, como el manejo de m\u00e1quinas en f\u00e1bricas. Esto sigue siendo cierto incluso si la agricultura representaba <em>anteriormente<\/em> una parte importante del empleo. Hace 250 a\u00f1os, el 90 % de los estadounidenses viv\u00eda en granjas; en Europa, entre el 50 % y el 60 % de los empleos eran agr\u00edcolas. Hoy en d\u00eda, estos porcentajes son inferiores al 10 % en esas regiones, ya que los trabajadores se han orientado hacia empleos industriales (y luego a empleos intelectuales). La econom\u00eda puede lograr lo que antes requer\u00eda la mayor parte de la mano de obra con solo el 1-2 % de esta, liberando as\u00ed al resto de la mano de obra para construir una sociedad industrial cada vez m\u00e1s avanzada. No existe una \u00abmasa de trabajo\u00bb fija, sino solo una capacidad cada vez mayor de hacer m\u00e1s con menos. Los salarios de las personas aumentan a la par que el crecimiento exponencial del PIB y la econom\u00eda mantiene el pleno empleo una vez que desaparecen las perturbaciones a corto plazo.<\/p>\n\n\n\n<p>Es posible que con la IA ocurra m\u00e1s o menos lo mismo, pero yo apostar\u00eda m\u00e1s bien por lo contrario. He aqu\u00ed algunas razones por las que creo que la IA probablemente ser\u00e1 diferente:<\/p>\n\n\n\n<p>\u2014 La velocidad. El ritmo de los avances en IA es mucho m\u00e1s r\u00e1pido que en revoluciones tecnol\u00f3gicas anteriores. Por ejemplo, en los \u00faltimos dos a\u00f1os, los modelos de IA han pasado de tener una capacidad apenas suficiente para escribir una sola l\u00ednea de c\u00f3digo a ser capaces de escribir todo o casi todo el c\u00f3digo para algunas personas, incluidos los ingenieros de Anthropic.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-36-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-36-89396' title='Nuestra ficha modelo para Claude Opus 4.5, nuestro modelo m\u00e1s reciente, muestra que Opus obtiene mejores resultados en una entrevista de ingenier\u00eda de rendimiento que se realiza con frecuencia en Anthropic que cualquier otro candidato en la historia de la empresa.'><sup>36<\/sup><\/a><\/span><\/span> Pronto podr\u00edan ser capaces de realizar todas las tareas de un ingeniero de software, de principio a fin.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-37-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-37-89396' title='\u00abEscribir todo el c\u00f3digo\u00bb y \u00abrealizar el trabajo de un ingeniero de software de principio a fin\u00bb son dos cosas muy diferentes, ya que los ingenieros de software hacen mucho m\u00e1s que simplemente escribir c\u00f3digo. Tambi\u00e9n realizan pruebas, gestionan entornos, archivos e instalaciones, gestionan implementaciones de TI en la nube, iteran sobre productos y mucho m\u00e1s.'><sup>37<\/sup><\/a><\/span><\/span> A las personas les cuesta adaptarse a este ritmo de cambio, tanto en lo que respecta a los cambios en el funcionamiento de un puesto de trabajo concreto como a la necesidad de cambiar de empleo. Incluso los programadores legendarios se describen cada vez m\u00e1s a s\u00ed mismos como \u00abrezagados\u00bb. El ritmo podr\u00eda incluso seguir aceler\u00e1ndose, ya que los modelos de codificaci\u00f3n de IA aceleran cada vez m\u00e1s el desarrollo de la IA. Para ser claros, la velocidad en s\u00ed misma no significa que los mercados laborales y el empleo no se recuperar\u00e1n finalmente, sino simplemente que la transici\u00f3n a corto plazo ser\u00e1 especialmente dolorosa en comparaci\u00f3n con las tecnolog\u00edas anteriores, ya que los seres humanos y los mercados laborales son lentos para reaccionar y equilibrarse.<\/p>\n\n\n\n<p>\u2014 Amplitud cognitiva. Como sugiere la expresi\u00f3n \u00abpa\u00eds de genios en un centro de datos\u00bb, la IA ser\u00e1 capaz de ejercer una amplia gama de capacidades cognitivas humanas, si no todas. Esto difiere considerablemente de tecnolog\u00edas anteriores como la agricultura mecanizada, el transporte o incluso las computadoras.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-38-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-38-89396' title='Las computadoras son generales en cierto sentido, pero es evidente que, por s\u00ed solas, son incapaces de ejercer la gran mayor\u00eda de las capacidades cognitivas humanas, aunque superan ampliamente a los humanos en algunas \u00e1reas (como la aritm\u00e9tica). Por supuesto, los elementos construidos &lt;em&gt;a partir de &lt;\/em&gt;computadoras, como la IA, ahora son capaces de ejercer una amplia gama de capacidades cognitivas, que es el tema de este ensayo.'><sup>38<\/sup><\/a><\/span><\/span> Por lo tanto, ser\u00e1 m\u00e1s dif\u00edcil para las personas pasar f\u00e1cilmente de un empleo suprimido a otro similar que les convenga. Por ejemplo, las capacidades intelectuales generales requeridas para los empleos de principiantes en campos como las finanzas, la consultor\u00eda y el derecho son bastante similares, aunque los conocimientos espec\u00edficos sean muy diferentes. Una tecnolog\u00eda que solo afectara a uno de estos tres \u00e1mbitos permitir\u00eda a los empleados reconvertirse en los otros dos \u00e1mbitos afines (o a los estudiantes cambiar de carrera). Pero afectar a los tres \u00e1mbitos a la vez (as\u00ed como a muchos otros empleos similares) podr\u00eda dificultar la adaptaci\u00f3n de las personas afectadas. Adem\u00e1s, no <em>solo <\/em>se ver\u00e1n afectados la mayor\u00eda de los empleos existentes. Esto ya ha ocurrido en el pasado: recordemos que la agricultura representaba antiguamente un porcentaje importante del empleo. Pero los agricultores pod\u00edan reconvertirse en un trabajo relativamente similar, a saber, el uso de maquinaria industrial, aunque este trabajo no fuera habitual anteriormente. Por el contrario, la IA se acerca cada vez m\u00e1s al perfil cognitivo general de los seres humanos, lo que significa que tambi\u00e9n ser\u00e1 eficaz en los nuevos empleos que normalmente se crear\u00edan en respuesta a la automatizaci\u00f3n de los antiguos. En otras palabras, la IA no es un sustituto de empleos humanos espec\u00edficos, sino m\u00e1s bien un sustituto general de la mano de obra humana.<\/p>\n\n\n\n<p>\u2014 Distribuci\u00f3n por capacidad cognitiva. En una amplia gama de tareas, la IA parece progresar de abajo hacia arriba en la escala de capacidades. Por ejemplo, en materia de codificaci\u00f3n, nuestros modelos han pasado del nivel \u00abcodificador mediocre\u00bb a \u00abcodificador competente\u00bb y, posteriormente, a \u00abcodificador muy competente\u00bb.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-39-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-39-89396' title='Para ser claros, los modelos de IA no tienen exactamente el mismo perfil de fortalezas y debilidades que los humanos. Pero progresan de manera bastante uniforme en todas las dimensiones, por lo que un perfil irregular o desigual finalmente no importa.'><sup>39<\/sup><\/a><\/span><\/span> Ahora estamos empezando a observar la misma progresi\u00f3n en el trabajo de oficina en general. Por lo tanto, corremos el riesgo de encontrarnos en una situaci\u00f3n en la que, en lugar de asignar a personas con habilidades espec\u00edficas o que ejercen profesiones espec\u00edficas (que pueden adaptarse mediante el reciclaje profesional), la IA asigne a personas con ciertas propiedades cognitivas intr\u00ednsecas, es decir, capacidades intelectuales inferiores (que son m\u00e1s dif\u00edciles de cambiar). No est\u00e1 claro ad\u00f3nde ir\u00e1n estas personas ni qu\u00e9 har\u00e1n, y me temo que formar\u00e1n una \u00absubclase\u00bb de desempleados o trabajadores con salarios muy bajos. Para ser claros, situaciones similares ya se han producido en el pasado. Por ejemplo, algunos economistas consideran que las computadoras e internet representan un \u00abcambio tecnol\u00f3gico que favorece las habilidades\u00bb. Pero este sesgo a favor de las habilidades no era tan extremo como lo que preveo con la IA, y habr\u00eda contribuido a aumentar las desigualdades salariales,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-40-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-40-89396' title='Aunque esta idea es objeto de&lt;a href=&quot;https:\/\/davidcard.berkeley.edu\/papers\/skill-tech-change.pdf&quot;&gt; debate&lt;\/a&gt;&lt;a href=&quot;https:\/\/jhr.uwpress.org\/content\/58\/6\/1783.abstract&quot;&gt; entre los&lt;\/a&gt;&lt;a href=&quot;https:\/\/www.epi.org\/publication\/technology-inequality-dont-blame-the-robots\/&quot;&gt; economistas&lt;\/a&gt;.'><sup>40<\/sup><\/a><\/span><\/span> por lo que no es precisamente un precedente tranquilizador.<\/p>\n\n\n\n<p>\u2014 Capacidad para llenar vac\u00edos. Los empleos humanos a menudo se adaptan a las nuevas tecnolog\u00edas de tal manera que el trabajo tiene muchos aspectos y la nueva tecnolog\u00eda, aunque parezca sustituir directamente a los humanos, a menudo tiene vac\u00edos. Si alguien inventa una m\u00e1quina para fabricar gadgets, es posible que los humanos sigan teniendo que cargar las materias primas en la m\u00e1quina. Aunque esto solo requiera el 1 % del esfuerzo necesario para fabricar los gadgets a mano, los trabajadores humanos pueden fabricar 100 veces m\u00e1s gadgets. Pero la IA, adem\u00e1s de ser una tecnolog\u00eda en r\u00e1pida evoluci\u00f3n, tambi\u00e9n es una tecnolog\u00eda<em> que se adapta<\/em> r\u00e1pidamente. Cada vez que se lanza un nuevo modelo, las empresas de IA eval\u00faan cuidadosamente sus puntos fuertes y d\u00e9biles, y los clientes tambi\u00e9n proporcionan esta informaci\u00f3n despu\u00e9s del lanzamiento. Las debilidades pueden corregirse recopilando las tareas que ilustran las deficiencias actuales e integr\u00e1ndolas en el entrenamiento del siguiente modelo. En los inicios de la IA generativa, los usuarios observaron que los sistemas de IA presentaban ciertas deficiencias (por ejemplo, los modelos de im\u00e1genes de IA generaban manos con un n\u00famero incorrecto de dedos) y muchos asumieron que estas deficiencias eran inherentes a la tecnolog\u00eda. Si fuera as\u00ed, esto limitar\u00eda la disrupci\u00f3n del empleo. Sin embargo, la mayor\u00eda de estas deficiencias se corrigen r\u00e1pidamente, a menudo en solo unos meses.<\/p>\n\n\n\n<p class=\"comment\">La mayor\u00eda de los <em>benchmarks<\/em> de IA alcanzan un techo de rendimiento en pocos a\u00f1os, o incluso en pocos meses, tras su introducci\u00f3n. Este patr\u00f3n recurrente sugiere que muchas de las \u00ablimitaciones\u00bb percibidas de los sistemas de IA no son en realidad barreras intr\u00ednsecas, sino objetivos temporales, r\u00e1pidamente saturados, relacionados con lo que elegimos medir en un momento dado. En el \u00e1mbito de las matem\u00e1ticas, por ejemplo, la sucesi\u00f3n de pruebas de rendimiento ilustra bien el desplazamiento de los objetivos a medida que se van saturando. GSM8K med\u00eda principalmente la capacidad de encadenar correctamente operaciones aritm\u00e9ticas de nivel escolar; con el aumento de la escala y el uso del razonamiento paso a paso, se satur\u00f3 r\u00e1pidamente. AIME desplaz\u00f3 el objetivo hacia problemas de concursos, m\u00e1s cortos pero que requieren intuiciones algebraicas y combinatorias, donde el progreso es m\u00e1s lento e irregular. Otros <em>benchmarks<\/em> m\u00e1s recientes, como FrontierMath, eval\u00faan la capacidad de mantener un razonamiento matem\u00e1tico coherente en problemas largos y poco estandarizados, y hoy en d\u00eda siguen sin estar saturados. En cada etapa, el \u00abl\u00edmite\u00bb observado corresponde menos a una barrera fundamental que al nivel de exigencia del objetivo elegido. Tan pronto como una debilidad se formaliza claramente mediante un <em>benchmark <\/em>y este adquiere relevancia econ\u00f3mica, suele atraer esfuerzos espec\u00edficos de recopilaci\u00f3n de datos, entrenamiento y optimizaci\u00f3n, y la diferencia de rendimiento se reduce r\u00e1pidamente. Este es el caso, por ejemplo, de GDPEval, que mide la capacidad de los modelos para realizar tareas de trabajo reales de alto valor econ\u00f3mico, y<a href=\"https:\/\/openai.com\/index\/introducing-gpt-5-2\/\"> GPT5.2<\/a>.<\/p>\n\n\n\n<p>Es necesario abordar los puntos comunes de escepticismo. En primer lugar, algunos afirman que la difusi\u00f3n econ\u00f3mica ser\u00e1 lenta, de modo que, aunque la tecnolog\u00eda subyacente sea <em>capaz de <\/em>realizar la mayor\u00eda de las tareas humanas, su aplicaci\u00f3n real en el conjunto de la econom\u00eda podr\u00eda ser mucho m\u00e1s lenta (por ejemplo, en sectores alejados de la industria de la IA y lentos en adoptarla). La lentitud de la difusi\u00f3n de la tecnolog\u00eda es muy real: hablo con personas de una gran variedad de empresas y hay \u00e1mbitos en los que la adopci\u00f3n de la IA llevar\u00e1 a\u00f1os. Por eso preveo que el 50 % de los empleos de cuello blanco para principiantes se ver\u00e1n afectados en un plazo de 1 a 5 a\u00f1os, aunque creo que dispondremos de una IA poderosa (que, desde el punto de vista tecnol\u00f3gico, ser\u00eda suficiente para realizar <em>la mayor\u00eda o la totalidad <\/em>de las tareas, y no solo las de nivel principiante) en mucho menos de 5 a\u00f1os. Pero los efectos de difusi\u00f3n solo nos hacen ganar tiempo. Y no estoy convencido de que vayan a ser tan lentos como la gente predice. La adopci\u00f3n de la IA por parte de las empresas avanza a un ritmo mucho m\u00e1s r\u00e1pido que cualquier tecnolog\u00eda anterior, en gran parte gracias al poder\u00edo de la propia tecnolog\u00eda. Adem\u00e1s, aunque las empresas tradicionales sean lentas en adoptar las nuevas tecnolog\u00edas, surgir\u00e1n nuevas empresas que servir\u00e1n de \u00abenlace\u00bb y facilitar\u00e1n la adopci\u00f3n. Si esto no funciona, las nuevas empresas podr\u00edan simplemente perturbar directamente a las empresas ya establecidas.<\/p>\n\n\n\n<p>Esto podr\u00eda conducir a un mundo en el que no se perturbaran tanto puestos de trabajo espec\u00edficos, sino m\u00e1s bien las grandes empresas en general, que ser\u00edan sustituidas por empresas emergentes mucho menos intensivas en mano de obra. Tambi\u00e9n podr\u00eda conducir a un mundo de \u00abdesigualdades geogr\u00e1ficas\u00bb, en el que una parte cada vez mayor de la riqueza mundial se concentrar\u00eda en Silicon Valley, que se convertir\u00eda en una econom\u00eda independiente que funcionar\u00eda a un ritmo diferente al del resto del mundo y lo dejar\u00eda atr\u00e1s. Todos estos resultados ser\u00edan excelentes para el crecimiento econ\u00f3mico, pero no tanto para el mercado laboral o para aquellos que se quedan atr\u00e1s.<\/p>\n\n\n\n<p>En segundo lugar, algunos afirman que los empleos humanos se desplazar\u00e1n al mundo f\u00edsico, lo que evitar\u00eda toda la categor\u00eda del \u00abtrabajo cognitivo\u00bb, donde la IA avanza tan r\u00e1pidamente. Tampoco estoy seguro de que esto sea muy seguro. Gran parte del trabajo f\u00edsico ya lo realizan m\u00e1quinas (por ejemplo, en el sector manufacturero) o lo har\u00e1n pronto (por ejemplo, la conducci\u00f3n de autom\u00f3viles). Adem\u00e1s, una IA lo suficientemente potente ser\u00e1 capaz de acelerar el desarrollo de robots y, a continuaci\u00f3n, controlar esos robots en el mundo f\u00edsico. Quiz\u00e1s esto permita ganar algo de tiempo (lo cual es positivo), pero me temo que no ser\u00e1 suficiente. E incluso si la disrupci\u00f3n se limitara a las tareas cognitivas, seguir\u00eda siendo de una magnitud y una rapidez sin precedentes.<\/p>\n\n\n\n<p>En tercer lugar, es posible que algunas tareas requieran intr\u00ednsecamente un toque humano o se beneficien enormemente de \u00e9l. No estoy tan seguro de esto, pero sigo siendo esc\u00e9ptico en cuanto a que sea suficiente para compensar la mayor parte de los impactos que he descrito anteriormente. La IA ya se utiliza ampliamente en el servicio al cliente. Muchas personas afirman que les resulta m\u00e1s f\u00e1cil hablar de sus problemas personales con una IA que con un terapeuta, ya que la IA es m\u00e1s paciente. Cuando mi hermana tuvo problemas m\u00e9dicos durante su embarazo, sinti\u00f3 que no obten\u00eda las respuestas o el apoyo que necesitaba de sus proveedores de atenci\u00f3n m\u00e9dica, y descubri\u00f3 que Claude ten\u00eda un mejor contacto con los pacientes (y diagnosticaba mejor el problema). Estoy seguro de que hay ciertas tareas en las que el contacto humano es realmente importante, pero no s\u00e9 cu\u00e1ntas. Y aqu\u00ed estamos hablando de encontrar trabajo para casi todo el mundo en el mercado laboral.<\/p>\n\n\n\n<p>En cuarto lugar, algunos dir\u00e1n que la ventaja comparativa seguir\u00e1 protegiendo a los humanos. Seg\u00fan la ley de la ventaja comparativa, aunque la IA sea mejor que los humanos en todos los \u00e1mbitos, cualquier diferencia<em> relativa entre <\/em>las habilidades humanas y las de la IA crea una base para el intercambio y la especializaci\u00f3n entre los humanos y la IA. El problema es que si la IA es literalmente miles de veces m\u00e1s productiva que los humanos, esta l\u00f3gica comienza a desmoronarse. Incluso unos costos de transacci\u00f3n m\u00ednimos podr\u00edan hacer que el comercio con los humanos resultara poco interesante para la IA. Y los salarios humanos podr\u00edan ser muy bajos, aunque t\u00e9cnicamente los humanos tengan algo que ofrecer.<\/p>\n\n\n\n<p>Es posible que todos estos factores puedan tenerse en cuenta, que el mercado laboral sea lo suficientemente resistente como para adaptarse a una perturbaci\u00f3n tan enorme. Pero aunque pueda acabar adapt\u00e1ndose, los factores anteriores sugieren que el impacto a corto plazo ser\u00e1 de una magnitud sin precedentes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Nuestros medios de defensa<\/strong><\/h3>\n\n\n\n<p>\u00bfQu\u00e9 podemos hacer ante este problema? Tengo varias sugerencias, algunas de las cuales ya est\u00e1n siendo implementadas por Anthropic.<\/p>\n\n\n\n<p>Lo primero que hay que hacer es simplemente obtener datos precisos en tiempo real sobre lo que est\u00e1 sucediendo en materia de destrucci\u00f3n de empleo. Cuando se produce un cambio econ\u00f3mico muy r\u00e1pido, es dif\u00edcil obtener datos fiables sobre lo que est\u00e1 sucediendo y, sin datos fiables, es dif\u00edcil dise\u00f1ar pol\u00edticas eficaces. Por ejemplo, los datos gubernamentales carecen actualmente de datos granulares y de alta frecuencia sobre la adopci\u00f3n de la IA en las empresas y las industrias. Durante el \u00faltimo a\u00f1o, Anthropic ha estado recopilando y publicando un \u00edndice econ\u00f3mico que muestra el uso de nuestros modelos casi en tiempo real, desglosado por industria, tarea, ubicaci\u00f3n e incluso por elementos como si una tarea est\u00e1 automatizada o se realiza de forma colaborativa. Tambi\u00e9n contamos con un consejo asesor econ\u00f3mico que nos ayuda a interpretar estos datos y a anticipar el futuro.<\/p>\n\n\n\n<p>En segundo lugar, las empresas de IA pueden elegir c\u00f3mo trabajar con las empresas. La propia ineficiencia de las empresas tradicionales significa que su implementaci\u00f3n de la IA puede depender en gran medida del camino que se elija, y existe cierto margen de maniobra para elegir un camino mejor. Las empresas suelen tener la opci\u00f3n de \u00abreducir costos\u00bb (hacer lo mismo con menos personal) o \u00abinnovar\u00bb (hacer m\u00e1s con el mismo n\u00famero de personas). El mercado producir\u00e1 inevitablemente ambas cosas a largo plazo, y cualquier empresa de IA competitiva tendr\u00e1 que satisfacer ambas necesidades, pero tal vez sea posible orientar a las empresas hacia la innovaci\u00f3n cuando sea posible, lo que nos ahorrar\u00eda tiempo. Anthropic est\u00e1 reflexionando activamente sobre esta cuesti\u00f3n.<\/p>\n\n\n\n<p>En tercer lugar, las empresas deben pensar en c\u00f3mo cuidar a sus empleados. A corto plazo, ser creativo a la hora de reasignar a los empleados dentro de las empresas puede ser una forma prometedora de evitar despidos. A largo plazo, en un mundo en el que la riqueza total es enorme y muchas empresas ven aumentar considerablemente su valor gracias al aumento de la productividad y la concentraci\u00f3n del capital, podr\u00eda ser posible remunerar a los empleados humanos incluso mucho despu\u00e9s de que hayan dejado de aportar valor econ\u00f3mico en el sentido tradicional del t\u00e9rmino. Anthropic est\u00e1 estudiando actualmente una serie de posibles v\u00edas para sus propios empleados, que compartiremos en un futuro pr\u00f3ximo.<\/p>\n\n\n\n<p>En cuarto lugar, las personas adineradas tienen la obligaci\u00f3n de contribuir a la resoluci\u00f3n de este problema. Me parece lamentable que muchas personas adineradas (especialmente en el sector tecnol\u00f3gico) hayan adoptado recientemente una actitud c\u00ednica y nihilista, considerando que la filantrop\u00eda es inevitablemente fraudulenta o in\u00fatil. Tanto las iniciativas filantr\u00f3picas privadas, como la Fundaci\u00f3n Gates, como los programas p\u00fablicos, como el PEPFAR, han salvado decenas de millones de vidas en los pa\u00edses en desarrollo y han contribuido a crear oportunidades econ\u00f3micas en los pa\u00edses desarrollados. Todos los cofundadores de Anthropic se han comprometido a donar el 80 % de su fortuna, y los empleados de Anthropic se han comprometido individualmente a donar acciones de la empresa por valor de varios miles de millones al precio actual, donaciones que la empresa se ha comprometido a igualar.<\/p>\n\n\n\n<p>En quinto lugar, aunque todas las medidas privadas mencionadas anteriormente pueden ser \u00fatiles, un problema macroecon\u00f3mico de tal magnitud requerir\u00e1, en \u00faltima instancia, la intervenci\u00f3n de los poderes p\u00fablicos. La respuesta pol\u00edtica natural a un enorme pastel econ\u00f3mico asociado a fuertes desigualdades (debidas a la falta de empleo o a empleos mal remunerados para muchos) es una fiscalidad progresiva. El impuesto podr\u00eda ser general o dirigirse espec\u00edficamente a las empresas de IA. Es evidente que el dise\u00f1o de un impuesto es complejo y que hay muchas formas de equivocarse. No apoyo las pol\u00edticas fiscales mal dise\u00f1adas. Creo que los niveles extremos de desigualdad previstos en este ensayo justifican una pol\u00edtica fiscal m\u00e1s s\u00f3lida por razones morales fundamentales, pero tambi\u00e9n puedo presentar un argumento pragm\u00e1tico a los multimillonarios de todo el mundo, a saber, que les conviene apoyar una buena versi\u00f3n de esta pol\u00edtica: si no apoyan una buena versi\u00f3n, inevitablemente se encontrar\u00e1n con una mala versi\u00f3n dise\u00f1ada por la multitud.<\/p>\n\n\n\n<p>En \u00faltima instancia, considero que todas las intervenciones mencionadas anteriormente son formas de ganar tiempo. Con el tiempo, la IA ser\u00e1 capaz de hacerlo todo, y debemos prepararnos para ello. Espero que, para entonces, podamos utilizar la propia IA para ayudarnos a reestructurar los mercados de una manera que satisfaga a todos, y que las intervenciones mencionadas anteriormente nos permitan atravesar el per\u00edodo de transici\u00f3n.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>La concentraci\u00f3n econ\u00f3mica del poder<\/strong><\/h3>\n\n\n\n<p>El problema de <em>la concentraci\u00f3n econ\u00f3mica del poder <\/em>es distinto del desplazamiento de puestos de trabajo o de la desigualdad econ\u00f3mica <em>en s\u00ed misma.<\/em> En la secci\u00f3n 1 se abord\u00f3 el riesgo de que la IA prive a la humanidad de su poder, y en la secci\u00f3n 3 se abord\u00f3 el riesgo de que los gobiernos priven a los ciudadanos de su poder mediante la fuerza o la coacci\u00f3n.<\/p>\n\n\n\n<p>Pero puede producirse otro tipo de privaci\u00f3n de poder si existe tal concentraci\u00f3n de riqueza que un peque\u00f1o grupo de personas controla efectivamente la pol\u00edtica gubernamental gracias a su influencia, y los ciudadanos de a pie no tienen ninguna influencia porque carecen de poder econ\u00f3mico. La democracia se basa, en \u00faltima instancia, en la idea de que toda la poblaci\u00f3n es necesaria para el funcionamiento de la econom\u00eda. Si esa influencia econ\u00f3mica desaparece, el contrato social impl\u00edcito de la democracia podr\u00eda dejar de funcionar. Otros ya han escrito sobre este tema, por lo que no necesito entrar en detalles aqu\u00ed, pero comparto esta preocupaci\u00f3n y me temo que ya est\u00e1 empezando a ocurrir.<\/p>\n\n\n\n<p>Para que quede claro, no me opongo a que la gente gane mucho dinero. Existe un argumento s\u00f3lido que sostiene que esto estimula el crecimiento econ\u00f3mico en condiciones normales. Entiendo la preocupaci\u00f3n por obstaculizar la innovaci\u00f3n matando a la gallina de los huevos de oro que la genera. Pero en un escenario en el que el crecimiento del PIB es del 10 al 20 % anual y la IA est\u00e1 tomando r\u00e1pidamente el control de la econom\u00eda, mientras que individuos aislados poseen una parte apreciable del PIB, la innovaci\u00f3n <em>no<\/em> es <em>lo que <\/em>debe preocuparnos. Lo que debe preocuparnos es un nivel de concentraci\u00f3n de la riqueza que va a romper la sociedad.<\/p>\n\n\n\n<p>El ejemplo m\u00e1s famoso de concentraci\u00f3n extrema de riqueza en la historia de Estados Unidos es la Edad de Oro, y el industrial m\u00e1s rico de esa \u00e9poca fue John D. Rockefeller. La fortuna de Rockefeller representaba aproximadamente el 2 % del PIB estadounidense de la \u00e9poca.&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-41-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-41-89396' title='La riqueza personal es un \u00abstock\u00bb, mientras que el PIB es un \u00abflujo\u00bb, por lo que no se puede afirmar que Rockefeller poseyera el 2 % del valor econ\u00f3mico de Estados Unidos. Sin embargo, es m\u00e1s dif\u00edcil medir la riqueza total de una naci\u00f3n que el PIB, y los ingresos individuales var\u00edan mucho de un a\u00f1o a otro, por lo que resulta complicado establecer una proporci\u00f3n en las mismas unidades. La relaci\u00f3n entre la mayor fortuna personal y el PIB, aunque no se trata de una comparaci\u00f3n propiamente dicha, constituye sin embargo un criterio perfectamente razonable para evaluar la concentraci\u00f3n extrema de la riqueza.'><sup>41<\/sup><\/a><\/span><\/span> Una proporci\u00f3n similar hoy en d\u00eda representar\u00eda una fortuna de 600.000 millones de d\u00f3lares, y la persona m\u00e1s rica del mundo en la actualidad (Elon Musk) ya supera esa cifra, con aproximadamente 700.000 millones de d\u00f3lares. Por lo tanto, ya hemos alcanzado niveles de concentraci\u00f3n de riqueza sin precedentes en la historia, incluso <em>antes <\/em>de que la IA haya tenido la mayor parte de su impacto econ\u00f3mico. No creo que sea exagerado (si conseguimos un \u00abpa\u00eds de genios\u00bb) imaginar que las empresas de IA, las empresas de semiconductores y quiz\u00e1s las empresas de aplicaciones derivadas generen unos ingresos anuales de alrededor de 3 billones de d\u00f3lares,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-42-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-42-89396' title='El valor total del trabajo en la econom\u00eda es de 60 billones de d\u00f3lares al a\u00f1o, por lo que 3 billones de d\u00f3lares al a\u00f1o corresponder\u00edan al 5 % de esa cantidad. Esta cantidad podr\u00eda ser obtenida por una empresa que proporcionara mano de obra por el 20 % del costo de los seres humanos y tuviera una participaci\u00f3n de mercado del 25 %, incluso si la demanda de mano de obra no aumentara (lo que casi con toda seguridad ocurrir\u00eda debido al menor costo).'><sup>42<\/sup><\/a><\/span><\/span> con un valor aproximado de 30 billones de d\u00f3lares, y generen fortunas personales que se cuentan por billones. En ese mundo, los debates que mantenemos hoy en d\u00eda sobre pol\u00edtica fiscal simplemente dejar\u00e1n de tener sentido, ya que nos encontraremos en una situaci\u00f3n fundamentalmente diferente.<\/p>\n\n\n\n<p>En este sentido, la combinaci\u00f3n de esta concentraci\u00f3n econ\u00f3mica de la riqueza con el sistema pol\u00edtico ya me preocupa. Los centros de datos de IA ya representan una parte importante del crecimiento econ\u00f3mico estadounidense&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-43-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-43-89396' title='Para ser claros, no creo que la productividad real de la IA sea ya responsable de una parte sustancial del crecimiento econ\u00f3mico estadounidense. M\u00e1s bien creo que el gasto en centros de datos representa un crecimiento provocado por inversiones anticipadas, ya que el mercado anticipa&lt;em&gt; un futuro&lt;\/em&gt; crecimiento econ\u00f3mico impulsado por la IA e invierte en consecuencia.'><sup>43<\/sup><\/a><\/span><\/span> y, por lo tanto, vinculan estrechamente los intereses financieros de las grandes empresas tecnol\u00f3gicas (que se centran cada vez m\u00e1s en la IA o las infraestructuras de IA) y los intereses pol\u00edticos del gobierno, de una manera que puede generar incentivos perversos. Ya lo vemos en la reticencia de las empresas tecnol\u00f3gicas a criticar al gobierno estadounidense y en el apoyo de este a pol\u00edticas antirreguladoras extremas en materia de IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Nuestros medios de defensa<\/strong><\/h3>\n\n\n\n<p>\u00bfQu\u00e9 se puede hacer al respecto? En primer lugar, y lo m\u00e1s obvio, las empresas deber\u00edan simplemente optar por no participar. Anthropic siempre se ha esforzado por ser un hacedor de pol\u00edticas y no un actor pol\u00edtico, y por mantener sus opiniones aut\u00e9nticas independientemente de la administraci\u00f3n. Nos hemos pronunciado a favor de una regulaci\u00f3n razonable de la IA y de controles de exportaci\u00f3n que redunden en el inter\u00e9s p\u00fablico, incluso cuando estos contradicen la pol\u00edtica gubernamental. Muchas personas me han dicho que deber\u00edamos dejar de hacerlo, que podr\u00eda acarrearnos un trato desfavorable, pero desde que lo hacemos, hace un a\u00f1o, la valoraci\u00f3n de Anthropic se ha multiplicado por m\u00e1s de seis, un aumento casi sin precedentes a nuestra escala comercial.<\/p>\n\n\n\n<p>En segundo lugar, el sector de la IA necesita una relaci\u00f3n m\u00e1s sana con el gobierno, basada en un compromiso pol\u00edtico sustantivo m\u00e1s que en una alineaci\u00f3n pol\u00edtica. Nuestra decisi\u00f3n de comprometernos con el fondo m\u00e1s que con la forma se interpreta a veces como un error t\u00e1ctico o una incapacidad para \u00ableer la sala\u00bb, en lugar de como una decisi\u00f3n de principio, y esta interpretaci\u00f3n me preocupa. En una democracia sana, las empresas deber\u00edan poder defender buenas pol\u00edticas por su propio bien. En la misma l\u00ednea, se est\u00e1 gestando una reacci\u00f3n negativa del p\u00fablico hacia la IA: podr\u00eda ser una medida correctiva, pero actualmente carece de precisi\u00f3n. Se centra en gran medida en cuestiones que no constituyen realmente problemas (como el consumo de agua de los centros de datos) y propone soluciones (como la prohibici\u00f3n de los centros de datos o impuestos sobre el patrimonio mal dise\u00f1ados) que no responder\u00edan a las verdaderas preocupaciones. La cuesti\u00f3n subyacente que merece nuestra atenci\u00f3n es garantizar que el desarrollo de la IA siga siendo responsable con respecto al inter\u00e9s p\u00fablico, sin quedar capturado por una alianza pol\u00edtica o comercial concreta, y parece importante centrar el debate p\u00fablico en este punto.<\/p>\n\n\n\n<p>En tercer lugar, las intervenciones macroecon\u00f3micas que he descrito anteriormente en esta secci\u00f3n, junto con el resurgimiento de la filantrop\u00eda privada, pueden contribuir a equilibrar la balanza econ\u00f3mica, abordando tanto los problemas de p\u00e9rdida de empleo como los de concentraci\u00f3n del poder econ\u00f3mico. Deber\u00edamos inspirarnos en la historia de nuestro pa\u00eds: incluso en la edad de oro, industriales como Rockefeller y Carnegie se sent\u00edan muy en deuda con la sociedad en su conjunto, ya que consideraban que esta hab\u00eda contribuido enormemente a su \u00e9xito y que deb\u00edan devolverle el favor. Este esp\u00edritu parece estar cada vez m\u00e1s ausente hoy en d\u00eda, y creo que constituye una gran parte de la soluci\u00f3n a este dilema econ\u00f3mico. Quienes est\u00e1n a la vanguardia del auge econ\u00f3mico de la IA deber\u00edan estar dispuestos a renunciar a su riqueza y poder.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>5. Las profundas aguas del infinito<\/strong><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Efectos secundarios<\/strong><\/h3>\n\n\n\n<p>Esta \u00faltima secci\u00f3n agrupa todas las inc\u00f3gnitas, en particular las cosas que podr\u00edan salir mal debido a los avances positivos de la IA y a la aceleraci\u00f3n general del progreso cient\u00edfico y tecnol\u00f3gico que ello conlleva. Supongamos que logramos eliminar todos los riesgos descritos hasta ahora y que empezamos a cosechar los frutos de la IA. Probablemente obtendremos \u00abun siglo de avances cient\u00edficos y econ\u00f3micos condensados en una d\u00e9cada\u00bb, lo que ser\u00e1 extremadamente positivo para el mundo, pero entonces tendremos que hacer frente a los problemas derivados de este r\u00e1pido progreso, y estos problemas podr\u00edan abrumarnos r\u00e1pidamente. Tambi\u00e9n podr\u00edamos encontrarnos con otros riesgos que surgen indirectamente como consecuencia de los avances de la IA y que son dif\u00edciles de prever.<\/p>\n\n\n\n<p class=\"comment\">Esta proyecci\u00f3n de un siglo de avances cient\u00edficos y econ\u00f3micos condensados en una d\u00e9cada hace eco directamente de la ambici\u00f3n manifestada por la Misi\u00f3n G\u00e9nesis, puesta en marcha por la administraci\u00f3n estadounidense, que tiene como objetivo expl\u00edcito transformar profundamente la forma en que se lleva a cabo la investigaci\u00f3n cient\u00edfica en Estados Unidos. El objetivo declarado es duplicar la productividad cient\u00edfica nacional en la pr\u00f3xima d\u00e9cada, en \u00e1mbitos estrat\u00e9gicos como la energ\u00eda, las ciencias cu\u00e1nticas, los materiales avanzados o la seguridad nacional. La Orden Ejecutiva que regula la misi\u00f3n establece una analog\u00eda expl\u00edcita con el Proyecto Manhattan, presentando la IA como una palanca central en una carrera mundial por la dominaci\u00f3n tecnol\u00f3gica.<\/p>\n\n\n\n<p>Debido a la propia naturaleza de las inc\u00f3gnitas, es imposible elaborar una lista exhaustiva, pero voy a citar tres posibles preocupaciones a modo de ejemplos ilustrativos de lo que debemos tener en cuenta:<\/p>\n\n\n\n<p>\u2014 R\u00e1pidos avances en biolog\u00eda. Si logramos un siglo de avances m\u00e9dicos en unos pocos a\u00f1os, es posible que aumentemos considerablemente la esperanza de vida humana, y es posible que tambi\u00e9n adquiramos capacidades radicales, como la capacidad de aumentar la inteligencia humana o de modificar radicalmente la biolog\u00eda humana. Se tratar\u00eda de cambios importantes en lo que es posible, que se producir\u00edan muy r\u00e1pidamente. Podr\u00edan ser positivos si se llevaran a cabo de manera responsable (lo cual espero, como explico en <em>Machines of Loving Grace<\/em>), pero siempre existe el riesgo de que salgan muy mal, por ejemplo, si los esfuerzos por hacer a los humanos m\u00e1s inteligentes tambi\u00e9n los hacen m\u00e1s inestables o \u00e1vidos de poder. Tambi\u00e9n est\u00e1 la cuesti\u00f3n de las \u00abdescargas\u00bb o la \u00abemulaci\u00f3n cerebral completa\u00bb, es decir, mentes humanas digitales instanciadas en software, que alg\u00fan d\u00eda podr\u00edan ayudar a la humanidad a trascender sus l\u00edmites f\u00edsicos, pero que tambi\u00e9n conllevan<a href=\"https:\/\/qntm.org\/mmacevedo\"> riesgos que me parecen preocupantes<\/a>.<\/p>\n\n\n\n<p>\u2014 La IA est\u00e1 cambiando la vida humana de forma malsana. Un mundo poblado por miles de millones de inteligencias mucho m\u00e1s inteligentes que los humanos en todos los \u00e1mbitos ser\u00e1 un mundo muy extra\u00f1o en el que vivir. Aunque la IA no busque activamente atacar a los humanos (secci\u00f3n 1) y no se utilice expl\u00edcitamente con fines de opresi\u00f3n o control por parte de los Estados (secci\u00f3n 3), muchas cosas podr\u00edan salir mal, incluso sin llegar a ese extremo, a trav\u00e9s de incentivos comerciales normales y transacciones nominalmente consensuadas. Vemos los primeros indicios de ello en las preocupaciones sobre la psicosis relacionada con la IA, el hecho de que la IA empuje a las personas al suicidio y las preocupaciones sobre las relaciones amorosas con la IA. Por ejemplo, \u00bfpodr\u00edan las IA poderosas inventar una nueva religi\u00f3n y convertir a millones de personas a ella? \u00bfPodr\u00eda la mayor\u00eda de la gente acabar \u00abdependiendo\u00bb de alguna manera de las interacciones con la IA? \u00bfPodr\u00eda la gente acabar siendo \u00abmanipulada\u00bb por sistemas de IA, en los que una IA supervisara b\u00e1sicamente cada uno de sus movimientos y les dijera exactamente qu\u00e9 hacer y qu\u00e9 decir en cada momento, lo que les permitir\u00eda llevar una vida \u00abbuena\u00bb, pero una vida desprovista de libertad o del orgullo del logro? No ser\u00eda dif\u00edcil generar decenas de escenarios de este tipo si me sentara con el creador de <em>Black Mirror<\/em> e intentara imaginarlos. Creo que esto subraya la importancia de medidas como la mejora de la Constituci\u00f3n de Claude, m\u00e1s all\u00e1 de lo necesario para prevenir los problemas mencionados en la secci\u00f3n 1. Parece esencial garantizar que los modelos de IA tengan<em> realmente <\/em>en cuenta los intereses a largo plazo de sus usuarios, de una manera que las personas reflexivas aprobar\u00edan, en lugar de una manera sutilmente distorsionada.<\/p>\n\n\n\n<p>\u2014 El prop\u00f3sito de la humanidad. Este punto est\u00e1 relacionado con el anterior, pero no se trata tanto de las interacciones humanas espec\u00edficas con los sistemas de IA como de la forma en que la vida humana cambia en general en un mundo con una IA poderosa. \u00bfSer\u00e1n los humanos capaces de encontrar un prop\u00f3sito y un sentido a sus vidas en un mundo as\u00ed? Creo que es una cuesti\u00f3n de actitud: como dije en <em>Machines of Loving Grace<\/em>, creo que el prop\u00f3sito de la humanidad no depende de ser el mejor del mundo en un campo, y que los humanos pueden encontrar un prop\u00f3sito incluso en per\u00edodos muy largos a trav\u00e9s de historias y proyectos que les gustan. Simplemente tenemos que romper el v\u00ednculo entre la creaci\u00f3n de valor econ\u00f3mico, la autoestima y el sentido de la vida. Pero es una transici\u00f3n que debe realizar la sociedad, y siempre existe el riesgo de que no la gestionemos bien.<\/p>\n\n\n\n<p>Mi esperanza, ante todos estos posibles problemas, es que en un mundo con una IA potente en la que confiamos para que no nos mate, que no sea una herramienta de un gobierno opresor y que realmente trabaje para nosotros, podamos utilizar la propia IA para anticipar y prevenir estos problemas. Pero eso no est\u00e1 garantizado: como todos los dem\u00e1s riesgos, es algo que debemos manejar con precauci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>La prueba de la humanidad<\/strong><\/h2>\n\n\n\n<p>La lectura de este ensayo puede dar la impresi\u00f3n de que nos encontramos en una situaci\u00f3n desalentadora.<\/p>\n\n\n\n<p>A diferencia de <em>Machines of Loving Grace, <\/em>que me dio la sensaci\u00f3n de dar forma y estructura a una m\u00fasica de incomparable belleza que resonaba en mi cabeza desde hac\u00eda a\u00f1os, este ensayo ha sido dif\u00edcil y, en cierto modo, intimidante.<\/p>\n\n\n\n<p>De hecho, hay muchas cosas realmente dif\u00edciles en esta situaci\u00f3n. La IA supone una amenaza para la humanidad de m\u00faltiples maneras, y existe una tensi\u00f3n real entre los diferentes peligros, de modo que mitigar algunos de ellos puede agravar otros si no actuamos con extrema cautela.<\/p>\n\n\n\n<p>Dedicar tiempo a construir cuidadosamente sistemas de IA para que no supongan una amenaza aut\u00f3noma para la humanidad entra en conflicto con la necesidad de las naciones democr\u00e1ticas de mantenerse por delante de las naciones autoritarias y no estar sometidas a ellas. Pero, a su vez, las mismas herramientas basadas en la IA que son necesarias para luchar contra las autocracias pueden, si se llevan demasiado lejos, volverse en nuestra contra y crear una tiran\u00eda en nuestros propios pa\u00edses. El terrorismo alimentado por la IA podr\u00eda matar a millones de personas mediante el uso indebido de la biolog\u00eda, pero una reacci\u00f3n exagerada a este riesgo podr\u00eda llevarnos a un Estado autocr\u00e1tico y vigilado. Los efectos de la IA en la concentraci\u00f3n del trabajo y la econom\u00eda, adem\u00e1s de ser problemas graves en s\u00ed mismos, podr\u00edan obligarnos a afrontar otros problemas en un contexto de ira p\u00fablica y quiz\u00e1s incluso de disturbios civiles, en lugar de poder apelar a lo mejor de nuestra naturaleza. Sobre todo, el considerable n\u00famero de riesgos, incluidos los desconocidos, y la necesidad de abordarlos todos al mismo tiempo, crean un desaf\u00edo intimidante al que se enfrenta la humanidad.<\/p>\n\n\n\n<p>Adem\u00e1s, los \u00faltimos a\u00f1os deber\u00edan dejar claro que la idea de detener o incluso ralentizar considerablemente esta tecnolog\u00eda es fundamentalmente insostenible.<\/p>\n\n\n\n<p>La f\u00f3rmula para construir sistemas de IA potentes es incre\u00edblemente sencilla, hasta tal punto que casi se podr\u00eda decir que surge espont\u00e1neamente de la combinaci\u00f3n adecuada de datos y c\u00e1lculos brutos. Probablemente, su creaci\u00f3n era inevitable desde el momento en que la humanidad invent\u00f3 el transistor, o incluso antes, cuando aprendimos a dominar el fuego. Si una empresa no la construye, otras lo har\u00e1n casi con la misma rapidez. Si todas las empresas de los pa\u00edses democr\u00e1ticos detuvieran o ralentizaran el desarrollo, por acuerdo mutuo o por decreto regulatorio, los pa\u00edses autoritarios continuar\u00edan. Es as\u00ed de simple. Dado el incre\u00edble valor econ\u00f3mico y militar de esta tecnolog\u00eda, as\u00ed como la ausencia de cualquier mecanismo de aplicaci\u00f3n significativo, no veo c\u00f3mo podr\u00edamos convencerlos de que se detengan.<\/p>\n\n\n\n<p>Sin embargo, veo una v\u00eda para moderar <em>ligeramente <\/em>el desarrollo de la IA que sea compatible con una visi\u00f3n realista de la geopol\u00edtica.<\/p>\n\n\n\n<p>Esta v\u00eda consiste en ralentizar durante unos a\u00f1os el avance de las autocracias hacia una IA potente, neg\u00e1ndoles los recursos que necesitan para construirla,&nbsp;<span class='whitespace-nowrap'><span id='easy-footnote-44-89396' class='easy-footnote-margin-adjust'><\/span><span class='easy-footnote'><a href='https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#easy-footnote-bottom-44-89396' title='No creo que eso sea posible m\u00e1s all\u00e1 de unos a\u00f1os: a largo plazo, fabricar\u00e1n sus propios chips.'><sup>44<\/sup><\/a><\/span><\/span> es decir, los chips y los equipos de fabricaci\u00f3n de semiconductores. Esto dar\u00eda a los pa\u00edses democr\u00e1ticos un margen de maniobra que podr\u00edan \u00abgastar\u00bb en construir una IA potente de forma m\u00e1s prudente, prestando m\u00e1s atenci\u00f3n a sus riesgos, pero avanzando lo suficientemente r\u00e1pido como para tener una ventaja c\u00f3moda sobre las autocracias. La carrera entre las empresas de IA dentro de las democracias podr\u00eda entonces estar regulada por un marco jur\u00eddico com\u00fan, que combinara normas industriales y reglamentaci\u00f3n.<\/p>\n\n\n\n<p>Anthropic ha defendido en\u00e9rgicamente esta v\u00eda, abogando por el control de las exportaciones de chips y una regulaci\u00f3n sensata de la IA, pero incluso estas propuestas, que parecen de sentido com\u00fan, han sido ampliamente rechazadas por los responsables pol\u00edticos de Estados Unidos, el pa\u00eds donde son m\u00e1s importantes. La IA representa tal man\u00e1 financiero \u2014literalmente, miles de millones de d\u00f3lares al a\u00f1o\u2014 que incluso las medidas m\u00e1s sencillas tienen dificultades para superar los obst\u00e1culos pol\u00edtico-econ\u00f3micos inherentes a la IA.<\/p>\n\n\n\n<p>Ah\u00ed est\u00e1 la trampa: la IA es tan poderosa y lucrativa que a la civilizaci\u00f3n humana le resulta muy dif\u00edcil imponerle la m\u00e1s m\u00ednima restricci\u00f3n.<\/p>\n\n\n\n<p>Podemos imaginar, como hizo Carl Sagan en <em>Contact<\/em>, que esta misma historia se repite en miles de mundos. Una especie adquiere conciencia, aprende a utilizar herramientas, inicia el ascenso exponencial de la tecnolog\u00eda, se enfrenta a las crisis de la industrializaci\u00f3n y las armas nucleares y, si sobrevive, se enfrenta al reto m\u00e1s dif\u00edcil y definitivo cuando aprende a moldear la arena para convertirla en m\u00e1quinas que piensan. Que sobrevivamos a esta prueba y sigamos construyendo la hermosa sociedad descrita en <em>Machines of Loving Grace<\/em>, o que sucumbamos a la esclavitud y la destrucci\u00f3n, depender\u00e1 de nuestro car\u00e1cter y nuestra determinaci\u00f3n como especie, de nuestra mente y nuestra alma.<\/p>\n\n\n\n<p>A pesar de los numerosos obst\u00e1culos, creo que la humanidad tiene la fuerza necesaria para superar esta prueba.<\/p>\n\n\n\n<p>Me animan e inspiran los miles de investigadores que han dedicado su carrera a ayudarnos a comprender y orientar los modelos de IA, as\u00ed como a moldear el car\u00e1cter y la constituci\u00f3n de dichos modelos. Creo que ahora hay muchas posibilidades de que estos esfuerzos den sus frutos a tiempo para tener un impacto significativo. Me anima el hecho de que al menos algunas empresas hayan declarado que est\u00e1n dispuestas a pagar importantes costos comerciales para evitar que sus modelos contribuyan a la amenaza del bioterrorismo. Me anima el hecho de que algunas personas valientes se hayan resistido a las corrientes pol\u00edticas dominantes y hayan logrado que se aprueben leyes que sientan las bases para establecer salvaguardias razonables para los sistemas de IA. Me anima el hecho de que el p\u00fablico comprenda que la IA conlleva riesgos y desee que se tengan en cuenta. Me anima el indomable esp\u00edritu de libertad que impera en todo el mundo y la determinaci\u00f3n de resistir a la tiran\u00eda dondequiera que se manifieste.<\/p>\n\n\n\n<p>Pero tendremos que redoblar nuestros esfuerzos si queremos tener \u00e9xito. El primer paso es que quienes est\u00e1n m\u00e1s cerca de la tecnolog\u00eda digan simplemente la verdad sobre la situaci\u00f3n en la que se encuentra la humanidad, algo que siempre he intentado hacer.<\/p>\n\n\n\n<p>Lo hago de forma m\u00e1s expl\u00edcita y con mayor urgencia en este ensayo.<\/p>\n\n\n\n<p>El siguiente paso consistir\u00e1 en convencer a los pensadores, los responsables pol\u00edticos, las empresas y los ciudadanos de todo el mundo de la urgencia y la importancia capital de esta cuesti\u00f3n, que merece que se le dedique reflexi\u00f3n y capital pol\u00edtico en comparaci\u00f3n con las miles de otras cuestiones que dominan la actualidad cada d\u00eda. A continuaci\u00f3n, habr\u00e1 que demostrar valent\u00eda, para que un n\u00famero suficiente de personas se oponga a las tendencias dominantes y defienda sus principios, incluso ante amenazas a sus intereses econ\u00f3micos y su seguridad personal.<\/p>\n\n\n\n<p>Los pr\u00f3ximos a\u00f1os ser\u00e1n incre\u00edblemente dif\u00edciles y nos exigir\u00e1n m\u00e1s de lo que creemos que podemos dar. Pero a lo largo de mi carrera como investigador, l\u00edder y ciudadano, he visto suficiente valent\u00eda y nobleza como para creer que podemos ganar, que cuando la humanidad se encuentra en las circunstancias m\u00e1s sombr\u00edas, encuentra la manera de reunir \u2014aparentemente siempre en el \u00faltimo momento\u2014 la fuerza y la sabidur\u00eda necesarias para prevalecer. No hay tiempo que perder.<\/p>\n\n\n\n<p><em>Quiero dar las gracias a Erik Brynjolfsson, Ben Buchanan, Mariano-Florentino Cu\u00e9llar, Allan Dafoe, Kevin Esvelt, Nick Beckstead, Richard Fontaine, Jim McClave y a muchos miembros del personal de Anthropic por sus \u00fatiles comentarios sobre los borradores de este ensayo.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial podr\u00eda destruirnos por completo.<\/p>\n<p>Quien lo afirma es el creador de Claude, una de las IA m\u00e1s utilizadas en la actualidad.<\/p>\n<p>El director de Anthropic est\u00e1 convencido: si no reaccionamos, la humanidad puede colapsar.<\/p>\n<p>Publicamos la primera edici\u00f3n cr\u00edtica \u00edntegra del ensayo de Dario Amodei sobre \u00abla adolescencia de la tecnolog\u00eda\u00bb, un texto imprescindible para comprender de qu\u00e9 se habla realmente cuando se dice que la IA es peligrosa.<\/p>\n","protected":false},"author":17959,"featured_media":89278,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-speeches.php","format":"standard","meta":{"_acf_changed":true,"_trash_the_other_posts":false,"footnotes":""},"categories":[464],"tags":[],"staff":[154],"editorial_format":[],"serie":[],"audience":[],"geo":[172],"class_list":["post-89396","post","type-post","status-publish","format-standard","hentry","category-poderes-de-la-ia","staff-victor-storchan","geo-americas"],"acf":{"open_in_webview":false,"accent":false},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>La IA es un riesgo existencial: la advertencia de Dario Amodei<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"La IA es un riesgo existencial: la advertencia de Dario Amodei\" \/>\n<meta property=\"og:description\" content=\"La inteligencia artificial podr\u00eda destruirnos por completo.  Quien lo afirma es el creador de Claude, una de las IA m\u00e1s utilizadas en la actualidad.  El director de Anthropic est\u00e1 convencido: si no reaccionamos, la humanidad puede colapsar.  Publicamos la primera edici\u00f3n cr\u00edtica \u00edntegra del ensayo de Dario Amodei sobre \u00abla adolescencia de la tecnolog\u00eda\u00bb, un texto imprescindible para comprender de qu\u00e9 se habla realmente cuando se dice que la IA es peligrosa.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/\" \/>\n<meta property=\"og:site_name\" content=\"El Grand Continent\" \/>\n<meta property=\"article:published_time\" content=\"2026-01-30T09:29:45+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-01-30T17:04:43+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/01\/gc-elamodei-scaled.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"anainesfernandez\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:image\" content=\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/01\/gc-elamodei-scaled.jpeg\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"anainesfernandez\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"125 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/\",\"name\":\"La IA es un riesgo existencial: la advertencia de Dario Amodei\",\"isPartOf\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png\",\"datePublished\":\"2026-01-30T09:29:45+00:00\",\"dateModified\":\"2026-01-30T17:04:43+00:00\",\"author\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\"},\"breadcrumb\":{\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png\",\"contentUrl\":\"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png\",\"width\":4480,\"height\":2520,\"caption\":\"Dario Amodei et les risques de l'IA. Image SIPA\/Grand Continent\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/legrandcontinent.eu\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"La IA presenta un riesgo existencial: la advertencia de Dario Amodei (texto completo comentado)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#website\",\"url\":\"https:\/\/legrandcontinent.eu\/es\/\",\"name\":\"El Grand Continent\",\"description\":\"La escala pertinente\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c\",\"name\":\"anainesfernandez\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g\",\"caption\":\"anainesfernandez\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La IA es un riesgo existencial: la advertencia de Dario Amodei","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/","og_locale":"es_ES","og_type":"article","og_title":"La IA es un riesgo existencial: la advertencia de Dario Amodei","og_description":"La inteligencia artificial podr\u00eda destruirnos por completo.  Quien lo afirma es el creador de Claude, una de las IA m\u00e1s utilizadas en la actualidad.  El director de Anthropic est\u00e1 convencido: si no reaccionamos, la humanidad puede colapsar.  Publicamos la primera edici\u00f3n cr\u00edtica \u00edntegra del ensayo de Dario Amodei sobre \u00abla adolescencia de la tecnolog\u00eda\u00bb, un texto imprescindible para comprender de qu\u00e9 se habla realmente cuando se dice que la IA es peligrosa.","og_url":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/","og_site_name":"El Grand Continent","article_published_time":"2026-01-30T09:29:45+00:00","article_modified_time":"2026-01-30T17:04:43+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/01\/gc-elamodei-scaled.jpeg","type":"image\/jpeg"}],"author":"anainesfernandez","twitter_card":"summary_large_image","twitter_image":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/6\/2026\/01\/gc-elamodei-scaled.jpeg","twitter_misc":{"Escrito por":"anainesfernandez","Tiempo de lectura":"125 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/","url":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/","name":"La IA es un riesgo existencial: la advertencia de Dario Amodei","isPartOf":{"@id":"https:\/\/legrandcontinent.eu\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage"},"image":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage"},"thumbnailUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png","datePublished":"2026-01-30T09:29:45+00:00","dateModified":"2026-01-30T17:04:43+00:00","author":{"@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c"},"breadcrumb":{"@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#primaryimage","url":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png","contentUrl":"https:\/\/legrandcontinent.eu\/es\/wp-content\/uploads\/sites\/2\/2026\/01\/Screenshot-2026-01-28-at-17.44.45.png","width":4480,"height":2520,"caption":"Dario Amodei et les risques de l'IA. Image SIPA\/Grand Continent"},{"@type":"BreadcrumbList","@id":"https:\/\/legrandcontinent.eu\/es\/2026\/01\/30\/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/legrandcontinent.eu\/es\/"},{"@type":"ListItem","position":2,"name":"La IA presenta un riesgo existencial: la advertencia de Dario Amodei (texto completo comentado)"}]},{"@type":"WebSite","@id":"https:\/\/legrandcontinent.eu\/es\/#website","url":"https:\/\/legrandcontinent.eu\/es\/","name":"El Grand Continent","description":"La escala pertinente","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/legrandcontinent.eu\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/570398dd8da37ba5d66dec6d242bd33c","name":"anainesfernandez","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/legrandcontinent.eu\/es\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/fe25c21e6213f69a683147fabda32586?s=96&d=mm&r=g","caption":"anainesfernandez"}}]}},"term_position_data":null,"_links":{"self":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/89396","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/users\/17959"}],"replies":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/comments?post=89396"}],"version-history":[{"count":20,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/89396\/revisions"}],"predecessor-version":[{"id":89468,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/posts\/89396\/revisions\/89468"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media\/89278"}],"wp:attachment":[{"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/media?parent=89396"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/categories?post=89396"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/tags?post=89396"},{"taxonomy":"staff","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/staff?post=89396"},{"taxonomy":"editorial_format","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/editorial_format?post=89396"},{"taxonomy":"serie","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/serie?post=89396"},{"taxonomy":"audience","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/audience?post=89396"},{"taxonomy":"geo","embeddable":true,"href":"https:\/\/legrandcontinent.eu\/es\/wp-json\/wp\/v2\/geo?post=89396"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}