{"id":96455,"date":"2026-04-16T05:00:00","date_gmt":"2026-04-16T03:00:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=96455"},"modified":"2026-04-15T22:45:42","modified_gmt":"2026-04-15T20:45:42","slug":"claude-mythos-demasiado-potente-la-ia-se-ha-vuelto-demasiado-peligrosa","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2026\/04\/16\/claude-mythos-demasiado-potente-la-ia-se-ha-vuelto-demasiado-peligrosa\/","title":{"rendered":"Claude Mythos: \u00bfal ser demasiado potente, la IA se ha vuelto demasiado peligrosa?"},"content":{"rendered":"\n
Para descubrir todos nuestros contenidos y apoyarnos, consulte aqu\u00ed nuestras ofertas y <\/em>suscr\u00edbase al Grand Continent<\/em><\/a><\/p>\n\n\n\n Desde diciembre-enero, los grandes laboratorios de IA han acelerado considerablemente la automatizaci\u00f3n de la investigaci\u00f3n en IA y del ciclo de desarrollo de modelos. Las generaciones anteriores de modelos se utilizan as\u00ed para entrenar a los siguientes.<\/p>\n\n\n\n Durante el preentrenamiento, <\/span>1<\/sup><\/a><\/span><\/span> por ejemplo, las ablaciones a peque\u00f1a escala <\/span>2<\/sup><\/a><\/span><\/span> para probar diferentes combinaciones de conjuntos de datos u optimizar la arquitectura de un modelo pueden ser gestionadas de principio a fin por un agente que propone opciones a explorar, analiza los resultados y el indicador de rendimiento (m\u00e9trica) a optimizar, y luego itera. En la fase de postentrenamiento, <\/span>3<\/sup><\/a><\/span><\/span> el equipo de aprendizaje por refuerzo de MiniMax, desarrollador chino de LLM, ha automatizado, por ejemplo, su proceso de experimentaci\u00f3n en aproximadamente un 30-50 % (revisi\u00f3n de la bibliograf\u00eda, definici\u00f3n de los experimentos, depuraci\u00f3n, an\u00e1lisis de m\u00e9tricas). <\/span>4<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n El an\u00e1lisis autom\u00e1tico de las secuencias de acciones de un agente de IA le permite mejorar su propio entorno de experimentaci\u00f3n: <\/span>5<\/sup><\/a><\/span><\/span> se observa una mejora de hasta un 30 % en los bancos de pruebas objeto de estudio. As\u00ed, el 35 % de las propuestas de modificaci\u00f3n de c\u00f3digo de Cursor, un editor de c\u00f3digo con IA integrada, son ahora generadas por agentes que operan de forma aut\u00f3noma.<\/p>\n\n\n\n Este movimiento prolonga una tendencia de fondo observada desde hace una d\u00e9cada: tras haber eliminado la necesidad de que el ser humano defina manualmente las variables de entrada (features<\/em>) con el paso al deep learning<\/em>, la IA reduce ahora la presencia humana en el propio ciclo de mejora de los modelos. Esta automatizaci\u00f3n del desarrollo de la IA por parte de la propia IA se traduce en un mantenimiento del ritmo de progresi\u00f3n de los sistemas: hasta la fecha, no se observa ning\u00fan estancamiento en el rendimiento.<\/p>\n\n\n\n La IA abandona la era del simple intercambio conversacional para entrar en la de los agentes, capaces de movilizar herramientas, explotar datos y realizar tareas operativas en la empresa. La mayor\u00eda de los procesos de las organizaciones no est\u00e1n estructurados para acoger directamente a los agentes en las cadenas de tareas (workflows<\/em>) existentes en las empresas. La gesti\u00f3n del cambio organizativo sigue siendo un elemento central de la transici\u00f3n.<\/p>\n\n\n\n Las empresas evolucionan en un panorama tecnol\u00f3gico extremadamente cambiante, donde las arquitecturas y las formas est\u00e1ndar de integrar la IA cambian m\u00e1s r\u00e1pido que los ciclos habituales de transformaci\u00f3n. Las decisiones t\u00e9cnicas se vuelven particularmente inestables, sobre todo para las empresas tradicionales que no se han construido en torno a la IA.<\/p>\n\n\n\n Ahora, el mercado ya no se juega \u00fanicamente en la calidad intr\u00ednseca de los modelos, sino en la capacidad de una empresa para permitir que los modelos interact\u00faen entre s\u00ed y operen de extremo a extremo de forma segura dentro de sistemas reales. Por lo tanto, la pregunta ya no es solo: \u00ab\u00bfSabe el modelo generar la respuesta correcta?\u00bb, sino: \u00ab\u00bfC\u00f3mo replantear la gesti\u00f3n de los derechos, los datos y los flujos de trabajo de la organizaci\u00f3n para permitir que la IA funcione de forma fiable y segura?\u00bb<\/p>\n\n\n\n Las startups nativas de IA de la capa de aplicaciones, y posteriormente las grandes empresas, tienen un inter\u00e9s creciente en entrenar sus propios modelos para mejorar su competitividad, reducir sus costos y aumentar su diferenciaci\u00f3n.<\/p>\n\n\n\n La IA reduce ahora la presencia humana en el propio ciclo de mejora de los modelos.<\/p>Victor Storchan<\/cite><\/blockquote><\/figure>\n\n\n\n Esta tendencia ya ha comenzado en el \u00e1mbito del postentrenamiento: tras Pinterest, Airbnb, Notion y Cursor, Intercom explica p\u00fablicamente que, en muchos casos de uso, resulta mejor, m\u00e1s r\u00e1pido y menos costoso utilizar y entrenar modelos abiertos internamente que depender de API <\/span>6<\/sup><\/a><\/span><\/span> externas.<\/p>\n\n\n\n En los servicios financieros, Ramp se basa en una arquitectura h\u00edbrida multiagente, que hace colaborar a varias IA, para desarrollar su cadena de trabajo internamente: un modelo propietario utilizado como cerebro central, como Claude, controla los submodelos de c\u00f3digo abierto Qwen para la ejecuci\u00f3n. La empresa incluso publica investigaciones destinadas a optimizar el uso de los tokens<\/em> en los sistemas multiagente operando directamente sobre las representaciones internas del modelo. <\/span>7<\/sup><\/a><\/span><\/span> Shopify, empresa canadiense especializada en comercio electr\u00f3nico, ha comunicado, por ejemplo, una reducci\u00f3n de costos del orden del 75 % al utilizar Qwen. Harvey AI, empresa especializada en IA aplicada al derecho y a los servicios profesionales, ha automatizado parte de su investigaci\u00f3n en IA para desarrollar agentes jur\u00eddicos capaces de gestionar la revisi\u00f3n de contratos de arrendamiento comercial, la redacci\u00f3n de demandas, las respuestas a cuestionarios de due diligence<\/em>, etc.<\/p>\n\n\n\n A medida que la infraestructura y el conjunto de herramientas de IA se democratizan, esta l\u00f3gica podr\u00eda extenderse a nuevas formas de entrenamiento intermedio: <\/span>8<\/sup><\/a><\/span><\/span> modelos menos generalistas pero extremadamente eficaces en un producto, un caso de uso o un sector vertical concreto, podr\u00e1n entrenarse con los datos propios de la empresa, sus productos o sus normas, leyes y reglamentos.<\/p>\n\n\n\n Mientras las empresas buscan sacar partido de sus datos propios, algunos resultados indican que una integraci\u00f3n desde la fase de preentrenamiento refuerza notablemente la adaptaci\u00f3n al dominio, sobre todo en los modelos de gran tama\u00f1o. <\/span>9<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n Paralelamente, los laboratorios de IA aceleran el desarrollo de aplicaciones para captar directamente el valor a nivel de aplicaci\u00f3n, es decir, para desarrollar aplicaciones finales de herramientas de IA en lugar de limitarse a vender modelos. Se barajan asociaciones con grandes fondos de capital riesgo; se ampl\u00edan los equipos de ingenieros enviados a las instalaciones de los clientes para integrar la IA en sus sistemas; se ha restringido el acceso a la API de Anthropic para ciertos usos de terceros como OpenClaw, un software de c\u00f3digo abierto de asistente personal impulsado por IA.<\/p>\n\n\n\n Si la frontera tecnol\u00f3gica sigue siendo inaccesible para la mayor\u00eda de las empresas \u2014o accesible con un retraso de entre 6 y 12 meses\u2014, muchas considerar\u00e1n que es racional entrenar sus propios modelos.<\/p>\n\n\n\n Las vulnerabilidades cibern\u00e9ticas se extienden a medida que la capacidad de desarrollar e implementar agentes de IA se difunde por la empresa y ya no se limita a los ingenieros. Esto se traduce en un n\u00famero creciente de integraciones, puntos de acceso, permisos y dependencias que hay que proteger.<\/p>\n\n\n\n En un mundo en el que todo el c\u00f3digo lo escribe la IA, la producci\u00f3n de c\u00f3digo deja de ser progresivamente un factor limitante: la verificaci\u00f3n de los resultados de los LLM, incluida la formal, <\/span>10<\/sup><\/a><\/span><\/span> se convierte en un reto cr\u00edtico: se trata de obtener garant\u00edas de seguridad, fiabilidad, eficacia y conformidad.<\/p>\n\n\n\n En un informe del 29 de julio de 2025, Trend Micro identific\u00f3 m\u00e1s de 10.000 servidores de infraestructura de agentes accesibles en internet sin autenticaci\u00f3n. Estos sistemas internos expuestos sin protecci\u00f3n (inicio de sesi\u00f3n, clave API) inclu\u00edan servidores MCP, <\/span>11<\/sup><\/a><\/span><\/span> datos almacenados, sistemas de mensajer\u00eda o capacidades empaquetadas. <\/span>12<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n Para las empresas que adoptan herramientas de IA en su infraestructura cibern\u00e9tica, est\u00e1n surgiendo categor\u00edas completamente nuevas de vectores de ataque: integraciones MCP, sistemas de IA susceptibles de ser inyectados mediante un prompt<\/em> para realizar acciones contrarias a las reglas de control de acceso. Al entrenar sus modelos y conectarlos a sus sistemas backend<\/em>, <\/span>13<\/sup><\/a><\/span><\/span> as\u00ed como a sus fuentes de datos internas, las empresas exponen potencialmente estos datos a riesgos de envenenamiento, destilaci\u00f3n o extracci\u00f3n. A medida que las empresas adoptan habilidades y otros artefactos reutilizables para compartir el conocimiento institucional (propio de un equipo, una funci\u00f3n, un proceso o una organizaci\u00f3n) y exponer este contexto a los agentes, la capa de permisos en torno a estas habilidades y la gesti\u00f3n de los agentes en tiempo real \u2014para determinar qui\u00e9n puede ver qu\u00e9, actuar d\u00f3nde, reutilizar qu\u00e9 contexto, con qu\u00e9 trazabilidad y qu\u00e9 nivel de control\u2014 es esencial.<\/p>\n\n\n\n El reciente ataque contra la cuenta npm de Axios, <\/span>14<\/sup><\/a><\/span><\/span> una biblioteca muy utilizada para realizar solicitudes web con m\u00e1s de 100 millones de descargas semanales, muestra hasta qu\u00e9 punto el compromiso de un componente puede contaminar todo el ecosistema de software. Google ha atribuido este ataque a un grupo vinculado a Corea del Norte. <\/span>15<\/sup><\/a><\/span><\/span><\/p>\n\n\n\n El reto para las empresas no es esperar a los sistemas de IA m\u00e1s avanzados, sino aprovechar desde ya los modelos de vanguardia disponibles para reforzar su seguridad.<\/p>Victor Storchan<\/cite><\/blockquote><\/figure>\n\n\n\n Si bien la adopci\u00f3n de herramientas de IA crea nuevas vulnerabilidades para las empresas \u00abtradicionales\u00bb, los propios laboratorios de IA tambi\u00e9n est\u00e1n expuestos. Hoy en d\u00eda asistimos a los primeros ataques contra la cadena de suministro de la IA agentiva y la infraestructura que permite a los LLM realizar inferencias: el pasado mes de marzo, el ataque dirigido a LiteLLM, una biblioteca de c\u00f3digo abierto e interfaz que permite conectar una aplicaci\u00f3n a los LLM de los proveedores, con 97 millones de descargas mensuales, comprometi\u00f3 todos los proyectos dependientes. En el caso de Mercor, una start-up de IA dedicada al entrenamiento de chatbots, esto condujo a la exfiltraci\u00f3n de 4 terabytes de datos, incluyendo c\u00f3digo fuente y datos personales.<\/p>\n\n\n\n Si bien los laboratorios de IA se ven afectados de este modo, las herramientas que despliegan son tambi\u00e9n en parte responsables del aumento de los ataques inform\u00e1ticos. Por ejemplo, una auditor\u00eda de seguridad concluy\u00f3 que el 12 % de los usos de OpenClaw se confirmaron como maliciosos. <\/span>16<\/sup><\/a><\/span><\/span> Por otra parte, el pasado mes de febrero, Anthropic detect\u00f3 varias campa\u00f1as sofisticadas de destilaci\u00f3n de sus modelos, llevadas a cabo por laboratorios chinos. <\/span>17<\/sup><\/a><\/span><\/span> Conscientes de estos diversos riesgos, los grandes laboratorios como OpenAI, Google y el propio Anthropic ya cooperan para limitar y, sobre todo, proteger su propiedad intelectual, en particular a trav\u00e9s del Frontier Model Forum.<\/p>\n\n\n\n Adem\u00e1s de estar equipados para llevar a cabo ataques inform\u00e1ticos, los modelos de IA se est\u00e1n convirtiendo tambi\u00e9n en una herramienta defensiva fundamental: detecci\u00f3n de vulnerabilidades inform\u00e1ticas, clasificaci\u00f3n de estas por gravedad, urgencia e impacto, an\u00e1lisis de las superficies de exposici\u00f3n para comprender por d\u00f3nde puede entrar un atacante.<\/p>\n\n\n\n Ya en octubre de 2025, Anthropic present\u00f3 los resultados de Claude Sonnet 4.5 en ciberseguridad, se\u00f1alando una mejora del rendimiento seg\u00fan los criterios est\u00e1ndar, en particular en las tareas defensivas. <\/span>18<\/sup><\/a><\/span><\/span> <\/p>\n\n\n\n El pasado mes de marzo, Anthropic indic\u00f3 que Claude Opus 4.6 era claramente mejor para identificar y corregir vulnerabilidades que para explotarlas.<\/p>\n\n\n\n Ahora, Claude Mythos Preview ser\u00eda capaz, siguiendo instrucciones, de identificar y luego explotar vulnerabilidades de d\u00eda cero <\/span>19<\/sup><\/a><\/span><\/span> en los principales sistemas operativos y navegadores. <\/p>\n\n\n\n Estas capacidades pueden activarlas no solo los expertos, sino tambi\u00e9n los no especialistas, con instrucciones de prompt<\/em> muy sencillas y eficaces. <\/p>\n\n\n\n Si bien Mythos es m\u00e1s potente que otros modelos disponibles, ya que encuentra m\u00e1s errores o errores m\u00e1s cr\u00edticos, una empresa o un editor de software que a\u00fan no haya integrado procesos de b\u00fasqueda de errores basados en modelos podr\u00eda descubrir cientos de vulnerabilidades incluso con las herramientas actuales.<\/p>\n\n\n\n La IA abandona la era del intercambio conversacional para entrar en la de los agentes, capaces de utilizar herramientas, explotar datos y realizar tareas operativas en una empresa.<\/p>Victor Storchan<\/cite><\/blockquote><\/figure>\n\n\n\n Con el continuo aumento de los costos de entrenamiento y de I+D necesarios para mantenerse a la vanguardia tecnol\u00f3gica, publicar hoy en d\u00eda los mejores modelos en c\u00f3digo abierto entra en conflicto directo con otra prioridad de los laboratorios de IA: dedicar sus recursos a productos capaces de generar ingresos significativos<\/a>. Varios laboratorios de modelos abiertos, en particular Qwen y AI2, han experimentado recientemente una gran inestabilidad con varias salidas muy visibles.<\/p>\n\n\n\nPuntos claves<\/h6>\n
\n
1 \u2014 La automejora de la IA: nuevo motor del desarrollo de modelos<\/strong><\/h2>\n\n\n\n
2 \u2014 El dominio de los modelos: matriz de la competitividad de las empresas<\/strong><\/h2>\n\n\n\n
3 \u2014 La adopci\u00f3n de la IA en las empresas ampl\u00eda los riesgos de seguridad<\/strong><\/h2>\n\n\n\n
4 \u2014 Los propios laboratorios de IA est\u00e1n expuestos a riesgos cibern\u00e9ticos<\/strong><\/h2>\n\n\n\n
5 \u2014 Claude Mythos: revelador de la explosi\u00f3n del riesgo cibern\u00e9tico<\/strong><\/h2>\n\n\n\n
6 \u2014 El dilema de un modelo econ\u00f3mico: visibilidad o rentabilidad<\/strong><\/h2>\n\n\n\n