Desde hace unas semanas, Elon Musk está promocionando en X la supuesta «superioridad» de la nueva versión de su nuevo modelo de IA, Grok 3. ¿Qué hay de cierto en ello?

Si bien es cierto que Grok 3 se encuentra prácticamente en la frontera de la tecnología en materia de IA, no ha resuelto ninguno de los problemas fundamentales que afectan desde hace mucho tiempo a los modelos de lenguaje (LLM): las alucinaciones, las inexactitudes y una forma de razonar en la que nadie querría confiar. 

Es un problema de fondo: si se compara el coste de Grok con estos defectos inherentes —tanto en dólares como en daños causados al medio ambiente para hacer funcionar este modelo—, debería ser una señal de alarma.

¿Es una mera operación de marketing al servicio del proyecto Musk?

No sólo. Pero en mi opinión, es un ejemplo más, si fuera necesario, de que los LLM simplemente no son el camino real hacia lo que todos los inversores y promotores de la IA de hoy, incluido Musk, quieren lograr: la inteligencia artificial general. 

Sin embargo, la idea misma de que se podría acceder a la inteligencia artificial general únicamente mediante un efecto de escala aumentando el tamaño de los modelos me parece simplemente errónea. 

Mientras exista un consenso sobre el hecho de que los LLM son el único enfoque relevante, el principio de escala dominará y ningún país podrá realmente «ganar» la carrera de la IA.

Gary Marcus

Con apuestas y estrategias bastante diferentes, xAI —la empresa de Musk que produjo Grok— y la china DeepSeek parecen haber alcanzado la frontera tecnológica con bastante rapidez, alcanzando los modelos conocidos de laboratorios establecidos como los de Open AI o Anthropic. ¿Qué lecciones extrae de esto para la carrera de la IA y la estructuración del mercado?

La consecuencia más inmediata está muy clara: estos nuevos modelos han desencadenado una guerra de precios. 

Estas IA no son necesariamente mejores que las demás. No hay una gran ruptura tecnológica. En cambio, son más baratas de construir. 

Este factor ha trastornado toda la economía del sector y ha hecho aún más improbable la amortización de los enormes costes de las empresas de IA generativa. Esta guerra de precios reducirá los márgenes de beneficio a casi cero. 

La otra consecuencia es política: ahora está claro que Estados Unidos ya no es el único actor. Sin embargo, mientras exista un consenso sobre el hecho de que los LLM son el único enfoque relevante, la ley de escala dominará y ningún país podrá realmente «ganar» la carrera de la IA. Como en una autopista, simplemente seguiremos adelantándonos unos a otros por turnos, a menos que se invente una nueva tecnología.

Dario Amodei, fundador de Anthropic, considera que podríamos alcanzar la inteligencia artificial general en 2026-2027 —en el sentido de un modelo capaz de funcionar al nivel de un doctor o un premio Nobel—. Por su parte, Demis Hassabis, fundador de DeepMind, presenta un calendario mucho más conservador. En su opinión, ¿cuestionan o respaldan estas proyecciones los últimos avances?

Las predicciones de Dario me parecen totalmente irreales.

En 2022, me había enfrentado a mucha hostilidad por parte de la comunidad de IA por defender que las leyes de escala no eran realmente leyes y que tal razonamiento no podría sostenerse indefinidamente. En este sentido, me parece que los descubrimientos recientes respaldan mis conjeturas iniciales. 

Incluso iría más allá: me sorprendería mucho que lográramos la inteligencia artificial general en los próximos tres años —y francamente me sorprendería que surgiera durante esta década—.

Si queremos lograrlo, creo que tendríamos que replantearnos nuestro enfoque desde cero: los LLM probablemente no lo conseguirán por sí solos.

A Musk no le importa en absoluto la libertad de expresión.

Gary Marcus

Elon Musk afirmó que Grok 3 era «un sistema de IA en busca máxima de la verdad», aunque esta verdad pueda entrar en conflicto con lo «políticamente correcto». Su postura refleja los comentarios del vicepresidente estadounidense, J. D. Vance, en la Conferencia de Seguridad de Múnich o en una reciente rueda de prensa con Keir Starmer, en la que volvió a acusar a los líderes europeos de «suprimir la libertad de expresión». ¿Cómo encajan estos discursos convergentes en el proyecto de los tecnocésaristas en torno a Trump?

A Musk no le importa en absoluto la libertad de expresión.

Lo que le interesa es construir una infraestructura que le favorezca. Quiere ser el único que pueda decir lo que quiera, sin importar si es verdad o no.

Ha descrito a Grok 3 como una forma de «automatización del Ministerio de la Verdad» orwelliano. ¿Cree que los LLM podrán influir en nuestro comportamiento en un futuro próximo?

Sí, y no sólo de forma marginal. Las investigaciones de Mor Naaman en Cornell han demostrado no sólo que los LLM pueden influir en nuestras creencias, sino que pueden hacerlo de una manera tan sutil que ni siquiera nos damos cuenta.

La lógica de la persuasión mediante IA es insidiosa. 

Hay muchas razones para temer que los actores políticos se aprovechen cada vez más de ello —en detrimento de las democracias—.

¿Cómo influye el discurso sobre la libertad de expresión, defendido en particular por Musk y Vance, en el desarrollo de las generaciones actuales y futuras de modelos de IA?

Lo hace de una manera muy perniciosa. La calidad de los modelos, al menos en la actualidad, se basa en los datos. Sin embargo, la armamentización orwelliana que Musk lleva a cabo sobre la libertad de expresión conduce en realidad a empobrecer la calidad de los datos que alimentan los modelos de IA. Por lo tanto, el énfasis en la «libertad de expresión» no conduce a mejores modelos —sólo a más totalitarismo—.

La extrema derecha ha logrado un gran logro: descalificar la verdad como criterio relevante para juzgar la calidad de un modelo de IA. En un entorno así, no se ve cómo podría seguir funcionando la democracia.

En París, capitulando ante los oligarcas de la tecnología, Macron acabó vendiendo la democracia a precio de saldo.

La armamentización orwelliana que Musk lleva a cabo sobre la libertad de expresión conduce en realidad a empobrecer la calidad de los datos que alimentan los modelos de IA.

Gary Marcus

¿No cree, por el contrario, que el actual panorama geopolítico en plena transformación podría permitir a Europa encontrar la oportunidad de una bifurcación en la carrera hacia la IA?

Europa sólo disponía de una herramienta: regular la IA para que no se convirtiera en un desastre para los consumidores

Está a punto de renunciar a ella.

Los europeos han cedido tanto terreno a Silicon Valley que no veo cómo pueden recuperar el retraso.

Añadiría que, al conceder tanta autoridad a estas empresas sobre la base de la promesa, muy probablemente errónea, de que los futuros modelos nos permitirán alcanzar mágicamente la inteligencia artificial general —incluso sabiendo que los modelos actuales son imperfectos—, Europa se ha hecho mucho daño a sí misma.

Si hubiera dicho desde el principio: «no participaremos en este jueguecito hasta que se pueda demostrar objetivamente que estos modelos son correctos y fiables», tal vez el mundo sería mejor hoy. En cualquier caso, sería muy diferente.

¿Cree que algún día podrá competir en el desarrollo de la IA sin depender de Estados Unidos o China para acceder a los modelos de vanguardia?

En la medida en que estos modelos están disponibles en su mayor parte ahora mismo, diría que tal vez. Pero en un momento en el que Estados Unidos está reduciendo su financiación en ciencia y China se precipita en una carrera al estilo estadounidense que podría no resultar tan rentable para ella, la única forma de que Europa gane sería invertir masivamente en una estrategia que contrarreste esta dinámica.

La extrema derecha ha logrado un gran logro: descalificar la verdad como criterio relevante para juzgar la calidad de un modelo de IA.

Gary Marcus

A primera vista, esto puede parecer contra intuitivo, pero sólo si Europa se niega a participar en esta carrera delirante tendrá realmente la oportunidad de salir bien parada.