El martes, 16 de mayo, Sam Altman, consejero delegado de OpenAI, Gary Marcus, catedrático de Psicología y Neurociencia de la Universidad de Nueva York, y Christina Montgomery, directora de Privacidad y Confianza de IBM, audicionaron ante el Senado de Estados Unidos sobre los riesgos de la IA generativa, cosa que la Casa Blanca considera una cuestión prioritaria. En un contexto mundial de creciente competencia tecnológica y de un aumento de posturas tecnonacionalistas, la audiencia se lleva a cabo tras la cristalización de las preocupaciones sobre la seguridad, confiabilidad y control de la IA generativa. Robert Trager, profesor asociado de Ciencias Políticas en la Universidad de California en Los Ángeles, exprofesor de Yale y Oxford y ganador de la beca Olin de la Universidad de Harvard, descifra lo que está en juego. 

Tras un repaso sobre las características clave de la carrera internacional de la IA que extrae lecciones de la historia de las tecnologías duales, Robert Trager nos ofrece su análisis de los puntos principales de la audiencia del Senado, así como su visión de los futuros retos relacionados con la gobernanza de la IA.

La audiencia del Senado tiene lugar en un contexto internacional de creciente crisis en la carrera de la inteligencia artificial. ¿Podría describirnos las principales características de esto? ¿Debería preocuparnos el riesgo global de catástrofe relacionada con la IA, es decir, que un solo país pueda provocar una catástrofe?

ROBERT TRAGER 

Robert F. Trager es responsable de la gobernanza internacional de GovAI y profesor de Ciencias Políticas en la Universidad de California en Los Ángeles. Estudia las implicaciones estratégicas de las tecnologías emergentes, en particular, de la transición a la IA avanzada. También, se interesa por el control de armamento y la no proliferación, por la construcción del orden internacional y por otros temas.

Creo que existen algunos riesgos asociados con los avances de la IA, pero no creo que haga falta ser un experto para apreciarlos. Ya hemos visto consecuencias preocupantes en términos de sistemas de IA sesgados, incluidos sistemas discriminatorios utilizados en procesos de contratación, por ejemplo, o modelos de IA que amenazan con perpetuar las crecientes desigualdades. También, hemos constatado que los algoritmos de recomendación pueden desestabilizar a las empresas y, posiblemente, crear divisiones en su seno. Estos sistemas son cada vez más potentes y autónomos, por lo que es posible que la seguridad pública corra peligro a medida que evolucionan, así que creo que debemos tener cuidado. Para bien o para mal, cuando nos referimos a esta carrera de la IA, hoy, sobre todo, las empresas son las que se preocupan, en contraposición con los Estados. Tendremos que preocuparnos por lo que ocurre a nivel estatal porque los gobiernos están cada vez más conscientes de estas cuestiones: por ejemplo, en el Reino Unido, donde vivo, el plan para desarrollar un modelo lingüístico claramente británico y soberano es algo que los responsables políticos consideran importante para su seguridad nacional. Sin embargo, hoy, las empresas son las que, realmente, parecen estar ampliando los límites de la tecnología. La preocupación a corto plazo es cómo regular las empresas en todo el mundo. A un plazo algo más largo, tenemos que pensar en los incentivos adecuados para que los países no compitan negativamente ni se mermen en materia de seguridad.

La preocupación a corto plazo es cómo regular las empresas en todo el mundo. A un plazo algo más largo, tenemos que pensar en los incentivos adecuados para que los países no compitan negativamente ni se mermen en materia de seguridad.

ROBERT TRAGER

Usted señala que la intensificación de la competencia tecnológica internacional está positivamente correlacionada con la disposición de los actores geopolíticos de asumir mayores riesgos. ¿Cómo evitar una carrera hacia el abismo?

La historia nos ofrece muchos casos en los que se ha evitado que la carrera tecnológica se vaya al abismo: la carrera armamentística nuclear, por ejemplo, se ha contenido gracias a tratados eficaces y regímenes de no proliferación. Del mismo modo, la carrera por producir armas químicas y biológicas se ha contenido, posiblemente, gracias a convenciones sobre este tipo de armas. Los controles sobre la exportación también limitan la capacidad de algunos países para competir en tecnologías clave o peligrosas. Por último, las normas científicas también pueden haber impedido el desarrollo de tecnologías de ADN recombinante. Así que hay muchas áreas en las que las carreras tecnológicas no han sido el desastre que cabía esperar gracias a acuerdos multilaterales. No obstante, no es un hecho que siempre estemos en condiciones de adoptar tales disposiciones: en el caso de armas autónomas, por ejemplo, diez años de debates en las Naciones Unidas han hecho poco por frenar el ritmo de adquisición de estas armas.

En un artículo reciente, propone un modelo teórico para describir la dinámica de una carrera tecnológica entre Estados. ¿Cuáles son los factores, según lo que haya identificado, que llevan a los distintos actores a asumir, más o menos, riesgos en esta carrera? ¿Cómo se aplica este modelo para la IA?

Algunos factores son bastante obvios. El nivel de hostilidad, por ejemplo: si realmente no quieres que gane el otro bando, tienes que asumir más riesgos. Otro factor es lo que llamamos el equilibrio entre seguridad y rendimiento. Creemos que, con frecuencia, la ampliación de las capacidades de una tecnología se produce a expensas de la seguridad o confiabilidad del sistema. Por ejemplo, en el caso de un coche autoconducido, puede estar diseñado para que sólo pueda circular en autopista, lo que puede ser bastante seguro, pero sus capacidades también son menores que las de un coche al que se le permite circular por las calles de la ciudad, lo que, también, puede ser menos seguro. Así que creemos que la compensación entre seguridad y rendimiento existe en todas partes en la IA. Esta compensación influye en el nivel de riesgo asumido y depende, en gran medida, del estado de la técnica: si, por limitaciones técnicas, no se puede obtener un mejor rendimiento renunciando a la seguridad, entonces, es una buena noticia. El nivel general de seguridad puede, así, ser mayor. Del mismo modo, si un gran sacrificio en seguridad sólo supone una ganancia marginal en rendimiento, entonces, también, es una buena noticia: es posible que no se esté dispuesto a hacer ese sacrificio. Otro factor que identificamos es la proximidad de competidores en la carrera tecnológica. 

Hay muchas áreas en las que las carreras tecnológicas no han sido el desastre que cabía esperar gracias a acuerdos multilaterales. No obstante, no es un hecho que siempre estemos en condiciones de adoptar tales disposiciones.

ROBERT TRAGER

Al respecto, plantea un punto bastante contraintuitivo: una inversión en seguridad tecnológica puede aumentar el nivel de riesgo. ¿Por qué ocurre esto y cómo deberíamos compensar esta situación en el contexto de la IA?

Vuelvo a la relación entre seguridad y rendimiento: si inviertes en seguridad, estarás más seguro a cualquier nivel de rendimiento. Sin embargo, esto puede empujarte a aumentar el nivel de rendimiento: es la idea de hacer paracaidismo en un avión. Imagina que estás en un avión. Es posible que no te arriesgues a saltar, pero supongamos que llega alguien y te dice: «Por cierto, hay un paracaídas; puedes saltar». Puede que pienses: «Qué bien; me encanta el paracaidismo». Ahora que saltar es más seguro, puede que estés dispuesto a hacerlo y, por lo tanto, a aumentar el nivel de riesgo asumido. 

Es una dinámica similar a la que podemos observar, a veces, cuando trabajamos sobre la seguridad en el contexto de la compensación seguridad-rendimiento. Para tener en cuenta esta compensación en la investigación sobre IA, deberíamos preguntarnos, colectivamente, si estamos o no en una situación de equilibrio en la que todos estos actores compiten entre sí y se dicen: «Vamos a elegir un punto de la compensación seguridad-rendimiento en función de los riesgos que estamos dispuestos a asumir». Las inversiones en seguridad pueden aumentar el riesgo al incitar a los actores a desplegar versiones más peligrosas de una tecnología que las que desplegarían en cualquier otro escenario. En este caso, nos encontramos en una situación en la que necesitamos una regulación que evite nuevas compensaciones y que rebaje el equilibrio entre seguridad y rendimiento. Si, por el contrario, nos encontramos en un mundo en el que la implantación de tecnología está al límite de nuestras capacidades técnicas (el paradigma está agotado, por ejemplo) y en el que, realmente, no podemos ganar capacidad sacrificando la seguridad, entonces, simplemente mejorar la seguridad en ese límite de capacidad es algo positivo.

Si inviertes en seguridad, estarás más seguro a cualquier nivel de rendimiento. Sin embargo, esto puede empujarte a aumentar el nivel de rendimiento.

ROBERT TRAGER

En la actualidad, la carrera tecnológica de la IA se articula, principalmente, en torno a la competencia entre China y Estados Unidos. Usted ha demostrado que una carrera reñida entre los distintos protagonistas es más segura que una carrera en la que uno de los protagonistas se queda muy detrás, pero en la que dispone de una tecnología que puede perjudicar ¿Cómo se aplica esto en el enfrentamiento entre China y Estados Unidos en torno a la IA?

Gran parte de ello se reduce a esta idea del impuesto de seguridad: puede ser más difícil construir un sistema seguro y confiable que construir un sistema inseguro. En el caso de la IA, es más difícil entrenar a un sistema para que haga las cosas por las razones correctas, de modo que siga haciendo lo que uno quiere que haga, incluso en contextos nuevos que son diferentes a su entorno de entrenamiento. Con la idea de un impuesto de seguridad, sabemos que un rezagado en una carrera –digamos, una carrera tecnológica– es más propenso a tomar atajos. Los jugadores no hacen trampa cuando están a punto de ganar; sólo lo hacen cuando es la única forma de ganar y, realmente, quieren ganar. ¿Esto significa que China no pagará un impuesto de seguridad si se queda detrás y tiene que tomar atajos para ganar? En este caso, la cuestión es hasta qué punto el rezagado –digamos aquí, China– es capaz –y se sabe que es capaz– de causar daños.

Sin embargo, la nueva doctrina de Jake Sullivan consiste en asumir una estrategia de desvinculación de China. En septiembre de 2022, afirmó que, en materia de semiconductores, Estados Unidos debería mantener «una ventaja tan grande como sea posible». ¿Podemos deducir de sus resultados que ésta podría ser una estrategia subóptima?

No creo que podamos deducir que la estrategia de la administración sea errónea, pero creo que lo que podemos deducir de este modelo debería preocuparnos: ¿China decidirá, en algún momento, que tiene que ganar la carrera y que, para tener posibilidades de ganar, hay un impuesto de seguridad que tiene que minimizar y que no tiene que pagar? Ahí, radica la preocupación. Creo que tenemos que explorar soluciones multilaterales. No creo que podamos confiar en que el dominio de una tecnología superior nos proteja y ésta es una lección de la Guerra Fría: al principio de la era nuclear, la administración de Truman estaba convencida de que los soviéticos nunca conseguirían los secretos de la bomba, a diferencia de los científicos estadounidenses, que pensaban que lo harían muy rápidamente. La administración estadounidense de la época se negó a creerles y el resultado fue que estuvo menos dispuesta a buscar el multilateralismo en los primeros días de la confrontación de bloques cuando tuvo la oportunidad. 

¿China decidirá, en algún momento, que tiene que ganar la carrera y que, para tener posibilidades de ganar, hay un impuesto de seguridad que tiene que minimizar y que no tiene que pagar? Ahí, radica la preocupación.

ROBERT TRAGER

Se pueden hacer muchas analogías, más o menos pertinentes, entre la era de la IA y el periodo de la Guerra Fría. Creo que, al principio de la Guerra Fría, se esperaba que el uranio y el plutonio tuvieran una disponibilidad muy limitada para satisfacer las demandas de los países de todo el mundo. Así que se pensó que su suministro podría ser controlado con bastante facilidad. Unos años más tarde, se comprobó que no era así: el uranio estaba distribuido por todo el mundo y no era fácil controlarlo. Se puede establecer un paralelismo con la potencia de cálculo que requiere la IA hoy en día: la potencia de cálculo necesaria para entrenar modelos podría sugerir que será relativamente fácil controlar la proliferación de la IA. Sin embargo, con las mejoras algorítmicas, la cantidad de computación necesaria para realizar una tarea concreta disminuye constantemente. Por lo tanto, no está claro hasta qué punto esta analogía es válida. Otro problema específico de la IA –y que, conste, no se refleja en la analogía nuclear– es la facilidad con la que algunos productos basados en IA pueden ser, simplemente, robados. Al fin y al cabo, no es más que software; ya se ha robado software de valor similar antes. Así que tenemos motivos para creer que algunas de estas capacidades de IA, simplemente, serán robadas.

Durante la audiencia, los senadores reconocieron que el Congreso no había tomado las medidas oportunas para establecer una normativa para las redes sociales. Desde entonces, el ritmo del cambio tecnológico se ha acelerado con la IA y los avances en esta tecnología están llegando, más rápido que nunca, a manos de los usuarios finales. ¿Cómo conciliar el ritmo de la regulación y la diplomacia tecnológica con el ritmo de desarrollo de la IA?

Éste siempre ha sido el problema. Rachel Carson dijo que el problema de la regulación en el mundo moderno es que, sencillamente, no hay tiempo. No tenemos tiempo para determinar los efectos de la tecnología ni para regular al ritmo del calendario de desarrollo tecnológico. También, es cierto que el Congreso se ha tardado en legislar sobre redes sociales, pero no parece que sea demasiado tarde, en este momento, con respecto a la IA. El Congreso debe insistir en establecer mecanismos de transparencia sobre lo que hacen las empresas tecnológicas. Puede insistir en priorizar el interés público en las decisiones y en que la sociedad civil tenga voz y voto. Debería implicar a terceras partes del sector privado y del mundo académico para evaluar y auditar estos sistemas. La auditoría por terceros se mencionó muchas veces en la audiencia. Podemos hacer algo mejor que el statu quo actual para resolver estos problemas.

No tenemos tiempo para determinar los efectos de la tecnología ni para regular al ritmo del calendario de desarrollo tecnológico, pero podemos hacer algo mejor que el statu quo actual para resolver estos problemas.

ROBERT TRAGER

En el plan final de tres puntos que Sam Altman presentó ante el Senado, sugería la creación de una nueva agencia federal para autorizar el despliegue y entrenamiento de modelos de IA a gran escala. Algunos observadores han expresado su preocupación por el impacto anticompetitivo que esto podría tener. ¿Cómo encontrar el equilibrio adecuado entre una regulación eficaz de la IA y la garantía de que no ahogue la competencia?

Existe la legítima preocupación de que una nueva agencia ahogue la competencia, pero no creo que sea así necesariamente. Ciertamente, la agencia debe tener cuidado de evitar este escollo en su formulación de políticas, pero el obstáculo más importante para la competencia, en el caso de la IA, parece ser el costo financiero de operar en la frontera tecnológica. Parece que el desarrollo de un amplio modelo lingüístico de vanguardia es prohibitivo para muchos actores. Así que creo que ése es, posiblemente, un factor más importante que la captura reglamentaria a la hora de impedir que algunos de los actores más pequeños entren en el mercado. Por último, creo que la sociedad debe ser la que establezca las normas sobre lo que las empresas pueden y no pueden hacer por mí y eso es a través de concesión de licencias. Hay quien piensa que la concesión de licencias es sólo un intento furtivo de las grandes empresas tecnológicas de impedir la competencia, pero ésa es sólo una posibilidad. ¿Existe una buena política alternativa que sea de interés público? No creo que realmente la haya. Me parece que la concesión de licencias es el camino por seguir. Como dijo el senador Graham en la audiencia, es la solución más sencilla y se utiliza en otros sectores.

Los tres ponentes coincidieron en la necesidad de que los organismos internacionales establezcan normas y supervisen la IA. Sam Altman abogó por la creación de una agencia que siga el modelo del Organismo Internacional de Energía Atómica (OIEA).

El OIEA es un grupo de países poderosos que ha hecho dos cosas principales. En sus inicios, esta organización se centró en el desarrollo y la difusión de tecnología nuclear civil con fines pacíficos. Después, cuando el OIEA recibió el mandato del tratado de no proliferación, se trataba, en parte, de que este grupo de países poderosos le impusiera sus intereses al resto del mundo. Creo que, hoy en día, hay dos diferencias clave con respecto a la IA: la primera es que, quizás, necesitemos una gobernanza que no sólo enmarque a todos los demás países del mundo –que no están entre los pocos países líderes en IA–, sino que, también, enmarque lo que los países poderosos se hacen entre sí. La segunda diferencia es la desalineación de los Estados líderes en IA. Durante la Guerra Fría, los países del P5 en la ONU tenían intereses muy similares en materia de armas nucleares. Podían pensar, en el OIEA, sobre lo que querían para el resto del mundo. Esto fue especialmente cierto después de que China adquiriera sus armas nucleares en la década de 1960, pero esta alineación de intereses entre países poderosos no existe en el caso de la IA. Esto significa que la ONU será un lugar más difícil para la cooperación internacional. Tenemos serios retos por delante.

La alineación de intereses entre países poderosos no existe en el caso de la IA.

ROBERT TRAGER

Europa, China y Estados Unidos han adoptado enfoques muy diferentes en materia de regulación: Europa es muy horizontal (un único texto que intenta abarcar los múltiples impactos de la IA); China es vertical (un texto diferente para cada tipo de IA y caso de uso); Estados Unidos no es vinculante hasta ahora. ¿Qué está en juego en esta batalla por la normalización?

Esta cuestión del grado de centralización del aparato regulador es la línea de batalla del momento. Y creo que es un debate sano. En última instancia, creo que la tecnología tendrá la palabra. En este sentido, la dirección que está tomando el paradigma dominante es la de los foundation models, es decir, la de tecnología de uso general. Por supuesto, se adaptarán a los casos de uso finales, pero no dejarán de ser modelos cada vez mayores y más generales. Y creo que eso implica una unidad y un cierto grado de centralización en cuanto al enfoque regulador. Es algo que, posiblemente, descubriremos en los próximos meses.