La transmisión de datos a las autoridades públicas es el primer pilar clave de la regulación. A partir de ahora, las empresas que desarrollen los modelos de IA más potentes deberán compartir sus datos con el gobierno estadounidense.

  • La obligación de compartir se refiere a los resultados de las pruebas con modelos que supongan un riesgo para la seguridad nacional, la salud pública o la seguridad económica, según criterios definidos por el gobierno.
  • El tipo de modelos a los que se dirige son los «modelos fundacionales», modelos básicos de IA generativa que luego pueden utilizarse y desplegarse para múltiples fines.
  • La biología -y la síntesis biológica en particular- se ha identificado como un sector de especial riesgo por su interacción con la IA. A partir de ahora, la concesión de fondos federales a las empresas que operan en este sector estará condicionada al desarrollo y cumplimiento de nuevas normas estrictas.

Además de la seguridad nacional, el decreto aborda una amplia gama de cuestiones relacionadas con el desarrollo y el uso creciente de modelos de IA.

  • El decreto aborda la cuestión de la detección y el tratamiento de contenidos potencialmente fraudulentos generados por IA -incluidos los «deepfakes» de vídeo o audio que permiten atribuir comentarios o acciones a personalidades públicas-.
  • El decreto prevé la financiación de una Red de Coordinación de la Investigación en el ámbito de la criptografía y los métodos de protección de datos privados.
  • Se abordan los sesgos de los algoritmos y su propensión a reforzar la discriminación en el ámbito de la salud, la justicia y el acceso a la vivienda o el empleo, en particular mediante el establecimiento de directrices y la formación de propietarios y profesionales de la justicia.
  • También se incluyen medidas para anticipar la prevención del impacto de la IA en el mercado laboral y limitar los riesgos que supone para los empleados. En 2022, la pérdida de puestos de trabajo humanos fue el motivo más citado de preocupación por la IA en Estados Unidos1, por delante de la vigilancia, la piratería informática y las posibles violaciones de la privacidad.
  • Se prevén medidas para mejorar y preservar el ecosistema de innovación estadounidense, incluido el apoyo técnico a las pequeñas empresas del sector. También se facilitará la concesión y prórroga de visados para trabajadores no estadounidenses del sector.

Esta legislación ha sido muy esperada, ya que Estados Unidos sigue siendo el país que domina ampliamente el sector de la IA. La sucesión de acontecimientos ha estado marcada por la proliferación de intentos por parte de gobiernos y organizaciones internacionales de regular la inteligencia artificial.

  • El lunes 30 de octubre, los líderes del G7 acordaron once principios rectores2 y un código de conducta no vinculante para los desarrolladores de modelos de IA.
  • En junio de 2023, el Parlamento Europeo adoptó la Ley de IA, basada en una jerarquía de riesgos asociados al uso de tecnologías de IA. En particular, la legislación prohibió las prácticas de calificación social y la identificación biométrica en tiempo real.
  • Una de las principales dificultades a la hora de regular la IA sigue siendo adaptarse a un campo en rápida evolución.
Notas al pie
  1. Stanford University, Human-Centered Artificial Intelligence, AI Index Report, 2023.
  2. G7, Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System, 30 de octubre de 2023.