Para muchos expertos, el progreso exponencial de la IA generativa representado por ChatGPT o GPT-4 señala el comienzo de una gran revolución tecnológica, cognitiva y antropomórfica. 

Ante este cambio de paradigma, una coalición sin precedentes de empresarios, investigadores e ingenieros del sector advierte, en una carta abierta, sobre los riesgos «civilizatorios» de la IA. Abogan por una moratoria de 6 meses: una pausa en el desarrollo de la tecnología para reflexionar sobre su confiabilidad y seguridad. 

Esta carta, la publica el instituto Future of Life, una organización sin ánimo de lucro fundada en 2014 que promueve el imaginario a largo plazo de Silicon Valley. La misión del instituto es trabajar para evitar los escenarios de amenaza o «riesgos existenciales» que suponen para el futuro de la humanidad tecnologías disruptivas como la IA, la biología sintética o la física nuclear. 

Su cofundador Jaan Tallinn (también, cofundador de Skype) y Elon Musk (asesor y financiador del programa de investigación del instituto) encarnan, desde hace años, una forma de radicalismo militante al advertir sobre los riesgos de catástrofes tecnológicas irreversibles que se producirían a causa de la IA1. El primero apoya, por ejemplo, la tesis del profesor de Oxford Toby Ord, en la que la humanidad tiene una probabilidad sobre seis de no sobrevivir al siglo XXI a causa de la IA. El segundo cree que los peligros de la IA son mayores que las «armas nucleares»2 o «Corea del Norte»3. Musk también ha tenido un altercado con Open AI, ya que la abandonó en 2019, y no ha ocultado su ambición de desarrollar un competidor de ChatGPT. 

Parece que objetivos más pragmáticos motivan a otros firmantes. La IA se ha convertido en una de las industrias más concentradas del mundo: en la actualidad, menos de 6 empresas son capaces de producir a escala sistemas de IA generativa de última generación. Además, la forma de operar de estas empresas tecnológicas está cambiando: los preceptos de la ciencia abierta (publicaciones científicas transparentes, code open source, etcétera) que prevalecieron durante la última década de desarrollo de la IA han dado paso a una opacidad científica casi total. Esta nueva dinámica, combinada con el rápido despliegue de la IA, plantea retos sin precedentes para los actores del ecosistema, para las autoridades reguladoras y para la sociedad. Al mismo tiempo, aportan su cuota de incertidumbres, riesgos, utopías y distopías. 

En las próximas semanas, en el Grand Continent, a partir de la serie «Poderes de la IA», de la que aparece un nuevo episodio cada viernes, y con el Groupe d’études géopolitiques, lanzaremos un debate basado en una amplia investigación con los principales especialistas mundiales en IA para conocer sus posiciones.

Victor Storchan

Poner en pausa en los experimentos gigantes de IA: una carta abierta

Los sistemas de inteligencia artificial (IA) con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, tal y como demuestran múltiples investigaciones4 y como lo reconocen los principales laboratorios de IA5. Como lo indican los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y tal situación debería planificarse y gestionarse con la atención y los recursos necesarios. Por desgracia, este nivel de planificación y gestión no existe, incluso si, en los últimos meses, los laboratorios de IA se han encapsulado en una carrera incontrolada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie (ni siquiera sus creadores) puede comprender, predecir o controlar de forma confiable.

Los sistemas de inteligencia artificial contemporáneos ya compiten con los humanos en tareas generales6 y debemos preguntarnos lo siguiente: ¿debemos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos desarrollar mentes no humanas que, un día, puedan superarnos en número, astucia, caducidad y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deberían delegarse a líderes tecnológicos no elegidos. Sólo deben desarrollarse sistemas de IA potentes cuando tengamos la certeza de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la escala de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que «en algún momento, podría ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas y que los esfuerzos más avanzados acuerden limitar el ritmo de crecimiento de la computación utilizada para crear nuevos modelos». Estamos de acuerdo. Y el momento de actuar es ahora.

Por lo tanto, les pedimos a todos los laboratorios de IA que detengan inmediatamente el acondicionamiento de sistemas de IA más potentes que GPT-4 durante, al menos, seis meses. Esta pausa debe ser pública y verificable y debe incluir a todos los actores clave. Si dicha pausa no puede ejecutarse de forma rápida y espontánea, los gobiernos deben intervenir y establecer una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada, rigurosamente controlados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable7, lo que no significa una pausa en el desarrollo de la IA en general, sino, simplemente, una retirada de la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.

La investigación y el desarrollo en el campo de la IA deben volver a centrarse en la mejora de la precisión, la seguridad, la interpretabilidad, la transparencia, la solidez, la alineación y de la confiabilidad de los potentes y modernos sistemas actuales.

Al mismo tiempo, los desarrolladores de IA deben colaborar con los responsables políticos para acelerar significativamente el desarrollo de sistemas sólidos de gobernanza de la IA. Éstos deberían incluir, como mínimo, autoridades reguladoras nuevas y competentes dedicadas a la IA, supervisión y control de los sistemas de IA de alto rendimiento y de los grandes conjuntos de capacidad computacional, sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear fugas de modelos, un sólido ecosistema de auditoría y certificación, responsabilidad por los daños causados por la IA, financiamiento público sólido para la investigación técnica sobre la seguridad de la IA, e instituciones con recursos suficientes para enfrentar la considerable perturbación económica y política (en especial, para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro floreciente gracias a la IA. Tras haber logrado crear potentes sistemas de IA, ahora, podemos disfrutar de un «verano de la IA» en el que cosecharemos los frutos de nuestros esfuerzos diseñando estos sistemas para el mayor beneficio de todos y dándole a la sociedad la oportunidad de adaptarse. La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos para ella8 y nosotros podemos hacer lo mismo aquí. Disfrutemos de un largo verano de IA y no nos precipitemos desprevenidos hacia el otoño.

Notas al pie
  1. https://www.cnbc.com/2020/12/29/skype-co-founder-jaan-tallinn-on-3-most-concerning-existential-risks-.html
  2. https://www.cnbc.com/2018/03/13/elon-musk-at-sxsw-a-i-is-more-dangerous-than-nuclear-weapons.html
  3. https://www.cnbc.com/2017/08/11/elon-musk-issues-a-stark-warning-about-a-i-calls-it-a-bigger-threat-than-north-korea.html
  4. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big??. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

    Bostrom, N. (2016). Superintelligence. Oxford University Press.

    Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

    Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

    Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

    Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

    Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

    Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

    Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

    Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

    Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

    Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

  5. Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks : ‘A little bit scared of this’. ABC News.

    Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

  6. Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence : Early experiments with GPT-4. arXiv:2303.12712.

    OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

  7. Existen muchos precedentes legales; por ejemplo, los principios de la OCDE sobre IA, ampliamente adoptados, exigen que los sistemas de IA «funcionen adecuadamente y no supongan un riesgo de seguridad irrazonable».
  8. La clonación humana, la modificación de la línea germinal humana, la investigación de ganancia de función y la eugenesia son algunos ejemplos.
Créditos
Texto fuente: https://futureoflife.org/open-letter/pause-giant-ai-experiments/