{"id":10899,"date":"2022-11-18T19:59:00","date_gmt":"2022-11-18T19:59:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=10899"},"modified":"2022-11-23T12:17:40","modified_gmt":"2022-11-23T12:17:40","slug":"tomar-la-medida-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2022\/11\/18\/tomar-la-medida-de-la-inteligencia-artificial\/","title":{"rendered":"Tomar la medida de la inteligencia artificial"},"content":{"rendered":"\n
La inteligencia artificial (IA) ha entrado en una nueva era caracterizada por cuatro tendencias: una homogeneizaci\u00f3n de sus t\u00e9cnicas, una aceleraci\u00f3n masiva de su adopci\u00f3n, una creciente asimetr\u00eda de la informaci\u00f3n entre los sectores privado y p\u00fablico y una cristalizaci\u00f3n de las tensiones geopol\u00edticas.<\/p>\n\n\n\n
La historia de la IA es reciente (posterior a 1950) pero ya es rica en avances tecnol\u00f3gicos que han transformado significativamente sus aplicaciones comerciales. La m\u00e1s reciente corresponde a la aparici\u00f3n de modelos de IA de tama\u00f1o gigantesco que permiten mejorar y sistematizar el desarrollo de algoritmos predictivos. El campo del procesamiento autom\u00e1tico del lenguaje ofrece un ejemplo especialmente ilustrativo de este fen\u00f3meno. Antes de 2018, cualquier tarea espec\u00edfica (predicci\u00f3n de sentimientos, detecci\u00f3n de noticias falsas…) requer\u00eda un modelo de IA espec\u00edfico, cuyo desarrollo era especialmente caro. La introducci\u00f3n del modelo BERT (Bidirectional Transformers for Language Understanding) en 2018 cambi\u00f3 el juego: permite digerir la informaci\u00f3n textual y transformarla en una forma m\u00e1s sint\u00e9tica, directamente explotable por los algoritmos tradicionales de aprendizaje autom\u00e1tico. El nuevo paradigma de la IA parte, pues, de una homogeneizaci\u00f3n de las t\u00e9cnicas de aprendizaje, a trav\u00e9s de un tratamiento de la informaci\u00f3n en dos etapas: extracci\u00f3n-s\u00edntesis primero, y calibraci\u00f3n para una tarea espec\u00edfica despu\u00e9s. La fase de extracci\u00f3n-s\u00edntesis, que es muy compleja, es posible precisamente gracias a la introducci\u00f3n de foundation models<\/em> seg\u00fan la terminolog\u00eda de la Universidad de Stanford, de la que forma parte el BERT. La ampliaci\u00f3n de estos foundation models<\/em> ofrece muchas promesas, pero va acompa\u00f1ada de una nueva forma de riesgo sist\u00e9mico, ya que sus fallos inherentes se reflejan en los numerosos algoritmos que han engendrado. Este fen\u00f3meno de intermediaci\u00f3n hace m\u00e1s complejo para los responsables pol\u00edticos la medici\u00f3n del impacto social y econ\u00f3mico de la IA.<\/p>\n\n\n\n El nuevo paradigma de la IA procede, pues, de una homogeneizaci\u00f3n de las t\u00e9cnicas de aprendizaje, a trav\u00e9s de un tratamiento de la informaci\u00f3n en dos etapas: primero la extracci\u00f3n-s\u00edntesis y luego la calibraci\u00f3n para una tarea espec\u00edfica.<\/p>VICTOR STORCHAN y NATHAN NOIRY<\/cite><\/blockquote><\/figure>\n\n\n\n La inteligencia artificial est\u00e1 pasando del laboratorio al uso comercial a un ritmo sin precedentes. Su adopci\u00f3n es masiva: seg\u00fan la empresa californiana OpenAI, uno de los l\u00edderes mundiales del sector, los modelos GPT-3 (generaci\u00f3n de texto), Dall-E (generaci\u00f3n de im\u00e1genes) y GitHub Copilot (generaci\u00f3n de c\u00f3digo inform\u00e1tico) han superado cada uno de ellos la barrera del mill\u00f3n de usuarios. Adem\u00e1s, estamos asistiendo a una impresionante aceleraci\u00f3n de esta adopci\u00f3n: mientras que el GPT-3, introducido en 2020, tard\u00f3 dos a\u00f1os en alcanzar la marca del mill\u00f3n de usuarios, el Dall-E 2, introducido en 2022, solo tard\u00f3 dos meses en alcanzar este objetivo. Estos cambios bruscos obligan a los responsables pol\u00edticos a reaccionar con un sentido de urgencia cada vez mayor.<\/p>\n\n\n\n Los recursos espec\u00edficos necesarios para desarrollar nuevos sistemas de IA han llevado a una preeminencia de la investigaci\u00f3n privada sobre la p\u00fablica. Por ejemplo, el desarrollo de modelos fundacionales requiere no s\u00f3lo la recopilaci\u00f3n de conjuntos de datos a muy gran escala, sino tambi\u00e9n recursos computacionales exponenciales que pueden costar decenas de millones de d\u00f3lares, recursos que a menudo son inaccesibles para el mundo acad\u00e9mico. El resultado es una considerable asimetr\u00eda de informaci\u00f3n entre las universidades p\u00fablicas y los centros de investigaci\u00f3n privados, con un pernicioso efecto de retroalimentaci\u00f3n: al ser los \u00fanicos capaces de producir los modelos m\u00e1s eficientes, los centros privados atraen a los mejores talentos y corren solos hacia la cima. En particular, la brecha entre la realidad de la tecnolog\u00eda desplegada en la industria y la percepci\u00f3n de los responsables p\u00fablicos ha aumentado considerablemente, con el riesgo de centrar el debate en quimeras tecnol\u00f3gicas que distraen de los verdaderos problemas sociales que plantea la IA. Adem\u00e1s, las empresas privadas mantienen una vaguedad tecnol\u00f3gica sobre las capacidades reales de los modelos que desarrollan: las publicaciones cient\u00edficas rigurosas suelen rivalizar con comunicados de prensa rotundamente opacos desde el punto de vista cient\u00edfico. El investigador canadiense Gary Marcus ha introducido el neologismo demoware<\/em> para describir este fen\u00f3meno de la editorializaci\u00f3n de la IA, en el que la ilusi\u00f3n de una presentaci\u00f3n simplificada enmascara a veces la falta de madurez de una tecnolog\u00eda. Para reequilibrar la balanza de poder, la Universidad de Stanford ha propuesto la idea de una nube de investigaci\u00f3n nacional <\/span>1<\/sup><\/a><\/span><\/span> que proporcione recursos adecuados para la investigaci\u00f3n p\u00fablica.<\/p>\n\n\n\n La brecha entre la realidad de la tecnolog\u00eda desplegada en la industria y la percepci\u00f3n de los responsables p\u00fablicos ha crecido considerablemente, con el riesgo de centrar el debate en quimeras tecnol\u00f3gicas que distraen de los verdaderos problemas sociales que plantea la IA.<\/p>VICTOR STORCHAN y NATHAN NOIRy<\/cite><\/blockquote><\/figure>\n\n\n\n En la escena internacional, las tensiones geopol\u00edticas est\u00e1n cristaliz\u00e1ndose. En primer lugar, entre potencias, donde se ilustran en la pr\u00e1ctica los conceptos de tecno-soberanismo y tecno-nacionalismo. Cuando la empresa Naver, competidora coreana de Google, anunci\u00f3 que pod\u00eda replicar modelos de generaci\u00f3n de textos tan eficientes como los de sus competidores estadounidenses, en el comunicado de prensa se afirmaba que \u00aba diferencia del modelo GPT-3 centrado en el ingl\u00e9s, esto significa tambi\u00e9n asegurar la soberan\u00eda de la IA desarrollando un modelo ling\u00fc\u00edstico optimizado para el coreano\u00bb. El ejemplo chino tambi\u00e9n es emblem\u00e1tico de este nuevo tecno-nacionalismo: el Ministerio de Ciencia y Tecnolog\u00eda ha elaborado una lista de empresas destinadas a formar un \u00abequipo nacional para la IA\u00bb capaz de proyectar el poder chino. Adem\u00e1s, est\u00e1 surgiendo una nueva forma de diplomacia entre los Estados y las plataformas tecnol\u00f3gicas. Por un lado, los Estados est\u00e1n nombrando embajadores digitales en los GAFAs, mientras que, por otro, las plataformas tecnol\u00f3gicas est\u00e1n reclutando expertos para anticipar las reacciones geopol\u00edticas que sus sistemas de IA podr\u00edan provocar <\/span>2<\/sup><\/a><\/span><\/span>. Este aumento de la geopolitizaci\u00f3n de la IA fue percibido ya en julio de 2021 por Antony Blinken: \u00ablas democracias deben pasar juntas la prueba tecnol\u00f3gica\u00bb y \u00abla diplomacia, […] tiene un gran papel que desempe\u00f1ar en este sentido\u00bb. En Francia, Emmanuel Macron subray\u00f3 recientemente la necesidad de \u00abcombinar lo que significa ser diplom\u00e1tico con un conocimiento extremadamente especializado de la tecnolog\u00eda\u00bb. <\/p>\n\n\n\n Las cuatro tendencias de la nueva era en la que ha entrado la IA hacen que sea una tecnolog\u00eda dif\u00edcil de comprender. Ante la creciente vaguedad tecnol\u00f3gica, los Estados se organizan para tomar la medida de las transformaciones en curso, con el fin de detectar las oportunidades y las vulnerabilidades de la IA, un gran reto para la pr\u00f3xima d\u00e9cada.<\/p>\n\n\n\n Ante la creciente vaguedad tecnol\u00f3gica, los Estados se organizan para tomar la medida de las transformaciones en curso, con el fin de detectar las oportunidades y las vulnerabilidades de la IA, un gran reto para la pr\u00f3xima d\u00e9cada.<\/p>VICTOR STORCHAN y NATHAN NOIRy<\/cite><\/blockquote><\/figure>\n\n\n\n Los Estados se est\u00e1n organizando en un marco plurilateral, incluyendo a la industria y la sociedad civil, para evaluar y medir mejor los impactos macroecon\u00f3micos de la IA (futuro del trabajo, impacto econ\u00f3mico, desigualdades, cambios industriales, etc.). Sin embargo, iniciativas como la Asociaci\u00f3n Mundial para la Inteligencia Artificial (GPIA) siguen siendo muy acad\u00e9micas: informes t\u00e9cnicos sobre el estado de avance de la IA o las mejores pr\u00e1cticas entre los pa\u00edses, los productos elaborados elaboran principios generales sin proporcionar, sin embargo, hojas de ruta accionables. Los grupos de trabajo est\u00e1n perdidos, ya que no tienen capacidad de ejecuci\u00f3n t\u00e9cnica directa para, entre otras cosas, priorizar los recursos o planificar la financiaci\u00f3n a largo plazo. Para estar m\u00e1s directamente en contacto con los \u00faltimos avances de la IA en las empresas y poner en marcha estrategias m\u00e1s operativas con m\u00faltiples partes interesadas, es necesario replantear el modo de gobernanza de estas asociaciones. La prioridad es diversificar los conocimientos t\u00e9cnicos y desarrollar herramientas de evaluaci\u00f3n capaces de plantear puntos concretos de vigilancia a los responsables p\u00fablicos.<\/p>\n\n\n\n El desarrollo de una normativa adaptada a los sistemas de IA se hace imprescindible: es necesario tener en cuenta las especificidades tecnol\u00f3gicas del campo y construir nuevos marcos legislativos adaptados, como la Ley de IA que est\u00e1 negociando la Comisi\u00f3n Europea. Lo m\u00e1s importante es que cualquier cuerpo legislativo relacionado con la IA debe basarse en el desarrollo de herramientas adecuadas para garantizar la auditor\u00eda de los sistemas existentes. En este sentido, el National Institute of Standards and Technology <\/em>(NIST) ya incorpora auditor\u00edas de los sistemas de reconocimiento facial, no s\u00f3lo para comprobar su rendimiento, sino tambi\u00e9n para detectar sesgos demogr\u00e1ficos (por ejemplo, contra las mujeres y las personas racializadas). Para garantizar una base com\u00fan de comparaci\u00f3n, el NIST dispone de una base de datos etiquetada a la que no pueden acceder las empresas auditadas. El desarrollo de mecanismos de auditor\u00eda espec\u00edficos para los foundation models<\/em>, que alimentan a todos los dem\u00e1s, tambi\u00e9n es crucial para regular la IA del futuro. La Universidad de Stanford pretende estimular esta v\u00eda de inspecci\u00f3n de los foundation models<\/em> organizando este a\u00f1o un concurso para premiar el desarrollo de herramientas operativas que permitan responder, por ejemplo, a las siguientes preguntas: \u00bfson estables las decisiones del modelo a lo largo del tiempo? \u00bfest\u00e1n las mujeres infrarrepresentadas en el modelo? etc.<\/p>\n\n\n\n Es fundamental que cualquier cuerpo legislativo sobre la IA se apoye en el desarrollo de herramientas adecuadas para auditar los sistemas existentes.<\/p>VICTOR STORCHAN y NATHAN NOIRY<\/cite><\/blockquote><\/figure>\n\n\n\n El desarrollo de iniciativas multipartitas y la construcci\u00f3n de herramientas de auditor\u00eda no pueden sustituir la cuesti\u00f3n de qu\u00e9 valores deben prevalecer en la aplicaci\u00f3n de la IA. Los preceptos de la IA de confianza, promovidos por la Comisi\u00f3n Europea, son relativamente recientes en el desarrollo de esta tecnolog\u00eda. Hist\u00f3ricamente <\/span>3<\/sup><\/a><\/span><\/span>, tres tendencias han acompa\u00f1ado los avances en este campo sin prever los riesgos que conllevaban: la competencia hombre-m\u00e1quina (en lugar de la cooperaci\u00f3n), la autonom\u00eda respecto a la supervisi\u00f3n humana y la centralizaci\u00f3n de los recursos. En la actualidad, muchas instituciones p\u00fablicas (el centro para una IA compatible entre la m\u00e1quina y el humano de Berkeley), ONG (la Cooperative AI Foundation<\/em>) y empresas privadas (Redwood Research, Anthropic) est\u00e1n abordando la cuesti\u00f3n de la alineaci\u00f3n de valores entre humanos y m\u00e1quinas. Esta cuesti\u00f3n es tanto m\u00e1s actual cuanto que algunas empresas como DeepMind u OpenAI tienen el objetivo declarado de desarrollar una IA que supere las capacidades cognitivas humanas.<\/p>\n\n\n\n La revoluci\u00f3n tecnol\u00f3gica que supone la IA es tambi\u00e9n antropol\u00f3gica, ya que perturba nuestras sociedades. Al mismo tiempo, la actualizaci\u00f3n de nuestras categor\u00edas de lectura pol\u00edtica se ve desdibujada por los nuevos paradigmas t\u00e9cnicos y geopol\u00edticos del sector. Cabe se\u00f1alar que esta dificultad para entender la IA no es exclusiva de los responsables p\u00fablicos: en los \u00faltimos a\u00f1os, los espectaculares avances en este campo han desbaratado constantemente las previsiones de los mejores expertos. En este contexto de creciente incertidumbre, el desarrollo de herramientas de medici\u00f3n adecuadas nunca ha sido m\u00e1s crucial.<\/p>\n","protected":false},"excerpt":{"rendered":" La IA est\u00e1 perturbando profundamente nuestras sociedades -a un ritmo sin precedentes-. Un frenes\u00ed de innovaci\u00f3n que choca con las exigencias a largo plazo de la pol\u00edtica y dificulta el desarrollo de estrategias digitales sostenibles. Para tomar la medida completa de las transformaciones en curso, es necesario armarse de herramientas adecuadas que a\u00fan est\u00e1n por inventar, mientras que la cuantificaci\u00f3n del estado de avance de esta nueva tecnolog\u00eda es cada vez m\u00e1s compleja debido a su creciente geopolitizaci\u00f3n y a los incesantes cambios tecnol\u00f3gicos que induce.<\/p>\n","protected":false},"author":1366,"featured_media":10900,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"templates\/post-angles.php","format":"standard","meta":{"_acf_changed":false,"_trash_the_other_posts":false,"footnotes":""},"categories":[123],"tags":[],"geo":[198],"class_list":["post-10899","post","type-post","status-publish","format-standard","hentry","category-digital","staff-nathan-noiry","staff-victor-storchan","geo-mundo"],"acf":[],"yoast_head":"\nUna adopci\u00f3n masiva que est\u00e1 acelerando<\/strong><\/h2>\n\n\n\n
Una asimetr\u00eda de informaci\u00f3n entre el sector privado y el sector p\u00fablico<\/strong><\/h2>\n\n\n\n
La creciente geopolitizaci\u00f3n de la IA<\/strong><\/h2>\n\n\n\n
Iniciativas multilaterales para medir las repercusiones a gran escala de la IA: un modo de gobernanza que hay que repensar<\/strong><\/h2>\n\n\n\n
Regulaci\u00f3n de los usos a nivel del sistema de IA y de los actores tecnol\u00f3gicos<\/strong><\/h2>\n\n\n\n
Pensar el largo plazo<\/strong><\/h2>\n\n\n\n