{"id":15930,"date":"2023-04-21T09:57:00","date_gmt":"2023-04-21T08:57:00","guid":{"rendered":"https:\/\/legrandcontinent.eu\/es\/?p=15930"},"modified":"2023-04-21T14:37:14","modified_gmt":"2023-04-21T13:37:14","slug":"por-que-italia-ha-bloqueado-chatgpt","status":"publish","type":"post","link":"https:\/\/legrandcontinent.eu\/es\/2023\/04\/21\/por-que-italia-ha-bloqueado-chatgpt\/","title":{"rendered":"\u00bfPor qu\u00e9 Italia ha bloqueado ChatGPT?"},"content":{"rendered":"\n

La medida de emergencia del 30 de marzo, por la que la Autoridad Italiana de Protecci\u00f3n de Datos (Garante Privacy<\/em>) orden\u00f3 la \u00abrestricci\u00f3n temporal del tratamiento de datos personales de los interesados establecidos en territorio italiano\u00bb por parte de OpenAI L.L.C., una empresa estadounidense que desarrolla y opera ChatGPT, ha atra\u00eddo mucha atenci\u00f3n, no solo en Italia, sino en toda Europa <\/span>1<\/sup><\/a><\/span><\/span>. La medida, ordenada por la autoridad italiana en virtud del art\u00edculo 58, apartado 2, letra f), del Reglamento Europeo de Protecci\u00f3n de Datos (RGPD), ha suscitado una reflexi\u00f3n sobre el impacto de este sistema en los datos personales, sobre el alcance de la intervenci\u00f3n de la autoridad estatal y sobre la adecuaci\u00f3n del GDPR en los avances tecnol\u00f3gicos. Una visi\u00f3n general de las diferentes etapas del caso puede ser \u00fatil, junto con algunas consideraciones sobre los puntos m\u00e1s controvertidos.<\/p>\n\n\n\n

La medida de emergencia de Garante<\/em><\/h2>\n\n\n\n

Garante<\/em> impugn\u00f3 a OpenAI, en primer lugar, por la falta de informaci\u00f3n sobre el tratamiento de datos a trav\u00e9s de ChatGPT, es decir, por la falta de comunicaci\u00f3n sobre los fines y modalidades del propio tratamiento. Lo que falta, seg\u00fan la autoridad italiana, es un sistema que garantice la transparencia del posible consentimiento. En segundo lugar, Garante<\/em> se\u00f1ala la falta de una base jur\u00eddica adecuada, es decir, una base que haga l\u00edcito el uso de datos personales (art\u00edculo 6 del GDPR), en el nivel de la recopilaci\u00f3n de datos y de su tratamiento para impulsar los algoritmos que sustentan el funcionamiento de ChatGPT. La tercera queja se refiere a la inexactitud del tratamiento de los datos, \u00abya que la informaci\u00f3n facilitada por ChatGPT no siempre corresponde a los datos reales\u00bb, seg\u00fan denuncian numerosos interesados; por \u00faltimo, se se\u00f1ala la ausencia de \u00abtoda verificaci\u00f3n de la edad de los usuarios\u00bb (a pesar de que, seg\u00fan las condiciones publicadas por OpenAI, el servicio ChatGPT est\u00e1 reservado para mayores de 13 a\u00f1os), lo que expone a los menores de la edad estipulada a respuestas \u00abinadecuadas para su grado de desarrollo y conocimiento de s\u00ed mismos\u00bb.<\/p>\n\n\n\n

Lo que falta, seg\u00fan la autoridad italiana, es un sistema que garantice la transparencia del posible consentimiento. <\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

La Autoridad exhort\u00f3 a OpenAI a comunicar las iniciativas \u00abadoptadas para aplicar las disposiciones prescritas\u00bb y a \u00abproporcionar cualquier elemento que se considere \u00fatil para justificar las infracciones se\u00f1aladas\u00bb, en un plazo de 20 d\u00edas. A ra\u00edz de esta medida, el mismo d\u00eda de la decisi\u00f3n de Garante<\/em>, la empresa bloque\u00f3 el uso del servicio desde Italia, aunque la Autoridad s\u00f3lo ordenara la limitaci\u00f3n temporal del tratamiento de datos de personas ubicadas en Italia. La limitaci\u00f3n consiste, entre otras cosas, en hacer inaccesibles para los usuarios determinados datos personales o suprimir temporalmente los datos publicados por un sitio para que \u00abno sean objeto de tratamiento ulterior\u00bb (considerando 67 del GDPR).<\/p>\n\n\n\n

Tras la medida urgente, ratificada por el Colegio el 8 de abril, el 5 de abril de 2023, se celebr\u00f3 por teleconferencia una reuni\u00f3n entre Garante<\/em> y la empresa. En notas remitidas a Garante<\/em> los d\u00edas 6 y 7 de abril, OpenAI manifest\u00f3 su voluntad de colaboraci\u00f3n y solicit\u00f3, asimismo, el levantamiento de la medida cautelar de restricci\u00f3n. Tomando en cuenta la informaci\u00f3n obtenida y la voluntad expresada por la empresa de \u00abejecutar una serie de medidas concretas para proteger los derechos y libertades de los interesados, cuyos datos fueron tratados para el entrenamiento de los algoritmos utilizados para la prestaci\u00f3n del servicio ChatGPT y de los propios usuarios del servicio\u00bb, el 11 de abril, Garante<\/em> adopt\u00f3 una nueva medida (de conformidad con el art\u00edculo 58, apartado 2, letra d), del GDPR) <\/span>2<\/sup><\/a><\/span><\/span>. Contiene una serie de medidas y requisitos que OpenAI deber\u00e1 cumplir para que el tratamiento de los datos personales se ajuste al Reglamento de la Uni\u00f3n Europea.<\/p>\n\n\n\n

Una queja se refiere a la inexactitud del tratamiento de los datos, \u00abya que la informaci\u00f3n facilitada por ChatGPT no siempre corresponde a los datos reales\u00bb, seg\u00fan denuncian numerosos interesados.<\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

Condiciones para la suspensi\u00f3n de la restricci\u00f3n provisional<\/h2>\n\n\n\n

Para obtener la suspensi\u00f3n de la restricci\u00f3n provisional, OpenAI deber\u00e1, en primer lugar, antes del 30 de abril, redactar una nota informativa dirigida a los interesados, aunque no sean usuarios del servicio, cuyos datos hayan sido tratados para impulsar el algoritmo, en la que explique \u00ablas modalidades del tratamiento, la l\u00f3gica subyacente al tratamiento necesario para el funcionamiento del servicio, sus derechos como interesados y cualquier otra informaci\u00f3n exigida por el Reglamento de la Uni\u00f3n Europea\u00bb. Adem\u00e1s, \u00abpara los usuarios que se conecten desde Italia, habr\u00e1 que presentar la nota informativa antes de proceder al registro; tambi\u00e9n, antes de proceder al registro, se les pedir\u00e1 a los usuarios que declaren que son mayores de edad. Para los ya registrados, la nota informativa deber\u00e1 presentarse en el primer acceso tras la reactivaci\u00f3n del servicio y, en esa ocasi\u00f3n, se les pedir\u00e1 que pasen un filtro de edad que excluye, en funci\u00f3n de la edad declarada, a los usuarios menores de edad\u00bb.<\/p>\n\n\n\n

Adem\u00e1s, OpenAI tendr\u00e1 que poner a disposici\u00f3n de los interesados, incluidos los que no sean usuarios del servicio y los que se conecten desde Italia, \u00abuna herramienta que les permita solicitar y obtener la rectificaci\u00f3n de sus datos personales que hayan sido tratados de forma inexacta en la generaci\u00f3n de los contenidos o, en caso de imposibilidad debido al estado de la t\u00e9cnica, la supresi\u00f3n de sus datos personales\u00bb. OpenAI tambi\u00e9n tendr\u00e1 que cambiar la base jur\u00eddica del tratamiento con fines de formaci\u00f3n de algoritmos, pasando del contrato al consentimiento o al inter\u00e9s leg\u00edtimo. Cabe se\u00f1alar que este \u00faltimo puede constituir una base jur\u00eddica v\u00e1lida si, tras sopesarlo con los intereses o derechos y libertades del interesado, el responsable del tratamiento (en este caso, OpenAI) lo considera superior en virtud del principio de responsabilidad. OpenAI tambi\u00e9n tendr\u00e1 que permitirles a los interesados que no sean usuarios ejercer, de forma sencilla y accesible, su derecho a oponerse al tratamiento de sus datos personales utilizados para el entrenamiento de algoritmos y reconocerles un derecho similar a los usuarios, si identifica el inter\u00e9s leg\u00edtimo como base jur\u00eddica del tratamiento.<\/p>\n\n\n\n

OpenAI tambi\u00e9n tendr\u00e1 que cambiar la base jur\u00eddica del tratamiento con fines de formaci\u00f3n de algoritmos, pasando del contrato al consentimiento o al inter\u00e9s leg\u00edtimo.<\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

\u00c9stas son las condiciones que deben cumplirse antes de finales de abril para que se levante la restricci\u00f3n. Sin embargo, eso no es todo. Antes del 15 de mayo de 2023, OpenAI tendr\u00e1 que presentar \u00abuna campa\u00f1a informativa, de car\u00e1cter no promocional, en todos los medios de comunicaci\u00f3n principales de Italia (radio, televisi\u00f3n, peri\u00f3dicos e Internet), cuyo contenido deber\u00e1 acordarse con Garante<\/em> para informarle a la gente que sus datos personales pueden recopilarse con el fin de entrenar algoritmos, que se ha publicado un aviso informativo detallado en el sitio web de la empresa y que se pondr\u00e1 a disposici\u00f3n una herramienta, tambi\u00e9n en el sitio web de la empresa, a trav\u00e9s de la cual todos los interesados podr\u00e1n solicitar y obtener la supresi\u00f3n de sus datos personales\u00bb. Adem\u00e1s, antes del 31 de mayo de 2023, deber\u00e1 presentarse a la Autoridad un plan para la adopci\u00f3n de herramientas de verificaci\u00f3n de edad que excluyan a los usuarios menores de 13 a\u00f1os y a los menores de edad del acceso al servicio en ausencia de manifestaci\u00f3n expresa de voluntad por parte de quienes ejerzan la patria potestad. El plan deber\u00e1 aplicarse antes del 30 de septiembre de 2023.<\/p>\n\n\n\n

\n \n \t\r\n\t\t\t\t\t\r\n\t\t\t\t\t\r\n\t\t\t\t\t\r\n\t\t\t\t\r\n\t<\/picture>\r\n \n
Representaci\u00f3n digitalizada de las figuras del friso de \u00e1ngeles que llevan el Arma Christi rodeando el rostro de Jes\u00fas en el cuadro de Sandro Boticelli Cristo como Var\u00f3n de Dolores<\/em>, expuesto en Sotheby’s, Nueva York, el 21 de enero de 2022 \u00a9 Anthony Behar\/Sipa USA<\/figcaption>\n <\/a>\n<\/figure>\n\n\n\n\n

Cr\u00edtica a la medida de emergencia de Garante<\/em><\/h2>\n\n\n\n

En la medida de emergencia, Garante orden\u00f3 que se identificaran los datos objeto de la restricci\u00f3n temporal y que se excluyeran del tratamiento. La empresa podr\u00eda haber seguido ofreciendo su servicio aislando los datos de los usuarios afectados y facilitando las aclaraciones solicitadas. Evidentemente, no lo hizo porque el modo de funcionamiento de ChatGPT, cuyo sistema se basa en grandes e indistintas cantidades de datos, no permite excluir los datos de las personas en Italia. Una de las cr\u00edticas formuladas hacia Garante se refiere, precisamente, a la imposibilidad de limitar el tratamiento, lo que condujo al inevitable y consiguiente bloqueo del servicio en Italia: esto demostr\u00f3 la insuficiencia de la medida adoptada, ya que exige una operaci\u00f3n que no puede llevarse a cabo. <\/p>\n\n\n\n

De hecho, la incapacidad de aislar los datos de los usuarios supuso el reconocimiento de una infracci\u00f3n del GDPR. Si OpenAI no puede responder a las solicitudes de la Autoridad, dado que el mecanismo implementado por la inteligencia artificial no permite excluir del sistema datos espec\u00edficos de los usuarios, esto significa que dichos datos no pueden ser aislados por la empresa, incluso si los usuarios individuales solicitan que se actualicen, corrijan o eliminen o si desean que se restrinja su uso (precisamente, lo que solicit\u00f3 Garante<\/em>). Se trata de derechos que el GDPR les confiere a los interesados (art\u00edculos 15 a 22) y quienes tratan sus datos deben poder permitirles ejercerlos.<\/p>\n\n\n\n

Si el mecanismo implementado por la inteligencia artificial no permite excluir del sistema datos espec\u00edficos de los usuarios, esto significa que dichos datos no pueden ser aislados por la empresa, incluso si los usuarios individuales solicitan que se actualicen, corrijan o eliminen o si desean que se restrinja su uso.<\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

\u00c9sta es la principal diferencia entre un motor de b\u00fasqueda, en el que el usuario es quien debe evaluar los resultados propuestos y decidir qu\u00e9 fuentes utilizar, y ChatGPT, que proporciona un resultado preempaquetado, cuya fuente se pierde en el proceso de entrenamiento: los datos proporcionados por cualquier motor de b\u00fasqueda siempre pueden aislarse, para corregirlos, modificarlos o eliminarlos a petici\u00f3n de los interesados, lo que, ciertamente, no es posible para ChatGPT. Adem\u00e1s, los datos procesados por OpenAI no son s\u00f3lo los utilizados para entrenar a la m\u00e1quina para dar respuestas, sino, tambi\u00e9n, los que el usuario genera y comparte formulando sus propias preguntas. Estas preguntas se formulan al chatbot de forma m\u00e1s elaborada y personalizada que la forma en la que se expresan para un motor de b\u00fasqueda, lo que tambi\u00e9n implica la posible revelaci\u00f3n de datos sensibles que contribuyen a apuntalar los activos informativos utilizados por el sistema.<\/p>\n\n\n\n

Otra cr\u00edtica formulada hacia Garante se refiere a la insuficiencia de la motivaci\u00f3n de su medida, sobre todo, porque no se detect\u00f3 emergencia ni gravedad real de la situaci\u00f3n. En esencia, se objeta que la facultad de la Autoridad para adoptar medidas cautelares coercitivas deba ser proporcional a la urgencia de bloquear situaciones de tratamiento il\u00edcito de datos que causen un perjuicio grave y real para los derechos de los interesados (como en el caso de la publicaci\u00f3n de fotos y videos relacionados con pornograf\u00eda vengativa, violencia contra menores o videos o audio publicados ilegalmente en l\u00ednea). En estos casos, la gravedad y la urgencia de bloquear el tratamiento ser\u00edan evidentes, lo que no ocurrir\u00eda con el requerimiento judicial contra ChatGPT.<\/p>\n\n\n\n

Los datos procesados por OpenAI no son s\u00f3lo los utilizados para entrenar a la m\u00e1quina para dar respuestas, sino, tambi\u00e9n, los que el usuario genera y comparte formulando sus propias preguntas. <\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

Estas cr\u00edticas van acompa\u00f1adas de observaciones sobre la inadecuaci\u00f3n del GDPR para los usos de inteligencia artificial, una inadecuaci\u00f3n que deber\u00eda haberle sugerido a Garante una aplicaci\u00f3n menos severa del Reglamento. Por esta raz\u00f3n, algunos se\u00f1alan que la autoridad italiana habr\u00eda hecho mejor en coordinarse con los dem\u00e1s Garantes europeos y con el Consejo Europeo de Protecci\u00f3n de Datos (CEPD) en el caso de ChatGPT. Con respecto a esto, cabe se\u00f1alar que, con OpenAI, el procedimiento coordinado previsto por el GDPR para la intervenci\u00f3n de las distintas autoridades europeas (art. 60 del GDPR) no pudo aplicarse, ya que la empresa no tiene su sede en Europa (s\u00f3lo un representante legal tiene su sede en Irlanda). En este caso, cada autoridad puede actuar de forma independiente. En otras palabras, la autoridad (la del pa\u00eds en el que tiene su sede la empresa, si radica en la Uni\u00f3n Europea, o la que detecta por primera vez una infracci\u00f3n) siempre puede actuar r\u00e1pidamente, a la espera de una investigaci\u00f3n m\u00e1s exhaustiva. En cambio, la coordinaci\u00f3n previa de 27 autoridades, cada una con sensibilidades y prioridades diferentes, llevar\u00eda tiempo.<\/p>\n\n\n\n

Estos puntos sobre la labor de Garante deben tomarse debidamente en cuenta. Sin embargo, hay que considerar un punto clave: nunca es f\u00e1cil conciliar el cambio tecnol\u00f3gico con las normas existentes, que, de todos modos, siempre van a la zaga del progreso, debido a su propia naturaleza y al calendario de los procesos legislativos. La Autoridad dispone de una cierta caja de herramientas con la que puede intervenir cuando detecta el riesgo de una violaci\u00f3n grave de los derechos de los usuarios, de modo que no contin\u00fae ning\u00fan tratamiento perjudicial y se protejan los derechos. En cuanto a la cr\u00edtica de las modalidades utilizadas, es decir, una medida adoptada a toda prisa, cabe se\u00f1alar que estas modalidades fueron una especie de adoqu\u00edn en el estanque, al hacer visible el problema del tratamiento de datos personales en el contexto de un sistema de inteligencia artificial, no s\u00f3lo a escala europea, sino mundial tambi\u00e9n.<\/p>\n\n\n\n

Algunos se\u00f1alan que la autoridad italiana habr\u00eda hecho mejor en coordinarse con los dem\u00e1s Garantes europeos y con el Consejo Europeo de Protecci\u00f3n de Datos (CEPD) en el caso de ChatGPT. <\/p>VITALBA AZZOLLINI<\/cite><\/blockquote><\/figure>\n\n\n\n

Intervenciones en ChatGPT<\/h2>\n\n\n\n

Italia no est\u00e1 sola. El 30 de marzo, el Center for AI and Digital Policy<\/em> (CAIDP) le pidi\u00f3 a la Comisi\u00f3n Federal de Comercio (FTC) de EEUU que investigara a OpenAI en relaci\u00f3n con ChatGPT <\/span>3<\/sup><\/a><\/span><\/span>; acus\u00f3 a la empresa de violar la Secci\u00f3n 5 de la Ley de la Comisi\u00f3n Federal de Comercio, que proh\u00edbe \u00abactos desleales o enga\u00f1osos relacionados con el comercio\u00bb. La denuncia afirma que el uso de inteligencia artificial debe ser \u00abtransparente, explicable, justo y emp\u00edricamente v\u00e1lido y promover la responsabilidad\u00bb, mientras que ChatGPT de OpenAI \u00abno cumple ninguno de estos requisitos\u00bb y es \u00abtendencioso, enga\u00f1oso y supone un riesgo para la privacidad y la seguridad p\u00fablica\u00bb. Posteriormente, el Bureau Europ\u00e9en des Unions de Consommateurs<\/em> (BEUC), organizaci\u00f3n conformada por 46 asociaciones europeas de consumidores de 32 pa\u00edses (Altroconsumo<\/em>, en el caso de Italia), les pidi\u00f3 a las autoridades de protecci\u00f3n de la intimidad que evaluaran el tratamiento de datos de ChatGPT <\/span>4<\/sup><\/a><\/span><\/span>.<\/p>\n\n\n\n

\n\t
\n\t\t