En 1964, se publicó la transcripción de la resonante conferencia de Martin Heidegger en la UNESCO, «El fin de la filosofía y la tarea del pensamiento»1. Para el filósofo alemán, la cibernética representa el fin de la filosofía. Ve en ella el advenimiento de un orden racional, controlable y mensurable, donde cualquier situación puede reducirse a un sistema que hay que optimiza, donde el individuo mismo se reduce a los datos que lo componen y no es más que un recurso explotable, donde sólo reina el pensamiento lógico, que él llama logística, con el único objetivo de optimizar estos sistemas. Desde esta perspectiva, resulta cada vez más complejo definir la tarea del pensamiento subjetivo. Aunque Heidegger se inscribe en una larga historia de pensamiento tecnocrítico, cuya genealogía no tiene el objetivo de ser trazada, esta conferencia tiene, hoy, una resonancia particular con el auge de las herramientas de «inteligencia artificial» (IA), en primer lugar, porque la noción de «IA» no se originó con OpenAI ni DeepMind, porque ya está profundamente arraigada en este movimiento cibernético de posguerra y, sobre todo, porque los avances tecnológicos actuales siguen haciendo sonar el implacable toque del fin de la actividad humana, de la filosofía y del pensamiento. 

Plantear la cuestión en estos términos equivale a decir que, más allá de la competencia tecnológica y geopolítica, el despliegue de la «IA» representa, sobre todo, la continuidad de un importante equilibrio ideológico de poder. Si la Unión Europea quiere encontrar su lugar en este contexto, debe tomarle toda la medida a esta cuestión, sin temer los llamados proféticos que sólo pretenden hacerla que se adapte a un sistema neocibernético. 

Los avances tecnológicos actuales siguen haciendo sonar el implacable toque del fin de la actividad humana, de la filosofía y del pensamiento. 

GILLES LECERF

La IA y el timonel en piloto automático 

La cibernética es una teoría de control y optimización de sistemas, desarrollada, en particular, por Warren McCulloch y Norbert Wiener en las décadas posteriores a la Segunda Guerra Mundial. El término procede del griego kubernetes, que significa timonel2, y se asocia con nociones de dirección y mando. El objetivo de la cibernética era desarrollar técnicas para optimizar un sistema controlando las acciones de los agentes que lo componen. Esto se consigue produciendo señales que desencadenan las acciones de los agentes. Estas señales se mejoran, a su vez, en un bucle de retroalimentación a medida que el sistema aprende de sus errores, por refuerzo3. La visión cibernética no busca, pues, la emancipación ni autonomía de los agentes, sino la optimización cuantitativa del sistema mediante la automatización de acciones eficaces. Aunque el campo de aplicación inicial de la cibernética, sobre todo, con Wiener, fue la defensa antiaérea, pronto, se trató de extender este enfoque a otros ámbitos de la sociedad. En su famoso libro, El uso humano de los seres humanos4, Wiener planteó las graves cuestiones políticas y morales vinculadas con esta propagación y señaló, en particular, la alienación de los individuos. En concreto, a Wiener, le preocupaba el advenimiento de un paternalismo benevolente y tecnocrático en el que el valor intrínseco de los individuos quedara relegado en beneficio del buen funcionamiento del sistema. También, le preocupaba la ceguera que las herramientas tecnológicas podrían provocar en las personas. Wiener consideraba que este conjunto de artificios podría desviar nuestra atención de cuestiones políticas y de poder de las que procede y que establece. 

«Su verdadero peligro, sin embargo, es que esas máquinas, aunque impotentes por sí mismas, podrían ser utilizadas por un ser humano o un grupo para aumentar su control sobre el resto de la humanidad».5

Antes de profundizar en estas cuestiones de poder, es esencial situar la cibernética en una genealogía moral más profunda, que es la del consecuencialismo y el utilitarismo. La cibernética se ocupa únicamente de los resultados de una acción en términos de si optimiza o no un sistema. Como todos los enfoques utilitaristas, la cibernética se basa en un análisis cuantitativo de este sistema (reducido a las señales que lo componen) y no de los agentes, cuya calidad se niega. Estos últimos son intercambiables y lo único que importa aquí es la consecuencia cuantitativa de una acción, cuyo impacto en el rendimiento global del sistema debe medirse. El enfoque utilitarista se basa en una serie de supuestos, que pueden resumirse así: el desarrollo tecnológico es neutro, científico y objetivo y nuestro principal objetivo es medir los resultados y fomentar los casos de uso positivos, al mismo tiempo que nos protegemos de los efectos negativos. Los postulados cibernético y utilitarista incluyen la creencia de que todo puede reducirse a datos, de que es posible aislar los efectos positivos de los negativos, de que, como mínimo, esto es optimizable, de que todo puede predecirse o considerarse un riesgo cuantitativo que hay que gestionar y de que, por lo tanto, no habría ninguna pérdida cualitativa irremediable.

La cibernética se ocupa únicamente de los resultados de una acción en términos de si optimiza o no un sistema.

GILLES LECERF

Este enfoque, que, hoy, nos parece evidente, no debe hacernos perder de vista las consecuencias cualitativas a largo plazo, que no pueden reducirse a datos. Si la única brújula moral que observamos indica, únicamente, lo que es cuantitativamente mensurable y optimizable, existe un gran peligro de ignorar por completo los elementos cualitativos y a largo plazo. En esta lógica, lo irreductible se vuelve impensable, queda olvidado. Mejor dicho, es concebible, pero nunca calculable: la rutina utilitarista nos condena a prever los problemas cualitativos, a esperarlos, pero a no poder tomarlos nunca en cuenta. Ésta es la esencia misma de la ambivalencia tecnológica6. Parafraseando a René Char, podríamos decir que lo esencial está constantemente amenazado por lo insignificante. Hoy, está claro que lo irreductible siempre está amenazado por lo mensurable.

Experimento de la bobina de Tesla. Chorros de electricidad salen disparados de una bobina en el laboratorio del físico e ingeniero eléctrico serbio-estadounidense Nikola Tesla (1856-1943) en Colorado Springs, Colorado, EE.UU., en 1898 (dominio público). Tesla dirigió este laboratorio entre 1899 y 1900. Aquí, la descarga de 12 millones de voltios de un oscilador eléctrico hizo que el nitrógeno y el oxígeno del aire ardieran en una llama de 20 metros de diámetro. La bobina que lleva el nombre de Tesla es un tipo de transformador resonante utilizado para producir corriente eléctrica alterna de alta tensión, baja corriente y alta frecuencia. Las investigaciones de Tesla han dado lugar a importantes avances en campos como la producción y transmisión de electricidad por corriente alterna. La unidad SI de densidad de flujo magnético lleva su nombre en su honor.

Las herramientas de la IA son las últimas encarnaciones de esta teoría cibernética, que lleva más de 70 años desarrollándose en este contexto moral utilitarista. Esto se manifiesta, en primer lugar, en la primacía de lo cuantitativo y del análisis de un sistema que se basa en datos para hacer predicciones potentes, pero, también, en el propio funcionamiento de estas herramientas de la «IA», cuyo modelo global, o, al menos, su abstracción, se basa en un paralelismo con el cerebro humano teorizado por pioneros de la cibernética como McCulloch7. En pocas palabras, estas herramientas contemporáneas son los últimos mandos del control cibernético, cuya génesis intelectual y teórica, desde el punto de vista de la informática y la electrónica, se remonta a la posguerra. Contrariamente a las afirmaciones un tanto precipitadas que consideran que la «IA», y, más en general, la tecnología, es neutra, habría que señalar, más bien, su carácter altamente moral: su desarrollo responde, sobre todo, al igual que el de la cibernética, a un enfoque utilitario y cuantitativo de la realidad. 

[Si encuentra nuestro trabajo útil y quiere que el GC siga siendo una publicación abierta, puede suscribirse aquí.]

La «IA», como concepto neocibernético, es el reflejo de un espíritu, en gran medida, preexistente que sólo consigue valorar lo que puede reducir a datos.

Las herramientas de la IA son las últimas encarnaciones de esta teoría cibernética, que lleva más de 70 años desarrollándose en este contexto moral utilitarista.

GILLES LECERF

La fábula del optimismo utilitarista

Reconocer una dirección moral para el desarrollo de la «IA» no es sólo un debate filosófico. Es una cuestión eminentemente política, en particular, porque esta orientación moral utilitarista de la cibernética beneficia a los productores de estas herramientas. Nos recuerda la historia que nos contamos a nosotros mismos, quizás, un poco ingenua, pero en la que, sin embargo, creemos plenamente: la fábula del optimismo utilitarista.

Esta fábula nos dice, primero, que, en un planteamiento consecuencialista, el productor de la herramienta no puede ser considerado responsable de la acción porque sólo cuenta el resultado, no la herramienta.

Así, se nos ha dicho que las plataformas que administran las redes sociales no pueden ser consideradas responsables de las consecuencias de su uso8; sólo los usuarios finales deben ser llevados ante la justicia por casos concretos y puntuales de uso. La visión cuantitativa también nos impide evaluar el impacto cualitativo de estas herramientas en la polarización de nuestras sociedades, su influencia en nuestras democracias, la forma en la que monopolizan la atención de la gente y la ansiedad que generan. Por otro lado, pone de relieve los éxitos de estas plataformas: las valoraciones bursátiles, los empleos creados, los usuarios conectados y la actividad comercial generada. Así pues, el neocibernético puede enorgullecerse de los éxitos cuantitativos que puede contabilizar, puede transmitir a los demás los fracasos de su herramienta y, sobre todo, puede permanecer ciego ante lo que no puede medir.

El neocibernético puede enorgullecerse de los éxitos cuantitativos que puede contabilizar, puede transmitir a los demás los fracasos de su herramienta y, sobre todo, puede permanecer ciego ante lo que no puede medir.

GILLES LECERF

Lo esencial amenazado constantemente por lo insignificante

Este desempoderamiento continúa y los neocibernéticos hacen, ahora, campaña para que se reconozca la responsabilidad exclusiva de los usuarios, sobre todo, a escala europea. Los recientes debates en torno a la (re)calificación del riesgo de los agentes conversacionales (como ChatGPT) demuestran9 el malestar de este enfoque puramente cuantitativo: ¿qué se puede hacer con lo irreductible?; ¿cómo cuantificar el riesgo de un elemento cuyo alcance no puede medirse en el tiempo ni en el espacio? 

El pensamiento utilitarista no puede captar un fenómeno que representa, para éste, una forma moral verdaderamente indeterminada. Lo que no puede medir, no puede valorarlo y tiende a aplastarlo. En un momento en el que los estadounidenses pretenden revisar la falta de responsabilidad de las empresas propietarias de redes sociales10, parecería sensato no eludir esta cuestión tratando, simplemente, de adaptarse a este marco moral restrictivo. Un enfoque moral no utilitarista buscaría una mayor precaución para lo que, por defecto, no se puede contar aquí. Para la Unión Europea, se trata, simplemente, de su capacidad de ser verdaderamente autónoma, es decir, de su capacidad de elaborar sus propias leyes y no de seguir preceptos morales impuestos desde el exterior. En un momento en el que las plataformas están haciendo todo lo posible para protegerse del próximo Cambridge Analytica, presionando a los reguladores, sería prudente hacernos esta pregunta: ¿en qué marco moral restrictivo era aceptable monetizar el tiempo y la atención de los usuarios sin comprometer la responsabilidad de las personas ni las plataformas que diseñaron estas herramientas? Y, además, ¿deseamos mantener esta perspectiva moral para el futuro de la tecnología y, en particular, para la regulación de estos nuevos comandos cibernéticos?

En un momento en el que los estadounidenses pretenden revisar la falta de responsabilidad de las empresas propietarias de redes sociales, parecería sensato no eludir esta cuestión tratando, simplemente, de adaptarse a este marco moral restrictivo.

GILLES LECERF

El neocibernético utilitarista sigue su camino, capta sólo lo que reduce y permanece ciego ante lo irreductible que destruye. La fábula continúa y nos insta a mantenernos optimistas diciéndonos que dirigirnos a nosotros mismos es la manera en la que podremos resolver nuestros problemas y los que genera el sistema técnico y que, aunque a veces esté consciente de romper algunas cosas en su constante aceleración, no debemos preocuparnos demasiado porque el viaje no ha hecho más que empezar y habrá una solución11 por el camino.

 Una ideología optimista del progreso

Adoptar un punto de vista utilitarista significa defender el enfoque optimista según el cual todo es manejable (incluidos los puntos negativos) en un vasto sistema en el que todo se convierte en un problema que hay que resolver y optimizar. Este enfoque es incapaz de considerar una pérdida irreductible, incalculable y, tal vez, irremediable. 

La fábrica Wardenclyffe de Tesla, en Long Island, a punto de terminarse. Las obras de la cúpula de 25 metros de diámetro aún no han comenzado. Obsérvese lo que parece ser un vagón de carbón aparcado junto al edificio. Desde esta instalación, Tesla esperaba demostrar la transmisión inalámbrica de energía eléctrica a Francia. Hacia 1902. Dominio público.

Optimismo significa creer que todo puede regularse, del alpha al omega, fijando los parámetros del sistema. Compartir este optimismo es, fundamentalmente, dejar las riendas en manos de los promotores de estas tecnologías, que no dejan de estar irremediablemente por delante de una posible regulación. Los neocibernetistas nos seducen al creer que tienen en sus manos las llaves de nuestro destino colectivo. El propio Wiener fue un gran crítico del optimismo tecnológico, instaba a sus propios conciudadanos a salir del «espíritu navideño» y le advertía al resto del mundo sobre la incapacidad de Estados Unidos para demostrar el «saber qué», una facultad, en muchos sentidos, más sutil que el «saber hacer»12. Más de 70 años después, los Grandes Timones confiesan esta misma impotencia optimista en un eco lejano, pero vívido, del padre cibernético y nos ponen de nuevo en alerta: «Por el momento, tenemos un nuevo y espectacular logro que glorifica la mente humana en forma de IA. Aún no le hemos encontrado una finalidad. Al convertirnos en Homo Technicus, es imperativo que definamos el propósito de nuestra especie. Nos corresponde a nosotros dar las verdaderas respuestas»13.

Los neocibernetistas nos seducen al creer que tienen en sus manos las llaves de nuestro destino colectivo.

GILLES LECERF

Adaptarse y ceder 

Este optimismo neocibernético goza de cierta aura, la creencia de que vamos a ser capaces de resolver muchos de nuestros problemas mediante el despliegue tecnológico, a pesar del peligro cualitativo que ello implica. La denominación contemporánea de IA de propósito general refuerza este optimismo y su aspecto ineludible: estas herramientas de IA, desde una perspectiva utilitarista y optimista, servirían para todo, representarían el medio ideal y omnipotente. 

Una vez más, se trata de una importante decisión política y moral porque plantea dos problemas fundamentales: un medio omnipotente es un medio para el que ya no deliberamos, que, por definición, se convierte en un fin en sí mismo, se vuelve autotélico y se autojustifica; el segundo problema es que todo lo que tenemos que hacer a cambio es adaptarnos a esta herramienta. Una vez más, resulta esclarecedor comprobar que esta retórica de la adaptación humana a una tecnología que promete traernos el progreso no es nueva. «La ciencia encuentra; la industria aplica; el hombre se conforma»: éste era el lema de la Exposición Universal de Chicago de 1933, que celebraba «un siglo de progreso», y, hoy, no ha dejado de ser una ilustración llamativa de este zeitgeist del que nos cuesta desprendernos. La fusión del progreso cuantitativo con el progreso humano beneficia, por supuesto, a los promotores del sistema, que no pueden sino invitarnos a adaptarnos y a aceptar este destino tecnológico, que nos presentan como inevitable y positivo; tal era el caso de Larry Page14, que, en una rara entrevista, atronó: «No puedes desear que estas cosas desaparezcan; van a suceder. […] Vas a tener capacidades extraordinarias en la economía. No hay forma de evitarlo (there is no way around that). No se puede desear que desaparezca (you can’t wish it away).»15

Un medio omnipotente es un medio para el que ya no deliberamos, que, por definición, se convierte en un fin en sí mismo, se vuelve autotélico y se autojustifica.

GILLES LECERF

Inevitable viene del latín eluctor, que significa «aquello de lo que se puede escapar luchando». Pregonar lo ineluctable es, simplemente, contar con la capitulación intelectual y política de la otra parte. Es una invitación muy cibernética a dejar de pensar. 

La «tarea del pensamiento» en el movimiento tecnológico

Frente a la cibernética, Heidegger pretendía movilizarnos para redefinir la propia «tarea del pensamiento». Nos corresponde a nosotros retomar esta cuestión y darle vida hoy. 

«Tal vez haya una forma de pensar más sobria que la irrefrenable oleada de racionalización y el arrebato de la cibernética. Más bien, este arrebato es el que bien podría ser el colmo de la irracionalidad».16

Esta pasión se convierte, con frecuencia, en mero entretenimiento, en el sentido más estricto de la palabra: nos pone en movimiento, nos distrae de nuestro camino inicial, nos impide seguir nuestros propios objetivos y ser autónomos y nos mantiene en un nivel de reflexión no deliberada, puramente automática. De Pascal a Ellul, llegamos a comprender hasta qué punto el entretenimiento es el principal obstáculo para el pensamiento. En particular, el pensamiento crítico, constructivo y virtuoso sobre la tecnología. Aunque nos preocupe ver a algunos de los mismos líderes cibernéticos actuales entretenidos por su propia carrera tecnológica17, parece que el punto del problema es, sobre todo, la fascinación popular que produce este frenesí tecnológico. Esta fascinación es la principal baza de los promotores de este movimiento: es el factor esencial de nuestro entretenimiento y, luego, de nuestra apatía colectiva y política, de nuestro comportamiento infantil frente a la tecnología, que, muchas veces, vemos como un inmenso parque de atracciones tecnológico, donde cada atracción cada vez más sofisticada, cada vez más fascinante nos reconforta, mostrándonos que siempre podemos hacer las cosas con mayor eficacia, rapidez y mejor. El vértigo aún es la forma más cómoda de mantenernos en movimiento.

[Si encuentra nuestro trabajo útil y quiere que el GC siga siendo una publicación abierta, puede suscribirse aquí.]

Para salir de este letargo intelectual, tenemos que cuestionar lo que ya se da por sentado, la propia noción de «IA», en particular, su uso vago y restrictivo de la inteligencia. 

Tenemos que cuestionar lo que ya se da por sentado, la propia noción de «IA», en particular, su uso vago y restrictivo de la inteligencia.

GILLES LECERF

«Me gustaría decir unas palabras a los que desprecian la inteligencia»18

La vaguedad que rodea la noción de «inteligencia artificial» (un concepto que, rara vez o con demasiada frecuencia, se define reutilizando absurdamente la propia palabra «inteligencia»19) está, sin embargo, en el centro mismo de la lucha ideológica por el poder que nos interesa aquí. Una manera de pensar en esta cuestión de la inteligencia procede de la historia de la filosofía, donde el concepto de inteligencia no siempre ha sido tan vago. Los antiguos pensadores utilizaban diferentes términos para referirse a diferentes facultades que se relacionaban con diferentes objetos.

En particular, la tipología entre logos, dianoia y noûs parece muy esclarecedora. El logos, analítico, es una inteligencia que nos permite darle sentido a la realidad, relacionar datos, realizar cálculos sobre lo que nos da la experiencia. Es la inteligencia de la cibernética, capaz de medir, calcular y optimizar. Por el contrario, la dianoia, a veces, traducida como pensamiento, abarca un campo más creativo e introspectivo. Es una facultad de conceptualización. Por último, la inteligencia moral es noûs, término que, a veces, se utiliza junto con nomos, la ley. Esta ley sería el fruto de una facultad particular (el noûs) que nos permite emitir juicios morales, algo que la máquina sería incapaz de hacer (o, más bien, emitir juicios morales que no se basen en el simple cálculo utilitarista). Tomar esta diferenciación como punto de partida permitiría enmarcar la noción de inteligencia artificial reduciéndola a un simple logos artificial. 

Nikola Tesla sentado en su laboratorio de Colorado Springs con su «Magnifying Transmitter». Dominio público

Definir esta tendencia neocibernética es, fundamentalmente, un acto político: significa reconocer que la conceptualización de una tecnología, en este caso, la «IA», está íntimamente ligada con un marco moral y con un equilibrio de poder. Conlleva una visión utilitarista que beneficia a sus promotores y que no nos permite reflexionar ampliamente sobre las cuestiones de nuestro tiempo. Poner de relieve que estas herramientas no son, en realidad, más que logos artificiales nos permite abrir nuestra reflexión a otros ámbitos, en particular, áreas morales, para confinar estas herramientas al campo de lo calculable centrándonos, al mismo tiempo, en otros aspectos más cualitativos. Es lo contrario de lo que ocurre hoy en día, donde el aplastamiento del debate bajo el peso de una «IA» indefinida e ilimitada nos restringe a escuchar la fábula neocibernética del utilitarista optimista.

Definir esta tendencia neocibernética es, fundamentalmente, un acto político: significa reconocer que la conceptualización de una tecnología, en este caso, la «IA», está íntimamente ligada con un marco moral y con un equilibrio de poder.

GILLES LECERF

En busca de lo «abierto»

Heidegger definió la técnica como un «irrazonamiento»20, como un desafío, una provocación al individuo, que se ve convocado a participar en el sistema técnico y a entregarse completamente como recurso explotable. Si bien, para él, la cibernética representaba la culminación del «peligro» técnico, consideraba que le correspondía al individuo tratar de reconectarse con su subjetividad, dejar de ser «nada más que un siervo al que se le dan órdenes»21. En un momento en el que los capitanes se convierten, voluntariamente, en piratas decididos a abordar todo lo que puedan reducir, en un afán sin límites por conquistar esta nueva frontera tecnológica, este mandato debería movilizarnos. Su propuesta de definir el pensamiento como «apertura»22 debería ayudarnos a desprendernos de este sistema cibernético para tomarlo como objeto propio empezando por definir sus límites. Una sugerencia en este sentido es definir más claramente este logos artificial como una herramienta controlada, un medio limitado y deliberado, para volver a situarlo en el lugar que le corresponde. Tal definición sería el primer paso hacia un desarrollo tecnológico que se emancipe del optimismo utilitarista, que valore lo cualitativo y que deje de aplastarlo bajo el análisis cuantitativo, que tome precauciones con lo irreductible y que lo proteja de lo irremediable, sin permanecer impotente ante la indeterminación y la complejidad de la realidad, que no se limite a darles órdenes a siervos automáticos con la señal adecuada, sino que aglutine a una comunidad de personas autónomas a través del pensamiento. 

Buscar esta apertura significa querer considerar las dimensiones de la vida de nuestras sociedades y de nuestros individuos, que no pueden reducirse a datos. Significa negarse a ser totalmente aplastados por los datos limitando el alcance de las herramientas tecnológicas, que nunca podrán estar libres de toda deliberación. Tener tal ambición es, fundamentalmente, querer redefinir el marco moral en el que nos movemos defendiendo la convicción de que sólo es inevitable lo que nos negamos a ver. Es hora de volver a pensar. 

Notas al pie
  1. Véase Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. Tel, no 172, 2000 (pp. 281-322)
  2. El timonel es la persona que sostiene el timón en un barco. Es interesante señalar que no es necesariamente el capitán.
  3. En este caso, la cibernética toma prestados los trabajos de I. Pavlov sobre el refuerzo. Los trabajos de Pavlov sobre el refuerzo, un término que se sigue utilizando hoy en día en informática, sobre todo para referirse al aprendizaje por refuerzo.
  4. Wiener Norbert, Cybernétique et société : l’usage humain des êtres humains, Paris, Éd. du Seuil, coll. « Points », n°S216, 2014
  5. Ibid, p.208
  6. Véase por ejemplo Ellul Jacques, Le Bluff technologique, Paris, Pluriel, 2014 (pp.89-163).
  7. Véase en particular McCulloch Warren S., « Through the Den of the Metaphysician », The British Journal for the Philosophy of Science, vol. 5, no 17, 1954, p. 18-31.
  8. La sección 230 de la Comisión Federal de Comercio protege a las plataformas de este tipo de demandas al considerarlas meros anfitriones de contenidos y no editores. Al mismo tiempo, la legislación estadounidense trata estas redes como espacios privados propiedad de las plataformas, que pueden actuar para moderar y censurar contenidos (tanto los ilegales como los que no cumplen sus condiciones de uso).
  9. En la tipología de riesgos de la Unión, estas herramientas se consideraban inicialmente de bajo riesgo. La aparición de herramientas de alto rendimiento como OpenAI ha llevado a la Unión a revisar la cuestión.
  10. Véase en particular el caso Gonzales contra Google, cuyo resultado podría poner en tela de juicio la irresponsabilidad de las plataformas y la sección 230 de la FTC.
  11. «Go fast & break things» y «the journey is 1% finished» son lemas pasados y presentes de la empresa Meta.
  12. «La prensa lleva ensalzando el ‘saber hacer’ estadounidense desde que tuvimos la desgracia de descubrir la bomba atómica. Pero hay una cualidad más importante que ésa, y que es mucho más rara en Estados Unidos. Es el ‘saber qué’ mediante el cual determinamos no sólo los medios para alcanzar nuestros objetivos, sino también cuáles deben ser nuestros objetivos» en Wiener Norbert, Cibernética y sociedad: el uso humano de los seres humanos, 2014 (p.208)
  13. Daniel Huttenlocher, Henry Kissinger and Eric Schmidt, « ChatGPT Heralds an Intellectual Revolution », Wall Street Journal, 24 de febrero de 2023.
  14. Larry Page es el cofundador de Google, junto con Sergei Brin. Aunque ambos han dejado sus funciones operativas en Alphabet, que ahora dirige Sundar Pichai, siguen formando parte del consejo de administración de la empresa, donde tienen un peso decisivo gracias a unas acciones especiales con derecho de voto preferente.
  15. « FT interview with Google co-founder and CEO Larry Page », Financial Times, 31 de octubre de 2014.
  16. Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. Tel, nᵒ 172, 2000. p.304.
  17. En concreto, podríamos hablar de los comentarios del CEO de Microsoft, S. Nadella, sobre su orgullo «por haber hecho bailar al gorila de Google» al ser el primero en desvelar su herramienta conversacional, en este caso ChatGPT. Véase Nillay Patel, «Microsoft thinks AI can beat Google at search – CEO Satya Nadella explains why», The Verge, 8 de febrero de 2023.
  18. Alusión a la crítica de Nietzsche a los últimos hombres en «Así habló Zaratustra».
  19. Es el caso de la administración estadounidense a través del National Institute of Standards & Technology – NIST – véase la página asociada en su sitio web.
  20. Véase « la question de la technique moderne » dans Heidegger Martin, Essais et conférences, Paris, Gallimard, coll. « Collection Tel », no 52, 2001 ; En particular p.27  : « Arraisonnement (Gestell) : Ainsi appelons-nous le rassemblant de cette interpellation qui requiert l’homme, c’est-à-dire qui le provoque à dévoiler le réel, comme fonds dans le mode du commettre. Ainsi appelons nous le mode de dévoilement qui régit l’essence de la technique moderne. »
  21. Un ejemplo es el término alemán Bestand, a menudo traducido como «fondos».
  22. Véase Heidegger Martin, Questions III et IV, Paris, Gallimard, coll. « Collection Tel », no 172, 2000, pp.298-301