Nel maggio scorso, Seul ha ospitato un importante vertice internazionale sull’intelligenza artificiale, organizzato congiuntamente da Regno Unito e Corea del Sud. Un’iniziativa organizzata dopo il primo vertice internazionale sulla sicurezza dell’intelligenza artificiale, tenutosi sei mesi prima a Bletchley Park, un luogo famoso per essere stato il centro nevralgico delle operazioni di decrittazione durante la Seconda guerra mondiale.

  • L’intelligenza artificiale ha subito un’ascesa fulminea che non ha precedenti nella storia dell’umanità: secondo Bain & Co, il mercato globale dell’intelligenza artificiale avrà un valore di quasi 1.000 miliardi di dollari entro il 2027 1.
  • Al suo apice, raggiunto nell’aprile 2023 in seguito all’introduzione del GPT-4, l’agente conversazionale di OpenAI, ChatGPT, attirava 1,8 miliardi di visite al mese.
  • Tuttavia, il crescente utilizzo di vari servizi di intelligenza artificiale porta con sé numerosi rischi significativi (dai deepfakes al bioterrorismo) ai quali i governi vogliono trovare delle risposte.

È questo l’obiettivo dell’incontro che si sta svolgendo a San Francisco. Organizzato congiuntamente dal Dipartimento di Stato e dal Dipartimento del Commercio degli Stati Uniti, ha lo scopo di inaugurare il lancio di una Rete internazionale di istituti di sicurezza dell’IA 2. Questa iniziativa, che attualmente riunisce 35 Paesi (tra cui i 27 membri dell’Unione Europea), consiste in una rete di istituti il cui ruolo è quello di sviluppare una tabella di marcia per rendere più sicuro l’uso dell’IA.

La “sicurezza dell’intelligenza artificiale” è un campo di ricerca a sé stante, suddiviso in due aree principali: sicurezza tecnica e sicurezza dei processi 3.

  • L’aspetto tecnico mira a rendere i modelli di intelligenza artificiale più affidabili e conformi all’uso previsto dagli sviluppatori. A San Francisco, gli esperti della Rete discuteranno di come rendere le IA più robuste, definire meglio i loro obiettivi e controllare in maniera più efficace l’attività dei chatbot 4.
  • L’aspetto dei processi è più operativo e riguarda le politiche e le procedure relative all’uso dell’IA. Dovrebbe consentire agli sviluppatori di costruire e gestire meglio i modelli di IA garantendone un uso più sicuro.

A due mesi dal suo insediamento, l’incontro si svolge nel segno di Donald Trump e del suo arrivo alla Casa Bianca. Durante la campagna elettorale, Trump ha promesso la revoca dell’ordine esecutivo firmato da Biden nel novembre 2023 che impone regole alle aziende che sviluppano modelli di IA. La piattaforma del Partito Repubblicano adottata a luglio afferma che il presidente eletto, una volta alla Casa Bianca, abrogherà “il pericoloso ordine esecutivo di Joe Biden che impedisce l’innovazione dell’IA e impone idee sullo sviluppo di questa tecnologia provenienti dalla sinistra radicale” 5.

La posizione complessiva di Trump sull’intelligenza artificiale è meno chiara. La futura amministrazione considera la rete di istituti di IA importante, e potrebbe quindi optare per un mantenimento. D’altro canto, lo stretto alleato Elon Musk è più scettico sull’uso della tecnologia da parte di alcuni grandi attori, tra cui la società OpenAI, contro la quale ha intentato una causa ad agosto 6.