Intelligenza+artificiale%2C+il+leader+del+mondo+riuniti+all%E2%80%99AI+Safety+Summit%3A+cosa+%C3%A8+stato+deciso
rationalinternationalnet
/2023/11/03/intelligenza-artificiale-il-leader-del-mondo-riuniti-allai-safety-summit-cosa-e-stato-deciso/amp/
Esteri

Intelligenza artificiale, il leader del mondo riuniti all’AI Safety Summit: cosa è stato deciso

Published by
Federica Giovannetti

I grandi della terra di impegnano per un sviluppo sicuro della tecnologia. Al vertice globale alle porte di Londra presente anche la premier Giorgia Meloni: “Grande opportunità ma anche enormi rischi”

 

Dall’AI Safety Summit arriva l‘impegno dei grandi della terra per un sviluppo sicuro dell’intelligenza artificiale. Il vertice globale andato in scena per due giorni alle porte di Londra si è concluso con la firma da parte di 28 Paesi – inclusi Stati Uniti e Cina oltre all’Ue – della prima dichiarazione internazionale al mondo sull’intelligenza artificiale di frontiera, quella basata sui modelli più avanzati e potenti, come è il caso di ChatGPt di OpenAi.

A Bletchley – la cittadina dove sono stati decifrati i messaggi in codice utilizzati dalla Germania nazista con la macchina Enigma – hanno partecipato non solo leader politici, ma anche i protagonisti del mondo della tecnologia, come il patron di X Elon Musk, studiosi, rappresentanti delle aziende di settore e della società civile.

I risultati del summit

La Dichiarazione di Bletchley mette in guardia rispetto alla velocità con cui l’intelligenza artificiale sta avanzando e dalla quale potrebbero derivare “danni gravi, persino catastrofici” e afferma che l’AI deve essere “incentrata sull’uomo, affidabile e responsabile”. Il documento chiede una cooperazione globale per definire e affrontare i rischi dell’intelligenza artificiale, che includono potenziali violazioni della privacy, i cyber attacchi e la cancellazione di posti di lavoro.

Per alcuni osservatori d’altra parte l’evento tenuto a battesimo dal primo ministro britannico Rishi Sunak è parso più un’operazione di marketing per vendere ai colossi tecnologici il Regno Unito come un terreno fertile per gli investimenti del settore. È l’opinione per esempio di Marietje Schaake, la direttrice del Cyber Policy Center all’università di Stanford che è intervenuta come moderatrice al AI Safety Summit: “Sembra un po’ una trovata mediatica”, ha detto al New York Times.

Altri vertici sulla sicurezza dell’IA sono previsti in Corea del Sud e in Francia nel corso del prossimo anno. Sunak ha anche annunciato la nomina del famoso accademico esperto di Intelligenza artificiale Yoshua Bengio alla guida di un team che si occuperà di produrre un rapporto sulla sicurezza e sugli scenari dell’IA.

Meloni: “Grande opportunità ma anche enormi rischi”

La presidente del Consiglio Giorgia Meloni, intervenendo alla prima sessione, ha evidenziato le opportunità ma anche i rischi che si celano dietro alla nuova tecnologia .”È indubitabile che le applicazioni” dell’intelligenza artificiale “possono portare grande opportunità in molti campi ma anche enormi rischi. Meccanismi decisionali opachi, discriminazioni, intrusioni nella nostra vita privata, fino ad arrivare ad atti criminali perché” i modelli linguistici di apprendimento su cui si basa l’IA “potrebbero essere utilizzati per produrre armi, danni biologici a bassa tecnologia, attacchi informatici, facilitare la personalizzazione del phishing”, una tecnica fraudolenta per il furto di identità.

Serve dunque un “quadro normativo adeguato se vogliamo sfruttare le opportunità che l’IA può offrirci”, ha detto la premier. “Innovazione e regolamentazione devono andare di pari passo” perché “con lo sviluppo di un’intelligenza artificiale senza regole si rischia che sempre più persone non siano necessarie nel mercato del lavoro, con conseguenze pesantissime sull’equa distribuzione della ricchezza”. Sono necessari inoltre “meccanismi di governance multilaterali per garantire barriere etiche” all’AI. “Dobbiamo sviluppare l’applicazione pratica del concetto di ‘Algor-etica’, cioè etica per gli algoritmi”.

Meloni ha poi annunciato che durante il G7 a presidenza italiana, in programma nel primo semestre del 2017, si terrà “a Roma una Conferenza internazionale su Intelligenza artificiale e lavoro, a cui vorremmo partecipassero studiosi, manager e esperti di tutto il mondo per discutere metodi, iniziative e linee guida per garantire che l’IA aiuti e non sostituisca chi lavora, migliorandone invece condizioni e prospettive”.

Giorgia Meloni e Rishi Sunak | Foto X @Palazzo_Chigi

Musk: “L’IA metterà fine al lavoro umano”

Delle conseguenze dell’Intelligenza artificiale sul lavoro ha parlato anche Elon Musk, che da tempo ha lanciato l’allarme sui rischi dell’IA. Secondo il proprietario di X, “arriveremo a un punto in cui il lavoro umano non sarà più necessario” perché “l’intelligenza artificiale sarà in grado di fare qualunque cosa”. Elon Musk ha definito il vertice “tempestivo”, convinto che l’IA rappresenti il rischio “più urgente” da affrontare considerata “la velocità con cui avanza”.

Il magnate ha anche sottolineato l’adesione di Pechino, che ha partecipato alla prima giornata del vertice, ha firmato la dichiarazione di intenti, ma non è stata invitata nel “gruppo ristretto” che ha continuato i lavori nella seconda giornata, riservato ai Paesi con “valori condivisi”. “Se anche la Cina è allineata negli aspetti di sicurezza dell’intelligenza artificiale, è positivo”, ha detto Musk.

Onu: “A rischio democrazia e diritti umani”

Il segretario generale delle Nazioni Unite Antonio Guterres dal canto suo ha chiesto una “risposta globale e condivisa” contro le “possibili conseguenze negative a lungo termine”, come la perdita di posti di lavoro ma anche delle diversità culturali, per effetto degli “algoritmi che perpetuano gli stereotipi”. Il numero uno dell’Onu ha messo in guardia anche rispetto al pericolo che vengano sviluppate armi potenziate dall’IA. Preoccupazione anche per le minacce poste alla democrazia e ai diritti umani, dalla manipolazione dell’informazione alla sorveglianza di massa.

Guterres ha poi avvertito che la concentrazione delle tecnologie nelle mani di poche aziende in pochi Paesi finirà per “esacerbare le enormi disuguaglianze che già affliggono il nostro mondo”. Per questo ha invocato una “strategia globale, basata sul multilateralismo e sulla partecipazione di tutte le parti interessate”.

Le norme sull’IA: dall’AI Act dell’Ue al codice del G7

Lo scorso giugno è arrivato il primo via libera da parte del Parlamento europeo sul cosiddetto Artificial Intelligence Act“, il regolamento con cui l’Unione europea intende monitorare i progetti di intelligenza artificiale nel Vecchio Continente. Bruxelles si è posta all’avanguardia sul fronte della disciplina dell’IA. Si tratta infatti del primo regolamento al mondo dedicato all’intelligenza artificiale.

Dopo l’Ue, anche il G7 ha deciso di mettere dei paletti allo sviluppo dell’IA. Lo scorso 30 ottobre a Hiroshima, il gruppo composto da Canada, Francia, Germania, Italia, Giappone, Gran Bretagna e Stati Uniti ha raggiunto un accordo su un “codice di condotta non vincolante per gli sviluppatori di sistemi di IA più avanzati. Il codice volontario promuoverà inoltre una governance responsabile dell’IA a livello globale.

Il documento è stato compilato sulla base di linee guida internazionali concordate dai leader. Si tratta di undici princìpi che forniscono indicazioni alle aziende che sviluppano, distribuiscono e utilizzano sistemi avanzati di IA, come  l’intelligenza artificiale generativa, al fine di promuovere la sicurezza e l’affidabilità della tecnologia. L’intesa arriva al termine dei lavori partiti nel maggio scorso con il forum ministeriale soprannominato “Hiroshima AI process”.

Basati sui risultati di un’indagine condotta tra le parti interessate, prevedono fra le altre cose l’impegno a ridurre i rischi e gli abusi e a identificare le vulnerabilità, rispettare le norme sulla privacy, incoraggiare una condivisione responsabile delle informazioni, segnalare gli incidenti e investire nella sicurezza informatica, rispettare l’ambiente, nonché un sistema di etichettatura per consentire agli utenti di identificare i contenuti generati dall’IA.

Soddisfatta la presidente della Commissione europea Ursula von der Leyen, tra i firmatari della dichiarazione di Hiroshima. “Invito gli sviluppatori di IA a firmare e attuare il codice di condotta il prima possibile”, ha detto la numero uno dell’esecutivo comunitario.

Federica Giovannetti

Recent Posts

Alice, la madre chiede i resti

Il caso di Alice Neri: una vita giovanissima, spezzata troppo presto. La madre chiede che…

10 mesi ago

Israele continua a sfidare il mondo

Israele è sempre più determinato nella sua lotta contro Hamas e non ha paura di…

10 mesi ago

Desirée uccisa, lui è quasi libero

Desirée Piovanelli, dopo 22 anni si parla ancora del suo caso. Uno dei suoi assassini…

10 mesi ago

Israele a caccia di colpevoli

Le Nazioni Unite si operano per stabilire se le accuse di Israele ai danni dell'Unrwa…

10 mesi ago

Kiev ha gli incubi: la Wagner è tornata in Ucraina

L'esercito di mercenari al soldo della Russia sarebbero pronti a tornare a combattere in territorio…

10 mesi ago

Fra 7 giorni, l’Iran avrà l’atomica

Arriva il rapporto terrificante da parte degli esperti. L'Iran è ad un passo dal raggiungimento…

10 mesi ago