La tempesta che nelle ultime settimane ha investito il modello di intelligenza artificiale della società americana OpenAI ci induce a tornare sul tema, già affrontato nella sezione Scienze della nostra Prima Pagina in un articolo sulla ChatGPT.
La tempesta è infatti arrivata a pochi giorni da quel contributo che già evidenziava quanto controverso e discusso, e tuttavia quanto già diffuso, fosse l’uso anche in Italia della chat basata sugli algoritmi.
L’attualità del tema si fa ora più stringente, dopo l’intervento del nostro Garante della privacy che dispone la sospensione a tempo indeterminato del trattamento dei dati degli utenti italiani da parte di OpenAI e la conseguente decisione della società americana di chiudere nel nostro paese ChatGPT4. Il provvedimento, emanato lo scorso 1° aprile, in sintesi, contesta a OpenAI di aver raccolto i dati degli utenti della chat per addestrare i propri algoritmi senza informarne gli interessati; di generare risposte agli utenti talvolta scorrette e fornire informazioni distorte; di non verificare l’età minima di 14 anni di chi accede al sistema, come previsto dalla normativa. E così l’Italia è, per ora, l’unico Paese europeo e uno dei pochissimi al mondo insieme a Russia, Cina e Corea del Nord, Venezuela e Iran dove l’accesso al più popolare ed efficiente sistema di IA ad oggi esistente è impedito. Si è già tenuto un primo confronto fra la nostra Authority e i legali di OpenAi, ma un’intesa per riattivare ChatGPT4 ancora non c’è.
Il provvedimento del Garante italiano è probabilmente fondato, perché nonostante l’Europa disponga da circa cinque anni di una normativa molto stringente in materia di protezione dei dati personali (la cosiddetta normativa GDPR), soprattutto aziende nuove e non presenti sul territorio europeo mancano tuttora di una solida cultura della privacy e non forniscono le necessarie garanzie di rispetto di questi diritti fondamentali per i cittadini.
Giudicare se si tratti di un provvedimento efficace e opportuno è tuttavia più difficile, innanzitutto perché il blocco all’uso di ChatGPT è facilmente aggirabile tramite un qualsiasi account estero. Inoltre, secondo numerosi esperti, le obiezioni e i chiarimenti richiesti sembrano essere piuttosto generici e di difficile verifica (come si pensa di accertare l’esattezza delle informazioni fornite dal sistema o l’effettiva età del fruitore?). Il risultato dell’intervento dell’Authority potrebbe dunque essere solo quello di penalizzare le aziende italiane che lavorano in questo campo. E diffondere, o continuare a diffondere, l’immagine di un’Italia strapaese che ostacola qualsiasi innovazione tecnologica: una lista esaustiva in proposito sarebbe troppo lunga, ma va dall’uso degli Ogm all’energia nucleare, dalla genetica alle antenne radiomobili, dalla carne cosiddetta sintetica, ma che tale non sarà, ai termovalorizzatori e così via.
Tuttavia, di fronte a un quadro tanto complesso e ad una materia dai risvolti non ancora prevedibili ma già di grande impatto sulle nostre vite, è difficile fissare un punto di vista fermo. Molti sono gli spunti di riflessione: è giusto stabilire limiti all’evoluzione della tecno-scienza? E, in ogni caso, è davvero efficace imporre stop a processi in così rapido mutamento?
Già il 30 marzo scorso, con una lettera aperta, oltre mille personaggi influenti del mondo dell’innovazione negli Stati Uniti, tra cui imprenditori di successo come Steve Wozniak e Elon Musk, professori universitari specialisti di intelligenza artificiale come Yoshua Bengio o Gary Marcus, filosofi e scrittori che da decenni studiano l’IA e i suoi effetti come Yuval Harari o Aza Raskin, hanno chiesto ai laboratori di tutto il mondo una sospensione di almeno sei mesi a tutti gli sviluppi in corso su sistemi di intelligenza artificiale, per consentire una riflessione collettiva e procedere quindi ad una regolamentazione del settore valida globalmente. La moratoria si rende urgente, sostengono i firmatari, perché i sistemi di intelligenza artificiale, in mancanza di regole, rischiano di “comportare gravi rischi per la società e l’umanità, […] in quanto potrebbero portare alla perdita di controllo della nostra civiltà”. Un appello, a dire il vero, giudicato da molti non del tutto disinteressato perché tra i promotori compaiono quasi tutti i competitors di OpenAI.
È prevedibile che anche l’allarme dei mille esperti non abbia un seguito: uno stop sarà impossibile e forse sarebbe anche dannoso perché – si legge su diversi studi specializzati – non consentirebbe di correggere gli errori già oggi rilevati nel sistema. Tuttavia è evidente che anche nella comunità scientifica internazionale si sta formando una forte consapevolezza della necessità di regolamentare uno strumento straordinario che però mette in campo rischi per i diritti individuali, sociali e del lavoro e apre scenari di manipolazione delle opinioni e delle scelte individuali fra le quali, inevitabilmente, quelle che riguardano l’orientamento politico.
L’urgenza di fissare principi solidi e condivisi su cui continuare a costruire è evidente. In primo luogo indispensabile – ammettono anche le società del settore – è l’obbligo per tutte le aziende di rendere i propri sistemi “aperti”, per consentire a chiunque di conoscere i meccanismi in base ai quali essi funzionano. Solo così si potrà forse evitare il pericolo di trattamenti impropri o criminali di dati sensibili di cui abbiamo avuto esempi in passato, si pensi alla vicenda Cambridge Analytica.
Con la spinta delle tecnologie avanzate il mondo sta cambiando volto, siamo a un passaggio di era, addirittura un mutamento antropologico, sostengono alcuni. È un processo che spaventa e d’altronde da sempre le rivoluzioni scientifiche fanno paura. Ma il progresso non può essere fermato, va accompagnato e governato. L’evoluzione della tecno-scienza non è una rincorsa, tantomeno una sfida tra progresso e diritti. Bisogna edificare basi condivise a livello globale su cui impiantare regole per tutelare i cittadini e garantire la centralità del ruolo umano, creando al contempo un contesto favorevole allo sviluppo delle nuove tecnologie. Su questa linea, non si può trascurare l’importanza della formazione. L’innovazione deve sempre viaggiare di pari passo con la competenza e dunque i programmi scolastici e accademici dovrebbero essere configurati nell’ottica di un uso consapevole delle implicazioni etiche e giuridiche che riguardano l’intelligenza artificiale.
In conclusione, anche in Italia, abbiamo menti e istituzioni in grado di indirizzare svolte epocali come quella generata dall’avvento dell’intelligenza artificiale che, se opportunamente utilizzata, invece di spaventarci, potrà essere uno strumento per affrontare un futuro che per tanti aspetti ci fa paura.
S.D.B.