Stephen Hawking (1942 – 2018) non aveva dubbi e già nel 2014 mise in guardia riguardo ai pericoli dell’intelligenza artificiale, considerandola una minaccia per la sopravvivenza dell’umanità. Conviene fidarsi di uno fra i più autorevoli e conosciuti fisici teorici al mondo, noto soprattutto per i suoi studi su buchi neri, cosmologia quantistica e origine dell’universo. Sì, l’intelligenza artificiale può diventare un’autentica “arma”, soprattutto se maneggiata con superficialità o da incapaci privi delle necessarie competenze, se non addirittura da malfattori che la sfruttano per frodare e imbrogliare.
Intanto, è opportuno partire dalla definizione: l’intelligenza artificiale (in sigla IA) è una disciplina che studia se e in che modo si possano realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano. Attenzione, qui non si tratta di progettare e costruire macchine capaci di elaborare operazioni molto complesse in tempi molto rapidi: no, qui si parla di una vera e propria “sostituzione” dell’uomo. Già, perché scendendo nel dettaglio si scopre che, tra gli obiettivi, ci sono: agire e pensare in modo analogo a quanto fatto dagli esseri umani, così che il risultato dell’operazione compiuta dal sistema intelligente non sia distinguibile da quella svolta da un umano. Ma davvero si può soltanto ipotizzare che un cervello elettronico possa sostituirsi alla mente che, pur imperfetta e limitata, agisce invece seguendo la logica e soprattutto il cuore?
Il tema, come si può intuire, è estremamente delicato, tanto da provocare anche un intervento legislativo dell’Unione europea che dopo un negoziato fiume di oltre 36 ore, ha recentemente raggiunto l’accordo sull’Ai Act, la legge europea sull’intelligenza artificiale. L’obiettivo della normativa è che siano protetti i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l’innovazione e rendendo l’Europa leader nel settore. Tra i punti dell’accordo c’è quello di permettere il riconoscimento facciale solo in casi limitati. Sono state introdotte, infatti, una serie di salvaguardie e ristrette eccezioni per l’uso di sistemi di identificazione biometrica (Rbi) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’Rbi “post-remoto” sarà utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave o ancora ai fini di ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro).
La lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring (classificare la reputazione); le tecniche manipolative. L’accordo, inoltre, prevede una serie di obblighi per i sistemi ad alto rischio, tra cui quello di una valutazione dell’impatto sui diritti fondamentali. In questa categoria saranno inseriti anche i sistemi di Ia usati per influenzare l’esito delle elezioni e il comportamento degli elettori.
Insomma, l’Europa prova a metterci una pezza e la conferma arriva dalle entusiastiche reazioni di alcuni dei protagonisti. “Storico! L’Ue diventa il primo continente a stabilire regole chiare per l’uso dell’Intelligenza artificiale. L’Ai Act è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’Ue per guidare la corsa globale”, commenta il commissario al mercato interno Thierry Breton. La presidente del Parlamento europeo Roberta Metsola definisce l’intesa come un “momento storico per l’Europa digitale”. E la presidente della Commissione europea Ursula von der Leyen sottolinea che “la legge europea sull’intelligenza artificiale è una novità mondiale. Un quadro giuridico unico per lo sviluppo dell’Ai di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese. Un impegno che abbiamo assunto nei nostri orientamenti politici e che abbiamo mantenuto”.
E’ indubbio che i vantaggi sono tanti. L’intelligenza artificiale potrebbe significare una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. L’IA aiuta a rendere il posto di lavoro più sicuro, perché il lavoro più pericoloso può essere demandato ai robot, e offrire nuovi posti di lavoro grazie alla crescita delle industrie dell’intelligenza artificiale. Ma è altrettanto chiaro che bisogna essere consapevoli dei tanti rischi connessi perché le applicazioni possono esser pericolose se mal progettate, utilizzate in modo improprio o hackerate. Si pensi soltanto ad un uso non regolamentato dell’intelligenza artificiale negli armamenti che potrebbe condurre a una perdita di controllo su armi distruttive.
Insomma, come sempre, ci sono i pro e i contro. Un corretto equilibrio è indispensabile e intanto non va dimenticato il monito di Stephen Hawking: meglio non fidarsi.
Buona domenica.
Lascia un commento