skip to Main Content
AI, Tra Paure Apocalittiche E Opportunità Integrate

AI, tra paure apocalittiche e opportunità integrate

di Giusella Finocchiaro

L’innovazione tecnologica, come sempre, divide fra apocalittici e integrati. Tanto più se l’innovazione è quella dell’intelligenza artificiale, dal momento che non si tratta soltanto di tecnologia, ma di un cambiamento che riguarderà molti aspetti della nostra esistenza. Eppure, quando si parla di intelligenza artificiale, gli apocalittici sembrano essere la maggioranza. Una delle possibili spiegazioni di questo fenomeno si può rintracciare nel nostro retroterra culturale. La letteratura, la cinematografia e le altre arti hanno tendenzialmente rappresentato l’intelligenza artificiale come un pericolo, costituito principalmente dal rischio che le applicazioni di intelligenza artificiale si rivoltino contro il loro creatore, fenomeno ben sintetizzato nell’espressione “complesso di Frankenstein”. Per reagire a questo rischio Asimov aveva elaborato le leggi della robotica che recentemente sono state addirittura menzionate in una Risoluzione dell’Unione europea, proprio sull’intelligenza artificiale. Dunque, la paura indubbiamente ci condiziona.

Eppure l’intelligenza artificiale costituisce anche una grande risorsa, ad esempio per le applicazioni nell’ambito sanitario, in quello finanziario, in quello bancario e assicurativo, per non dire nella ricerca scientifica e perfino in quello dell’arte. Basti pensare al riconoscimento delle immagini sanitarie, alle applicazioni antiriciclaggio, alla prevenzione delle frodi, e alle elaborazioni artistiche effettuate con l’intelligenza artificiale. Spesso le opportunità non sono evidenziate e le rappresentazioni dell’intelligenza artificiale si concentrano sui rischi. Anche il legislatore europeo, nell’ormai famoso AI Act, il regolamento europeo sull’intelligenza artificiale, ha adottato un approccio basato sulla gestione dei rischi creati dall’intelligenza artificiale. D’altronde, non può stupire che, come il medico vede le malattie, il legislatore si concentri e cerchi di prevenire le patologie di un fenomeno. Tuttavia, a ben vedere, le regole non servono solo a prevenire e a risolvere i conflitti, ma servono anche a rassicurare e a superare alcuni pregiudizi culturali. È successo con le firme digitali, applicazioni nelle quali l’intervento legislativo è stato decisivo, e pare che stia succedendo con l’IA. Tutti invocano nuove regole, perfino le imprese produttrici di IA, e questo conferma che le regole giuridiche possono servire anche a favorirne l’adozione.
Tante sono le regole emanate in tutto il mondo sull’intelligenza artificiale: dall’AI Act europeo, all’Executive order di Biden, alla normativa cinese, alla Convenzione del Consiglio d’Europa, oltre alle tante raccomandazioni e dichiarazioni dal G7 alle Nazioni Unite. In Italia, è stata presentata una decina di progetti di legge in Parlamento ed è attualmente in discussione quello governativo. Il ddl conferma e chiarisce alcuni principi generali, anticipa alcune disposizioni dell’AI Act e, nello spazio lasciato libero dal Regolamento europeo, detta alcune norme nazionali. Di grande importanza la disposizione sulle sandbox che, anticipando il Regolamento europeo, prevede uno spazio di sperimentazione normativa. È un metodo che consentirà di elaborare norme nuove in un ambito circoscritto: potrebbe essere il modo migliore di dettare regole adattando l’approccio normativo a un fenomeno che non conosciamo ancora completamente.

Ma si può fare molto altro per introdurre l’IA nelle organizzazioni, attraverso quegli strumenti giuridici che sono a disposizione di tutti: i contratti, le linee guida, le policy, i codici di comportamento aziendali. Infatti, per esempio, introdurre una policy sull’IA nell’organizzazione produce alcuni interessanti effetti: innanzitutto dichiara che la volontà dell’ente è quella di usare l’IA e quindi rassicura dipendenti e collaboratori che si sentono autorizzati a utilizzare le applicazioni; indica gli eventuali settori in cui non si deve usare; individua le responsabilità; e poi può prevedere alcuni comportamenti, quali la supervisione, l’indicazione delle fonti, e molto altro. Dunque, non si può proprio dire che le norme ostacolino l’innovazione. Anzi, nel caso dell’IA, di norme ce ne sono già molte e quelle che possono essere create dalle stesse organizzazioni che vogliono utilizzare l’IA non possono che favorirne l’introduzione. Come scriveva la Commissione europea nel 2018, l’IA fa già parte delle nostre vite. Occorre, dunque, prenderne atto e governarne, anche con le regole, gli sviluppi.

 


Giusella Finocchiaro è professoressa ordinaria di Diritto di internet e Diritto privato nell’Università di Bologna e socio dell’Accademia delle Scienze dell’Istituto di Bologna e Fondatrice dello Studio Legale Finocchiaro. Affianca alla carriera accademica collaborazioni di carattere scientifico, di livello nazionale e internazionale.
È di recente pubblicazione il libro Intelligenza Artificiale, quali regole?. È stata presidente, dal 2014 al 2022, della Commissione UNCITRAL sul commercio elettronico, di cui oggi è membro e rappresentante per l’Italia. È membro della Commissione intelligenza artificiale per l’informazione costituita presso il Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio dei Ministri. È esperto legale presso la Banca Mondiale. È esperto legale UNIDROIT nel Digital Assets and Private Law Project.

Immagine: © Stella Laurenzi

Back To Top