Il Diritto dell'Unione EuropeaEISSN 2465-2474 / ISSN 1125-8551
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Diritti fondamentali e algoritmi nella proposta di regolamento sull'intelligenza artificiale (di Filippo Donati)


La proposta di regolamento sull’intelligenza artificiale mira a risolvere i problemi che discendono dall’opacità, la complessità, i difetti, l’imprevedibilità e la parziale autonomia di comportamento di determinati sistemi di IA, al fine di garantire che lo sviluppo e l’impiego di tali sistemi non pregiudichi i diritti e i valori fondamentali. Questo articolo offre una riflessione sui punti di forza, i profili di debolezza e gli interrogativi che emergono dalla proposta di regolamento.

 

Fundamental rights and algorithms in the proposed regulation on artificial intelligence

The Commission’s proposal for a regulation on artificial intelligence aims at addressing the issues arising out from the opacity, complexity, bias, unpredictability and partially autonomous behaviour of certain AI systems, in order to ensure that such systems will be developed and used in compliance with fundamental rights and values. This article offers a brief reflection on the strengths, weaknesses and open questions related to the proposed regulation.

The proposed regulation.

Keywords: Artificial Intelligence – European Union Law – Fundamental Rights.

SOMMARIO:

I. Introduzione - II. IA e tutela dei diritti - III. L’approccio risk-oriented della proposta di regolamento - IV. Regolazione dell’IA e concorrenza globale - V. Internet of things e controllo sui sistemi di IA - VI. Considerazioni conclusive - NOTE


I. Introduzione

La proposta di regolamento sull’intelligenza artificiale, presentata dalla Commissione europea il 4 aprile 2021 [1], ha suscitato un ampio dibattito, destinato ad intensificarsi con il procedere dell’iter necessario per la sua definitiva approvazione [2]. La ragione di un così grande interesse per la proposta della Commissione è facilmente comprensibile. Nonostante l’importanza che i nuovi sistemi di intelligenza artificiale rivestono per la crescita economica e il benessere sociale, è ormai diffusa l’opinione che un impiego incontrollato degli stessi può comportare seri rischi per i diritti fondamentali. La consapevolezza di tali pericoli ha indotto la Commissione europea ad istituire un gruppo indipendente di esperti ad alto livello che, già nell’aprile del 2019, ha pubblicato gli orientamenti etici per lo sviluppo e l’utilizzo dell’intelligenza artificiale [3]. Ben presto è però emersa la necessità di vere e proprie regole giuridiche volte a garantire il rispetto dei principi e dei valori etici che rilevano in materia. Nel Libro bianco dedicato al tema [4], la Commissione ha evidenziato l’ina­de­guatezza della vigente normativa a fronte dei nuovi problemi che nascono dall’impiego dei sistemi di intelligenza artificiale. Tali sistemi sono infatti basati su complessi meccanismi di apprendimento automatico che operano attraverso l’analisi di grandi quantità di dati in tempi velocissimi e permettono di adottare decisioni non prevedibili neppure dai programmatori. Si tratta, quindi, di software che operano con un notevole tasso di opacità, comportandosi come una sorta di black box [5]. Tutto ciò può rendere difficile individuare e dimostrare eventuali violazioni delle disposizioni normative poste a tutela dei diritti fondamentali, accertare responsabilità, comminare sanzioni e soddisfare richieste di risarcimento. Da qui la necessità, più volte sottolineata anche dal Parlamento europeo [6], di un adeguamento del quadro legislativo al fine di garantire la tutela dei diritti contro le minacce derivanti dall’impiego dei sistemi di IA. La proposta di regolamento sull’intelligenza artificiale assume, dunque, una grande importanza sotto un duplice profilo. In primo luogo, è destinata a colmare la lacuna normativa evidenziata dalla Commissione [continua ..]


II. IA e tutela dei diritti

La proposta della Commissione europea riflette un approccio equilibrato, perché evita di inquadrare il tema dell’impiego nei nuovi sistemi di intelligenza artificiale secondo una alternativa tra esigenze di efficienza e sviluppo economico, da una parte, ed esigenze di tutela dei diritti fondamentali, dall’altra parte. La dottrina ha da tempo segnalato i rischi derivanti dall’impiego del­l’in­telligenza artificiale per assumere decisioni che impattano sui diritti del­l’uo­mo [8]. Occorre tuttavia considerare che i sistemi di intelligenza artificiale possono anche avere effetti positivi sull’esercizio e sulla tutela dei diritti e delle libertà della persona. Basti pensare all’importanza che l’intelligenza artificiale oggi riveste nei settori più disparati, dalla tutela della salute alla lotta contro il crimine, dall’agricoltura ai trasporti etc. In linea generale, nessuno oggi mette in discussione i benefici che i nuovi sistemi possono comportare in termini di aumento della produttività e di offerta di prodotti e servizi sempre più in linea con le esigenze di ciascuno. L’in­telligenza artificiale, in definitiva, deve essere considerata non soltanto come una minaccia, ma anche come uno strumento per migliorare la vita delle persone e il godimento dei diritti fondamentali. Ciò detto, non possiamo certo sottovalutare le possibili discriminazioni connesse ad eventuali pregiudizi dell’algoritmo, dovuti a difetti di programmazione o di apprendimento del software, quando sistemi di intelligenza artificiale sono impiegati, ad esempio, per decidere sulla concessione di un mutuo o sull’apertura di una linea di credito, per selezionare studenti o aspiranti a posti di lavoro, per l’adozione di provvedimenti amministrativi o di decisioni giudiziarie e, più in generale, per assumere decisioni che impattano sui diritti della persona. Occorre tuttavia considerare che pregiudizi ed errori possono sussistere anche nelle decisioni umane e che i sistemi di intelligenza artificiale non necessariamente offrono un grado di affidabilità inferiore a quello delle persone fisiche [9]. Per non parlare poi del fatto che tali sistemi operano meccanicamente e, pertanto, non sono esposti a quei rischi di corruzione o di indebito condizionamento cui, purtroppo, alcune persone non sono state in grado di sottrarsi. Occorre [continua ..]


III. L’approccio risk-oriented della proposta di regolamento

I dati (personali e non) sono alla base del funzionamento dei sistemi di intelligenza artificiale. Esiste pertanto una evidente connessione tra il regolamento per la protezione dei dati personali (di seguito GDPR) [13] e la proposta di regolamento sull’intelligenza artificiale [14]. Il GDPR, nel riconoscere in termini generali il diritto di accesso ai dati personali, attribuisce a ogni interessato la possibilità di conoscere l’esistenza di un processo decisionale automatizzato e di ricevere “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato” [15]. Inoltre il GDPR permette ad ogni interessato di opporsi a decisioni che producono effetti significativi nella sua sfera giuridica e che sono basate “unicamente” su un trattamento automatizzato [16]. In caso di procedimenti decisionali automatizzati, infine, il GDPR impone al titolare del trattamento di adottare “misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato”. I problemi derivanti dall’impiego dell’intelligenza artificiale, però, non possono evidentemente essere risolti guardando unicamente al profilo della protezione dei dati personali. I nuovi software basati su meccanismi di autoapprendimento utilizzano, infatti, anche dati che sfuggono al campo di applicazione del GDPR, in particolare dati non personali o comunque resi sufficientemente anonimi da impedire o da non consentire più l’identificazione dell’interessato. Inoltre, la diffusione dei nuovi sistemi comporta nuove minacce non solo per il diritto al controllo dei propri dati personali, ma anche agli altri diritti e principi fondamentali. Per garantire lo sviluppo e l’utilizzo di un’intelligenza artificiale sicura, affidabile e rispettosa dei valori e dei diritti dell’Unione, la Commissione propone un nuovo approccio, basato sulla individuazione del livello di rischio per i diritti fondamentali derivante dal tipo di utilizzo del software e, in base ad esso, di graduare la disciplina applicabile. Una impostazione simile è stata seguita anche dal Parlamento europeo, nella risoluzione in materia di responsabilità civile per l’intelligenza artificiale [17], e dal comitato istituito nell’ambito del Consiglio d’Europa, nello [continua ..]


IV. Regolazione dell’IA e concorrenza globale

I sistemi di intelligenza artificiale sono per loro natura transnazionali, perché si prestano ad utilizzazioni che non conoscono i tradizionali confini tra Stati. Correttamente, quindi, la Commissione ha proposto una disciplina uniforme, volta ad evitare che “normative nazionali divergenti possano determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA” [22]. In relazione a tale obiettivo, è da escludere che gli Stati membri, al fine di offrire una maggiore protezione ai diritti della persona, possano adottare una disciplina più restrittiva vietando determinate applicazioni o assoggettandoli a requisiti più rigorosi rispetto a quelli previsti dal diritto dell’Unione [23]. La scelta di un regolamento, anziché una direttiva, è senz’altro da apprezzare, perché permetterà di ridurre “la frammentazione giuridica” e di facilitare “lo sviluppo di un mercato unico per sistemi di IA leciti, sicuri e affidabili” [24]. La previsione di un regolamento europeo sull’intelligenza artificiale, se attenua il problema derivante dalla necessità degli sviluppatori e dei fornitori dei sistemi di intelligenza artificiale di rispettare diversi standard per ciascun territorio in cui il sistema è destinato ad operare, certamente non lo risolve in maniera completa. Essa pone anzi un problema di rapporti tra l’Europa e gli altri Stati, in particolare gli Stati Uniti, la Cina e le altre grandi potenze economiche. Al di fuori dell’Unione, infatti, continua ancora oggi a prevalere l’idea, di stampo westfaliano, secondo cui gli Stati conservano tendenzialmente una sovranità piena sul proprio territorio. Non stupisce quindi l’esistenza di differenti approcci regolatori in materia di intelligenza artificiale. L’Europa, con la proposta di regolamento sul­l’in­telligenza artificiale, ha scelto di andare nella direzione di una legislazione rigida a carattere orizzontale. In altri sistemi, come ad esempio gli USA, la tendenza è piuttosto verso una regolazione più attenuata, che opera a livello verticale, nell’ambito cioè delle normative settoriali che investono i diversi settori dell’economia e della società (finanza, trasporti, medicina etc.). La diversità [continua ..]


V. Internet of things e controllo sui sistemi di IA

La proposta di regolamento ha un approccio antropocentrico [29], nel senso che mira a garantire la sorveglianza umana [30] e la tutela dei diritti e delle libertà delle persone contro i rischi derivanti dall’impiego di sistemi di intelligenza artificiale. Si tratta di un obiettivo tanto ambizioso quanto difficile da realizzare, per almeno due ragioni. La prima ragione è collegata allo sviluppo della banda larga ed alla crescente diffusione dell’internet of things, cioè la connessione a Internet di oggetti fisici. Un numero sempre maggiore di oggetti che impiegano sistemi di intelligenza artificiale, dai cellulari agli impianti domestici, dagli strumenti medici ai sistemi per la sicurezza dei trasporti etc., inizieranno verosimilmente ad interagire tra di loro, con effetti potenzialmente imprevedibili. Un esempio è quello del mondo della finanza, dove gli algoritmi che dispongono vendite o acquisti a seguito del raggiungimento di certe soglie di prezzi, si sono trovati ad interferire tra di loro dando vita ad effetti cumulativi che hanno portato a oscillazioni della quotazione di strumenti finanziari del tutto impreviste e imprevedibili. In definitiva, il collegamento di algoritmi che operano in maniera significativamente autonoma dalle istruzioni inizialmente ricevute dai programmatori, perché basati su sistemi di auto-appren­di­men­to, potrebbe accrescere la loro autonomia. In casi del genere, il principio della supervisione umana [31] e i meccanismi di verifica e sorveglianza ex ante previsti dal regolamento potrebbero rivelarsi non adeguati. Il secondo profilo di criticità ha natura istituzionale. Il successo o meno del nuovo regolamento dipenderà dalle istituzioni chiamate ad applicarlo. Il regolamento prevede, infatti, la costituzione di organismi nazionali di certificazione, chiamati ad effettuare la valutazione della conformità dei sistemi di IA ad alto rischio rispetto ai requisiti previsti dal regolamento. Ciascuno Stato membro dovrà inoltre istituire appositi organismi (le autorità di notifica), chiamate a valutare e notificare le autorità di certificazione [32]. La proposta di regolamento stabilisce che gli organismi nazionali di certificazione dovranno essere indipendenti dai fornitori di sistemi di intelligenza artificiale e dovranno essere “organizzati e gestiti in modo da salvaguardare l’indipendenza, [continua ..]


VI. Considerazioni conclusive

Dalle considerazioni sin qui svolte discende che la proposta di regolamento presenta importanti punti di forza, che rendono auspicabile una sua veloce approvazione, ma allo stesso tempo presenta alcuni profili di criticità e lascia aperto un importante interrogativo. I punti di forza sono collegati alla scelta di adottare una disciplina ad hoc, di carattere orizzontale, volta a bilanciare l’esigenza di promuovere lo sviluppo e l’impiego dei sistemi di intelligenza artificiale in maniera compatibile con l’esigenza di proteggere i diritti della persona. È verosimile ipotizzare che il regolamento, una volta entrato in vigore, non rappresenterà un ostacolo competitivo per le imprese europee, ma tenderà a porsi come standard globale cui tenderanno ad adeguarsi in ogni parte del mondo gli sviluppatori ed i fornitori di sistemi di intelligenza artificiale. I profili di criticità dipendono in primo luogo dalla rigidità derivante dal­l’identificazione in via astratta e preventiva di livelli di rischio. Inoltre, non può essere sottovalutato il crescente sviluppo dell’internet delle cose e la sempre maggiore connessione ed interdipendenza dei sistemi di intelligenza artificiale, che potrà accentuare l’autonomia complessiva degli stessi e creare ostacoli alla possibilità di un effettivo controllo ex ante sul loro funzionamento. Di qui la necessità di valorizzare i meccanismi di controllo ex post sull’operato dei sistemi di intelligenza artificiale. L’interrogativo lasciato aperto dalla proposta in esame riguarda l’ef­fet­tività del sistema di governance. Il successo o meno del regolamento, una volta approvato, dipenderà infatti da tale sistema. Soltanto l’autonomia, l’in­dipendenza e la preparazione tecnica delle persone chiamate ad assicurare l’osservanza del regolamento, potrà garantire lo sviluppo e l’utilizzo di siste­mi di intelligenza artificiale nel rispetto dei diritti della persona e dei principi democratici.


NOTE