logo-gruppo-bancario-iccrealogo BCC-credito-cooperativo

Bruxelles presenta la nuova strategia sull'intelligenza artificiale

Intelligenza artificialeL'obiettivo è sostenere lo sviluppo di un'intelligenza artificiale antropocentrica, sostenibile, sicura, inclusiva e affidabile, ricorrendo ai fondi europei della nuova programmazione 2021-2027, dal programma Digital Europe alla politica di coesione.

Stato dell'Unione: dal 5G ai supercomputer, proposte per un'Europa digitale

Il pacchetto di misure sull'uso dell'intelligenza artificiale presentato oggi dalla Commissione europea dà seguito agli impegni già delineati nell'ambito del pacchetto sul digitale e, in particolare, nel libro bianco sull'IA.

Anche Parlamento europeo e Consiglio sono al lavoro per definire gli aspetti che dovranno essere al centro della nuova regolamentazione UE: etica, proprietà intellettuale, applicazione dell'IA in diversi ambiti (militare, giustizia, salute, istruzione, cultura ecc).

Le regole UE sull'intelligenza artificiale

Intelligenza artificiale: le proposte del Parlamento UE su etica e proprietà intellettuale

Già durante la plenaria del 20 ottobre 2020 il Parlamento europeo ha approvato due iniziative legislative e una relazione in cui affronta diversi temi legati all'uso dell'IA: principi etici, responsabilità per i danni causati dall'IA e di proprietà intellettuale.

Nelle prima iniziativa legislativa si sollecita la Commissione UE a presentare un nuovo quadro giuridico che delinei i principi etici e gli obblighi legali da seguire nello sviluppo, nell'implementazione e nell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'UE, compresi software, algoritmi e dati.

Le future leggi dovranno improntarsi a diversi principi, tra cui:

  • un'intelligenza artificiale antropocentrica e antropogenica;
  • sicurezza, trasparenza e responsabilità;
  • garanzie contro distorsioni e discriminazioni;
  • diritto di ricorso;
  • responsabilità sociale e ambientale e rispetto della privacy e protezione dei dati.

Inoltre, le tecnologie IA ad alto rischio, come quelle con capacità di auto-apprendimento, dovrebbero essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di auto-apprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.

Intelligenza artificiale: come rilanciare gli investimenti in Italia? Intervista a Piero Poccianti, presidente AIxIA

Nella seconda iniziativa legislativa, invece, gli eurodeputati richiedono un quadro giuridico in materia di responsabilità civile orientato al futuro, che renda gli operatori IA ad alto rischio oggettivamente responsabili dei danni che ne possono derivare. Un quadro giuridico chiaro contribuirà a stimolare l'innovazione fornendo alle imprese la certezza del diritto, proteggendo i cittadini e promuovendo la loro fiducia nelle nuove tecnologie.

Le regole dovrebbero essere applicate alle attività di IA fisiche o virtuali che danneggiano o influiscono sulla vita, la salute, l'integrità fisica, il patrimonio, o che causano un rilevante danno immateriale che si traduce in una "perdita economica verificabile". Sebbene le tecnologie di IA ad alto rischio siano ancora rare, gli europarlamentari ritengono che i loro operatori dovrebbero avere un'assicurazione simile a quella per i veicoli a motore.

Nella relazione, infine, l'Europarlamento chiarisce che la leadership globale dell'UE in materia di IA richiede un sistema efficace di diritti di proprietà intellettuale (DPI) e salvaguardie per far sì che il sistema europeo dei brevetti protegga gli sviluppatori innovativi.

Secondo gli eurodeputati è importante distinguere tra le creazioni umane ottenute con l'assistenza dell'IA e quelle generate autonomamente dall'IA. L'IA non dovrebbe avere personalità giuridica. La proprietà dei DPI dovrebbe essere quindi concessa solo agli esseri umani. Inoltre, nel testo si approfondisce ulteriormente il tema del diritto d'autore, della raccolta di dati, dei segreti commerciali, dell'uso di algoritmi e del deepfake.

Torna all'indice

IA e diritti fondamentali: mettere l'uomo al centro

Il 21 ottobre 2020 il Consiglio ha invece adottato le sue conclusioni sull'IA e la Carta dei diritti fondamentali, sottolineando che lo sviluppo e l'applicazione dell'intelligenza artificiale devono andare di pari passo con il rispetto di tali diritti, sulla base di un approccio umanocentrico.

Dignità, libertà ed uguaglianza sono i principi guida che l'Unione e gli Stati membri devono tenere a mente al fine di delineare il nuovo quadro UE sull'IA, tutelando i diritti dei cittadini in ogni ambito.

Intelligenza artificiale: quale modello di sviluppo per l’Italia?

L'uso dell'IA in ambito militare e civile

Il 20 gennaio 2021, infine, l'Europarlamento ha approvato le linee guida per l'utilizzo dell'IA in campo militare e civile.

Per quanto riguarda le applicazioni in ambito militare, gli eurodeputati hanno concordato che i sistemi d'arma autonomi letali (Laws) dovrebbero essere usati solo come ultima risorsa ed essere legali solo se soggetti al controllo umano. Secondo l'Europarlamento, l'UE deve assumere un ruolo guida nella promozione di un quadro globale sull'uso militare dell'IA, insieme alle Nazioni Unite e alla comunità internazionale.

In ambito civile, poi, l'aumento dell'uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Quando l'IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato.

Nel settore della giustizia, invece, l'uso delle tecnologie dell'IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona, garantendo il diritto ad un giusto processo.

Nella risoluzione gli europarlamentari richiamano l’attenzione anche sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall'uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il Parlamento UE chiede che alle autorità pubbliche sia vietato l'uso di "applicazioni altamente invasive di punteggio sociale" (per il monitoraggio e la valutazione dei cittadini).

Preoccupano poi le tecnologie di deepfake, che hanno il potenziale di "destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali". I creatori dovrebbero essere obbligati ad etichettare tale materiale come "non originale" e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.

Torna all'indice

L'uso dell'IA in ambito culturale

Il 16 marzo 2021 la commissione Cultura e Istruzione dell'Europarlamento ha approvato una risoluzione sull'uso dell'IA in ambito culturale.

Secondo gli eurodeputati le nuove tecnologie basate sull'IA dovranno tutelare la diversità e il pluralismo, rispettando il principio di non discriminazione. Per questo motivo serve un chiaro quadro etico di riferimento e indicatori, allo scopo di garantire agli utenti l'accesso a diversi contenuti culturali e linguistici.

Per quanto riguarda l'istruzione, gli europarlamentari hanno sottolineato la necessità di formare i docenti, che dovranno sempre essere in grado di correggere le decisioni prese dall'IA, come quelle riguardanti le valutazioni degli studenti.

Torna all'indice

La strategia di Bruxelles sull'intelligenza artificiale

Il 21 aprile la Commissione europea ha presentato un pacchetto di misure che delinea la strategia europea sull'intelligenza artificiale. Il pacchetto prevede: un quadro giuridico sull'IA, un nuovo piano coordinato con gli Stati membri per garantire la sicurezza e i diritti fondamentali di persone e imprese, un regolamento sulle macchine.

Il quadro normativo europeo sull'IA

Il quadro normativo si concentra sull'affidabilità dell'IA, seguendo un approccio basato sul rischio:

  • rischio inaccettabile: quando i sistemi di IA sono considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone vengono vietati;
  • rischio alto: quando la tecnologia di IA è utilizzata per infrastrutture critiche, istruzione o formazione professionale, servizi pubblici, ecc
  • rischio limitato, nel caso di sistemi di IA con specifici obblighi di trasparenza (come i chatbot);
  • rischio minimo: in questo caso è previsto il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull'IA.

In termini di governance, la Commissione UE propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l'istituzione di un comitato europeo per l'intelligenza artificiale ne faciliterà l'attuazione e stimolerà lo sviluppo di norme per l'IA. Vengono inoltre proposti codici di condotta volontari per i sistemi di IA non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un'innovazione responsabile.

Consulta la proposta di regolamento sull'approccio europeo all'IA

Il piano coordinato sull'IA

Il nuovo piano coordinato con gli Stati membri utilizzerà i finanziamenti assegnati attraverso i programmi Digital Europe e Horizon Europe, nonché il dispositivo per la ripresa e la resilienza, che prevede un obiettivo di spesa per il digitale del 20%, e i programmi della politica di coesione al fine di:

  • creare le condizioni favorevoli allo sviluppo e all'adozione dell'IA attraverso lo scambio di informazioni strategiche, la condivisione dei dati e gli investimenti nelle capacità di calcolo critiche;
  • promuovere l'eccellenza in materia di IA "dal laboratorio al mercato" istituendo un partenariato pubblico-privato, costruendo e mobilitando capacità di ricerca, sviluppo e innovazione e mettendo a disposizione delle PMI e delle pubbliche amministrazioni strutture di prova e sperimentazione nonché poli dell'innovazione digitale;
  • garantire che l'IA sia al servizio delle persone e sia una forza positiva nella società, operando in prima linea nello sviluppo e nella diffusione di un'IA affidabile, coltivando talenti e competenze mediante tirocini, reti di dottorato e borse post-dottorato in ambito digitale, integrando la fiducia nelle politiche in materia di IA e promuovendo la visione europea di un'IA sostenibile e affidabile a livello globale;
  • creare la leadership strategica in settori e tecnologie ad alto impatto, compreso l'ambiente, concentrandosi sul contributo dell'IA alla produzione sostenibile, alla salute, ampliando lo scambio transfrontaliero di informazioni, nonché al settore pubblico, alla mobilità, agli affari interni e all'agricoltura e alla robotica.

Consulta il nuovo piano coordinato sull'intelligenza artificiale

Il regolamento sulle macchine

Il nuovo regolamento macchine farà sì che la nuova generazione di macchine garantisca la sicurezza degli utenti e dei consumatori e incoraggi l'innovazione.

Il nuovo regolamento risponderà inoltre alle esigenze del mercato apportando maggiore chiarezza giuridica alle disposizioni vigenti, semplificando gli oneri amministrativi e i costi per le imprese consentendo formati digitali per la documentazione e adeguando le spese di valutazione della conformità per le PMI, e garantirà nel contempo la coerenza con il quadro legislativo dell'UE per i prodotti.

Consulta la proposta sul regolamento macchine

Torna all'indice

Questo sito web utilizza i cookie! Acconsenti ai nostri cookie, se continui ad utilizzare questo sito web.