AI, a un passo dalle regole europee di sicurezza
A tre anni dal concepimento di iniziative per regolare l’Intelligenza Artificiale (AI), strumento potente e rapido ad invadere i mercati, la Commissione Europea ci riprova.
Per “quei sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici“, resi una tra le tecnologie più importanti del 21° secolo dall’aumento della potenza di calcolo e della disponibilità dei dati e il progresso negli algoritmi, l’Europa segue una strategia tutta sua dal 2018, culminata nel Libro bianco sull’IA del 2020; un percorso ripreso con una Proposta che la distingue dal contesto mondiale il quale, anche più di noi europei, investe robustamente sui sistemi di Intelligenza Artificiale.
Il limite va posto alla governance della tecnologia. La tecnologia va regolata.
Come?
La logica della Proposta presentata dalla Commissione UE è condensata nel pensiero che segue.
“Migliorando la previsione, ottimizzando le operazioni e l’allocazione delle risorse e personalizzando l’erogazione dei servizi, l’uso dell’intelligenza artificiale può supportare risultati benefici dal punto di vista sociale e ambientale e fornire vantaggi competitivi chiave alle aziende e all’economia europea. Tale azione è particolarmente necessaria nei settori ad alto impatto, compresi i cambiamenti climatici, l’ambiente e la salute, il settore pubblico, la finanza, la mobilità, gli affari interni e l’agricoltura. Tuttavia, gli stessi elementi e tecniche che alimentano i benefici socioeconomici dell’IA possono anche comportare nuovi rischi o conseguenze negative per gli individui o la società”.
Tutta tesa, sì, a promuovere lo sviluppo dell’AI (Artificial Intelligence) ma anche ad affrontarne i potenziali rischi nello spazio e nei mercati dei 27 Stati membri europei ponendo basi giuridiche, regole certe, linee guida che agiscano per la piena sicurezza e per proteggere i diritti fondamentali.
Vediamo dunque i contenuti della Proposta sull’AI
La Commissione propone regole. Regole perché i sistemi di AI siano sicuri, trasparenti, etici e sotto il controllo umano.
Una classificazione guiderà il rischio, alto o basso, che tali sistemi implicano: una chiara minaccia per i cittadini dell’Unione europea ne impedirà l’impiego. I sistemi di Intelligenza Artificiale saranno, perciò, tutti prudentemente valutati prima di essere immessi sul mercato e durante tutto il loro ciclo di vita.
L’utente verrà sempre informato dell’uso di un sistema di IA; potrà decidere circa l’utilizzo dell’applicazione.
Vision in 4 obiettivi
La vision delle istituzioni europee ha quattro obiettivi:
1. stabilire le condizioni abilitanti per lo sviluppo e la diffusione dell’IA;
2. costruire una leadership strategica nei settori a impatto elevato;
3. fare dell’UE il luogo giusto affinché l’IA prosperi;
4. garantire che le tecnologie di IA siano al servizio delle persone.
Sitografia: ispionline.it / digital-strategy.ec.europa.eu