L’Unione Europea ha pubblicato la prima bozza del Codice di Condotta sull’Intelligenza Artificiale, uno strumento essenziale per mettere in pratica l’AI Act, il primo regolamento globale sull’AI, approvato nell’agosto 2024. Il Codice si concentra sui modelli di AI per “scopi generali”, come ChatGPT, Gemini e Copilot, sviluppati da giganti come OpenAI, Google e Microsoft. Questi sistemi, noti per la loro capacità di adattarsi a molteplici utilizzi, rappresentano alcune delle tecnologie più avanzate nel campo.
L’AI Act entrerà pienamente in vigore nel 2026, stabilendo regole chiare per garantire sicurezza, trasparenza e rispetto dei diritti fondamentali. Tuttavia, la sua complessità richiede linee guida operative, ed è qui che il Codice di Condotta gioca un ruolo fondamentale.
La bozza del Codice identifica una serie di rischi “sistemici”, ossia minacce che potrebbero coinvolgere un vasto numero di cittadini europei. Tra i principali l’enorme potenza di calcolo dei modelli di AI potrebbe essere sfruttata per individuare falle nei software, aumentando il rischio di attacchi informatici; l’AI potrebbe inoltre facilitare la produzione di armi biochimiche o nucleari, semplificando i calcoli necessari; e ancora gli algoritmi mal progettati potrebbero perpetuare pregiudizi, penalizzando persone in base a etnia, genere o altre caratteristiche.
Un capitolo importante del Codice riguarda le piccole e medie imprese (PMI) e le start-up, pilastri dell’economia europea. La bozza propone misure per alleggerire il carico burocratico che l’AI Act potrebbe comportare, permettendo a queste realtà di crescere e innovare senza subire svantaggi competitivi rispetto ai grandi player internazionali.
Questo approccio mira a preservare la competitività europea, in particolare nei confronti di Paesi con regolamentazioni meno stringenti, come gli Stati Uniti, dove le grandi aziende tecnologiche godono spesso di maggiore flessibilità normativa.
La bozza del Codice, ancora in fase preliminare e non vincolante, è il risultato del lavoro di esperti nominati dall’UE in collaborazione con aziende, accademici e rappresentanti della società civile. Sarà aggiornata in più fasi e il documento finale verrà presentato al Parlamento Europeo nella plenaria prevista per la metà del 2025.
L’obiettivo è creare un quadro normativo flessibile, capace di adattarsi ai rapidi cambiamenti tecnologici e sociali. L’UE, con questa iniziativa, punta a consolidare il suo ruolo di leader globale nella regolamentazione dell’AI, favorendo un ecosistema innovativo e sostenibile che bilanci progresso e sicurezza.