Il 1º agosto 2024 è entrato ufficialmente in vigore il regolamento europeo n. 1689/2024 sull’intelligenza artificiale, conosciuto come AI Act, segnando un passaggio storico nella regolamentazione dell’AI all’interno dell’Unione Europea. Il nuovo regolamento introduce obblighi specifici per le aziende che utilizzano sistemi di intelligenza artificiale, adottando un approccio graduale basato sul rischio.
La nuova scadenza
Ma è dal 2 agosto 2025 che sono scattate alcune delle disposizioni più significative, in particolare quelle riguardanti i modelli di intelligenza artificiale per uso generale (General Purpose AI, GPAI), come i noti GPT-4 di OpenAI o LaMDA di Google.
Questi sistemi, in grado di eseguire una vasta gamma di compiti (dalla generazione di testi alle immagini), rappresentano una categoria centrale nell’ambito della nuova normativa per via del loro impatto potenziale sulla società. Per questa ragione, le aziende devono rispettare obblighi rigorosi in materia di trasparenza e tracciabilità dei contenuti generati.
Nuovi obblighi: trasparenza, marcatura e watermark
Con l’entrata in vigore delle nuove disposizioni, gli sviluppatori di GPAI dovranno assicurarsi che tutti i contenuti creati dai loro modelli siano marcati in modo leggibile da una macchina e riconoscibili come generati da intelligenza artificiale. In particolare: i contenuti deepfake dovranno essere chiaramente etichettati come tali, anche attraverso sistemi tecnici come il watermarking (filigrana digitale su foto, video e audio), e gli utenti dovranno essere sempre informati se stanno interagendo con un sistema automatizzato, come un chatbot.
Le categorie di rischio dell’AI Act
I sistemi di AI sono stati classificati in quattro categorie di rischio: minimo, specifico per la trasparenza, alto rischio e inaccettabile.
I sistemi a rischio minimo, come i filtri spam o i videogiochi, non sono soggetti a requisiti stringenti, anche se le aziende sono incoraggiate a seguire volontariamente codici di condotta. I sistemi a rischio specifico per la trasparenza, invece, come chatbot o sistemi di deepfake, devono informare chiaramente gli utenti della loro natura artificiale.
Per i sistemi ad alto rischio, impiegati in settori critici come sanità, istruzione e sicurezza, il regolamento prevede requisiti molto rigorosi. Questi includono la necessità di garantire la qualità dei dati, una supervisione umana adeguata e una documentazione tecnica dettagliata, oltre a trasparenza verso gli utenti. Infine, i sistemi considerati a rischio inaccettabile, come quelli usati per il “social scoring” governativo o per manipolare in modo dannoso il comportamento umano, sono completamente vietati.
Il percorso di applicazione dell’AI Act
Il regolamento prevede un calendario progressivo:
Dal 2 febbraio 2025 sono stati vietati i sistemi di AI considerati a rischio inaccettabile, come il social scoring o i sistemi di manipolazione comportamentale.
Dal 2 agosto 2025, sono entrate in vigore le regole per i modelli di AI generale.
La maggior parte delle altre disposizioni, comprese quelle sui sistemi ad alto rischio, diventeranno obbligatorie dal 2 agosto 2026.
Per i dispositivi già regolati da normative UE settoriali, la scadenza è fissata al 2 agosto 2027.
Un’opportunità per le imprese: prepararsi oggi
La Commissione Europea ha avviato numerose iniziative di supporto, come il Patto per l’AI, che invita le aziende ad anticipare l’adeguamento normativo. Sono inoltre in arrivo linee guida e codici di condotta per facilitare la transizione.
Per affrontare le sfide poste dal nuovo regolamento, le aziende devono pianificare con attenzione le proprie strategie, adottando un approccio dual-track. Le imprese che adotteranno proattivamente queste misure potranno non solo conformarsi alla legge, ma anche posizionarsi come leader nell’AI etica e responsabile.
Le imprese, soprattutto le PMI, sono invitate a:
Definire una strategia aziendale per l’AI, assegnando ruoli e responsabilità.
Formare il personale sull’uso etico e legale dell’AI.
Mappare e classificare i sistemi AI utilizzati in azienda.
Valutare i rischi di ogni sistema e implementare misure di governance e sicurezza.
Ti offriamo una consulenza mirata per gli investimenti in impiantistica e infrastrutture digitali, utile ad aumentare la competitività aziendale e la capacità di crescita.
Con il nostro supporto puoi portare la tua impresa verso il futuro!
PER MAGGIORI INFORMAZIONI
Antonio Ciccarelli
CONTATTI
ciccarelli@unindustria.na.it
Tel. 081 5836153
