Il diritto dell'UE in materia di IA è in fase di perfezionamento

La legge dell'Unione europea sull'IA, la prima normativa completa sull'IA al mondo, raggiungerà una tappa fondamentale il 2 agosto 2025. A partire da questa data, numerosi obblighi fondamentali si applicheranno alle aziende, alle autorità e ai fornitori di IA nell'UE e potranno essere introdotte e imposte sanzioni in caso di non conformità.

La nuova legge UE sull'IA entrerà in vigore il 2 agosto 2025: le violazioni potranno essere punite immediatamente. (Immagine: Depositphotos.com)

L'AI Act, entrato in vigore il 2 febbraio di quest'anno, crea un quadro giuridico uniforme per l'intelligenza artificiale all'interno dell'UE. Sebbene molti regolamenti non entreranno in vigore prima del 2026, il 2 agosto 2025 inizierà una nuova fase incentrata su tre aree:

  1. Sanzioni in caso di non conformità
  2. Obblighi per i modelli di IA per scopi generali (GPAI)
  3. Sviluppo della supervisione e della governance a livello nazionale ed europeo

Multe fino a 35 milioni di euro

I sistemi di intelligenza artificiale che presentano rischi inaccettabili sono stati vietati dal 2 febbraio di quest'anno. A partire dal 2 agosto 2025, in caso di violazione degli obblighi esistenti, potranno essere comminate multe aggiuntive fino a 35 milioni di euro o al 7% del fatturato annuo totale. Ad esempio, le aziende devono garantire che i loro dipendenti abbiano competenze in materia di IA. L'Unione Europea si aspetta che gli Stati membri definiscano sanzioni efficaci, proporzionate e dissuasive. Le circostanze particolari delle PMI e delle start-up devono essere prese in considerazione per non compromettere la loro redditività economica.

Nuovi obblighi per i fornitori di modelli GPAI

I modelli GPAI commercializzati nell'Unione Europea a partire dal 2 agosto 2025 sono soggetti a obblighi legali. L'Ufficio europeo per l'intelligenza artificiale ha pubblicato la versione finale dei codici di condotta il 10 luglio 2025. I fornitori di tali modelli GPAI devono, tra l'altro, creare una documentazione tecnica, rispettare i diritti d'autore e garantire la trasparenza dei dati di addestramento utilizzati.

I modelli GPAI sono sistemi di intelligenza artificiale con una gamma particolarmente ampia di applicazioni e sono progettati per svolgere una varietà di compiti. Vengono addestrati con enormi quantità di dati e sono di conseguenza versatili. L'esempio più noto è quello dei modelli linguistici di grandi dimensioni (LLM), come il modello linguistico generativo GPT-4o, integrato in ChatGPT. Per i modelli GPAI già presenti sul mercato dell'Unione Europea prima del 2 agosto 2025, si applica un periodo di transizione fino al 2 agosto 2027.

Supervisione e governance

Il regolamento AI crea un quadro con poteri di attuazione e applicazione a due livelli. A livello nazionale, ogni Stato membro dell'UE deve designare almeno un'autorità di sorveglianza del mercato e un'autorità di notifica entro il 2 agosto 2025. La prima è responsabile della sorveglianza dei sistemi di IA, la seconda della notifica degli organismi indipendenti di valutazione della conformità. Gli Stati membri devono pubblicare le informazioni sulle autorità nazionali e i loro dettagli di contatto entro la scadenza. A livello europeo, l'Ufficio europeo per l'IA e il Comitato europeo per l'IA coordineranno la supervisione. Verranno inoltre istituiti un forum consultivo e un comitato scientifico di esperti indipendenti.

Cosa significa questo per i dipartimenti HR e per i dipendenti?

La legge sull'IA ha un impatto diretto sull'utilizzo dell'IA nelle aree di reclutamento, gestione delle prestazioni, analisi del personale e monitoraggio dei dipendenti. I responsabili delle risorse umane devono assicurarsi che gli strumenti di IA in queste aree siano trasparenti, equi e conformi.

  • Equità e antidiscriminazione: I sistemi di intelligenza artificiale utilizzati nelle decisioni di assunzione o promozione devono essere tracciabili e privi di pregiudizi. I dipartimenti delle risorse umane dovrebbero rivedere regolarmente gli strumenti e i fornitori per garantire la conformità.
  • Fiducia e trasparenza: I dipendenti possono capire meglio come i sistemi di IA influenzano il loro lavoro, ad esempio nella programmazione, nella valutazione delle prestazioni o nella sicurezza sul lavoro. I dipartimenti HR possono creare fiducia comunicando apertamente come viene utilizzata l'IA e come vengono protetti i dati dei dipendenti.
  • Responsabilità dei fornitori terzi: Se si utilizzano strumenti di IA di fornitori terzi, i dipartimenti HR devono assicurarsi che tali fornitori soddisfino i requisiti di trasparenza e documentazione. I contratti e i processi di approvvigionamento devono essere adattati di conseguenza.
  • Formazione e gestione del cambiamento: Con una maggiore regolamentazione dell'IA, il dipartimento delle risorse umane svolgerà un ruolo chiave nella formazione di manager e dipendenti. L'obiettivo è promuovere un uso responsabile dell'IA e radicare gli standard etici nella cultura aziendale.

"I fornitori di modelli GPAI già presenti sul mercato prima del 2 agosto 2025 hanno tempo fino al 2 agosto 2027 per implementare completamente le nuove norme. Ulteriori obblighi per i sistemi di IA ad alto rischio seguiranno nel 2026 e nel 2027. Questa pietra miliare riflette l'ambizione dell'UE di incoraggiare l'innovazione, garantendo al contempo che l'IA sia sicura, trasparente e in linea con i valori europei. Questo pone le Risorse Umane al centro dell'adozione responsabile dell'IA sul posto di lavoro", afferma Tom Saeys, Chief Operations Officer di SD Worx, fornitore europeo di soluzioni HR e payroll.

Fonte: SD Worx

Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/eu-ki-gesetz-wird-scharf-gestellt/

Altri articoli sull'argomento