
A cura di: BCO Consulting – team Salute e Sicurezza sul Lavoro
Norme citate: AI Act; DM 17 dicembre 2025, n. 180.
Nel 2026 l’AI Act entra nel vivo della sua applicazione e porta le aziende a gestire l’intelligenza artificiale in modo più strutturato: non solo “innovazione”, ma governance, controllo, trasparenza e gestione del rischio, soprattutto quando l’IA incide su lavoratori, organizzazione e decisioni HR.
Attenzione però: non esiste un “interruttore” che scatta tutto insieme. L’AI Act prevede scadenze progressive e obblighi che maturano in momenti diversi a seconda del tipo di sistema (es. IA ad alto rischio) e del ruolo dell’organizzazione (utilizzatore, fornitore, ecc.). Per questo, la scelta più efficace è muoversi con una roadmap di adeguamento: mappare cosa stai usando, capire il rischio, definire responsabilità, controlli e formazione.
Roadmap delle scadenze AI Act: le date da segnare in agenda
Non tutti gli obblighi scattano contemporaneamente. Ecco il cronoprogramma per la tua azienda:
- 2 febbraio 2025: applicazione del divieto di alcune pratiche di IA vietate e avvio degli obblighi di alfabetizzazione sull’IA (formazione e consapevolezza per chi utilizza sistemi di intelligenza artificiale).
- 2 agosto 2025: Applicazione delle norme sui modelli di IA per uso generale (GPAI – General-Purpose AI). (Fonte: Commissione europea)
- 2 agosto 2026: Piena applicabilità del Regolamento per la maggior parte dei sistemi.
- 2 agosto 2027: Termine ultimo per l’adeguamento dei sistemi IA già presenti sul mercato e appartenenti a specifiche categorie ad alto rischio.
Nota: gli obblighi GPAI riguardano principalmente i provider; per le aziende utilizzatrici l’impatto è indiretto (scelta fornitori conformi, governance, policy e risk assessment).
AI Act 2026 e Decreto 180/2025: il quadro normativo per le aziende
Il quadro normativo che impatta l’uso dell’IA nel lavoro si fonda su due pilastri:
- Regolamento (UE) 2024/1689 (AI Act): definisce requisiti e obblighi per l’intelligenza artificiale, con attenzione specifica ai sistemi ad alto rischio (inclusi diversi ambiti HR e gestione del personale).
- Legge 132/2025: è la legge nazionale di cui l’Italia si è dotata in tema di Intelligenza Artificiale.
- Decreto Ministeriale n. 180/2025: introduce linee guida italiane sull’uso dell’IA nei contesti di lavoro, con indicazioni operative su sicurezza, equità, trasparenza e tutela dei lavoratori (alcune raccomandazioni non sono vincolanti, ma rappresentano già uno standard pratico).
In concreto, il datore di lavoro è chiamato a nuove responsabilità: valutare i rischi legati all’IA, integrare gli impatti organizzativi (anche nel DVR quando pertinente), adottare policy e ruoli per la governance, garantire un controllo umano significativo nelle decisioni automatizzate e rispettare la privacy dei lavoratori.
Checklist operativa 2026: come adeguarsi all’AI Act senza errori
Questa è la checklist di riferimento per la tua azienda: usala come base per la tua roadmap interna e come prova documentale dell’adeguamento.
- Mappatura dei sistemi IA: censire cosa stai usando, dove, con quali dati e chi governa il sistema, inclusi i software di terze parti che integrano l’IA.
- Classificazione e valutazione del rischio: individuare dove l’IA impatta sulle persone e se rientra negli scenari critici, come la valutazione del personale e l’ambito HR.
- Governance e responsabilità: definire ruoli chiari, policy interne, procedure per la gestione degli incidenti e sistemi di tracciabilità delle decisioni.
- Controlli, logging e audit: impostare verifiche periodiche, garantire la spiegabilità delle decisioni automatizzate e monitorare bias e performance degli algoritmi.
- Integrazione con salute e sicurezza: valutare gli impatti psicosociali e integrare il DVR quando l’IA modifica carichi di lavoro, ritmi o autonomia dei lavoratori.
- Formazione (AI Literacy): istruire il personale sui limiti d’uso, sulle regole operative e sulle procedure di supervisione umana nelle decisioni critiche.
Cosa vedremo di seguito: Analizzeremo come applicare questi punti nei settori più sensibili: HR, sicurezza, privacy e PMI.
AI e sicurezza sul lavoro: come prevenire i rischi emergenti
L’intelligenza artificiale può essere un potente alleato per la prevenzione (attraverso la visione artificiale o la manutenzione predittiva), ma introduce sfide che richiedono un aggiornamento dei protocolli di sicurezza:
- Contrasto allo stress da automazione: la pressione psicologica aumenta quando il lavoro è monitorato da algoritmi; è essenziale prevenire il carico cognitivo eccessivo.
- Stop alla sorveglianza invasiva: sistemi che tracciano pause o produttività devono rispettare rigorosamente la dignità e la privacy del dipendente.
- Coinvolgimento del team di prevenzione: RSPP, medico competente e HR devono partecipare attivamente all’analisi dei rischi sin dalla fase di implementazione.
- Validazione umana: l’ultima parola su decisioni di sicurezza o provvedimenti deve spettare sempre a una persona competente.
- Aggiornamento del DVR (quando pertinente): integrare la valutazione se l’IA introduce o modifica rischi organizzativi/psicosociali (es. techno-stress), con RSPP e medico competente.
Tutela dei lavoratori: i 5 pilastri tra Privacy ed Equità
L’adozione dell’IA in azienda deve poggiare su basi etiche e giuridiche solide per proteggere i diritti fondamentali dei collaboratori:
- Non discriminazione ed equità: è necessario monitorare costantemente i dati per evitare che l’algoritmo generi bias (pregiudizi) discriminatori.
- Trasparenza algoritmica: i lavoratori hanno il diritto di essere informati se sono soggetti a processi automatizzati e di conoscerne la logica sottostante.
- Diritto di contestazione: ogni decisione presa dall’IA deve essere rivedibile e contestabile da un essere umano.
- Compliance GDPR: il trattamento dei dati deve seguire i principi di minimizzazione e sicurezza, limitando la raccolta allo stretto necessario.
- Responsabilità datoriale: indipendentemente dalla tecnologia utilizzata, il datore di lavoro rimane l’unico responsabile legale delle decisioni generate dal sistema.
PMI e Intelligenza Artificiale: roadmap per un adeguamento sostenibile
Le piccole e medie Imprese, pur disponendo spesso di risorse limitate, possono conformarsi alla normativa attraverso un percorso graduale, modulare e verificabile:
- Valutazione di prontezza all’adozione dell’IA (assessment iniziale): analizzare la maturità digitale dell’azienda, mappare i processi in cui l’IA può generare benefici concreti e individuare da subito i principali rischi in materia di privacy e sicurezza.
- Strategia e Governance: definire una direzione chiara nominando un referente interno per l’IA e stabilendo policy e regole operative semplici ma efficaci.
- Progetto pilota controllato: testare l’IA in un’area aziendale circoscritta (es. logistica o amministrazione) per misurarne impatti, benefici e criticità senza stravolgere l’intera organizzazione.
- Implementazione scalabile e formazione: estendere l’uso delle tecnologie in modo graduale, accompagnando ogni passo con percorsi di formazione mirati per il personale coinvolto.
- Monitoraggio e Audit continuo: predisporre verifiche periodiche e controlli costanti per assicurarsi che i sistemi rimangano performanti e conformi all’AI Act nel tempo.
- Sviluppo delle competenze: investire nell’aggiornamento delle skill interne, anche tramite strumenti di finanziamento agevolato (ad esempio fondi interprofessionali e misure pubbliche a sportello o su avviso, come il Fondo Nuove Competenze, quando disponibile)
Conclusione
Adeguarsi all’AI Act e alle linee guida italiane non è un semplice adempimento burocratico “una tantum”, ma un processo continuo per rendere l’innovazione governabile, controllabile e sicura. Solo attraverso una roadmap strutturata l’azienda può proteggere se stessa e le proprie persone, trasformando i vincoli normativi in un vantaggio competitivo in termini di etica e affidabilità.
Gli esperti di BCO Consulting supportano aziende e Pubbliche Amministrazioni in ogni fase di questo percorso: dall’assessment iniziale alla redazione della governance, fino all’integrazione della sicurezza nel DVR e alla formazione specialistica.
Vuoi rendere la tua azienda conforme all’AI Act? Contattaci per una consulenza personalizzata sulla normativa IA 2026.
FAQ – Obblighi IA 2026
Cos’è il Decreto Ministeriale 180/2025? È il provvedimento italiano che definisce le linee guida per l’uso dell’IA nel lavoro. Offre indicazioni operative su sicurezza, privacy ed equità per garantire un’applicazione etica e conforme della tecnologia in azienda.
Quali sono gli obblighi principali per le aziende nel 2026? Le imprese devono mappare i sistemi IA, definire una governance chiara, garantire il controllo umano sulle decisioni automatizzate e aggiornare la formazione del personale (AI Literacy).
Il DVR deve includere i rischi derivanti dall’IA? Il DVR va aggiornato quando l’uso dell’IA introduce o modifica rischi (anche organizzativi/psicosociali) o cambia modalità e carichi di lavoro.
Chi è responsabile in caso di errore dell’IA? Nel contesto lavorativo il datore di lavoro resta responsabile delle decisioni e degli effetti organizzativi; restano ferme le responsabilità previste dalla normativa anche per fornitori/provider e per i ruoli privacy (titolare/responsabile).