17
Apr
28 aprile, Giornata internazionale sulla Salute e Sicurezza. Potenzialità, diritti e rischi dell’AI.

Automazione, uso di strumenti intelligenti per la salute e la sicurezza sul lavoro e sistemi di monitoraggio, la “realtà estesa” e la realtà virtuale, e la gestione algoritmica del lavoro. Sono questi alcuni dei temi che segnano il legame tra nuove tecnologie e sicurezza sul lavoro. In occasione della Giornata internazionale sulla Salute e Sicurezza sul lavoro del 28 aprile, l’OIL pubblicherà un rapporto e altro materiale per analizzare le tematiche relative all’impatto dell’intelligenza artificiale, soprattutto per quanto riguarda la prevenzione. In particolare, si analizzerà come la trasformazione digitale può migliorare la salute e la sicurezza sul lavoro e le risposte dei governi, organizzazioni dei datori di lavoro e sindacati.
Durante la Giornata Mondiale SSL/2025, esperti, istituzioni e parti sociali si confronteranno su come bilanciare progresso tecnologico e tutela della salute, assicurando che l’evoluzione digitale sia sempre al servizio della sicurezza e del benessere dei lavoratori, tenendo sempre d’occhio il tema dei diritti.
Esplosione di tecnologia nei luoghi di lavoro
Sistemi di robotica avanzata come robot collaborativi e intelligenti (cobot), dispositivi indossabili (wearable), esoscheletri (wearable robot o robot indossabili), realtà virtuale e aumentata integrata, AI-powered software (riconoscimento vocale e facciale) installati su computer: sono tanti i prodotti e le procedure via via introdotti nei luoghi di lavoro seguendo passo passo le spinte delle varie innovazioni tecnologiche.
In breve, nel giro di pochi anni si è assistito all’automazione di alcuni processi produttivi (l’utilizzo di robot e cobot), monitoraggio della produttività, della prestazione e del comportamento dei lavoratori (con braccialetti elettronici o scanner), ma c’è anche l’idea che attraverso la tecnologia si possa garantire la salute e la sicurezza sul luogo di lavoro (con esoscheletri), formare i lavoratori e dare istruzioni in tempo reale su come eseguire determinati compiti (con realtà virtuale e aumentata integrata in smart glasses).
In molti casi, come l’impiego degli esoscheletri i vantaggi sono stati diretti: tali tecnologie, infatti, possono contribuire a mitigare i rischi ergonomici, specialmente per quanto riguarda l’insorgere di disturbi muscolo-scheletrici. Oppure, l’analisi algoritmica dei dati prodotti dal lavoratore che indossa un Dpi altamente tecnologizzato contribuisce a – o quantomeno presenta il potenziale di – proteggere i lavoratori da rischi lavoro-correlati come le patologie da calore (stress termico), e l’insorgere di alcuni tipi di tumori.
Sono tanti i fattori in controtendenza di cui tener conto
Al contempo, però, l’impiego di sistemi di AI comporta rischi per la salute fisica e mentale, così come per la sicurezza dai lavoratori. Tra questi, si annoverano i rischi legati all’interazione (fisica) uomo-macchina, come il pericolo di collisione, e i rischi psico-sociali derivanti dalla pressione di dover mantenere il passo con quanto dettato dall’algoritmo. Quindi, adottare un atteggiamento positivista nei confronti dell’AI può portare su un percorso non positivo. Detto in breve, l’AI va trattata nel processo produttivo come una macchina e quindi occorre valutarne i rischi. Inoltre, i sistemi di AI utilizzano algoritmi per analizzare una pletora di dati, molti dei quali sensibili (temperatura corporea, battito cardiaco, ritmi circadiani), raccolti, ad esempio, da sensori incorporati in wearable, droni ed esoscheletri attivi. L’introduzione di tali strumenti sul luogo di lavoro potrebbe quindi portare a violazioni di altri diritti fondamentali, come il diritto alla protezione dei dati personali disciplinato dal Regolamento generale sulla protezione dei dati 2016/679, o il diritto di non essere discriminato.
Recentemente, l’Agenzia Europea per la sicurezza e la salute sul lavoro (nel prosieguo: EU-OSHA) ha pubblicato studi che mettono in evidenzia l’introduzione di sistemi avanzati di robotica in vari settori industriali, principalmente come strumenti finalizzati a migliorare la salute e sicurezza sul posto di lavoro. Questi materiali rappresentano un ottimo punto di riferimento per la determinazione dei fattori di rischio. Un altro documento di cui tener conto è l’AI Act, che si propone di armonizzazione le regole sullo sviluppo, immissione sul mercato Europeo, messa in servizio, e utilizzo di sistemi di AI che potrebbero avere un impatto sulla salute e sicurezza delle persone fisiche, nonché dei loro diritti fondamentali, così come sanciti dalla Carta dei Diritti Fondamentali dell’Unione Europea.
I limiti dell’AI Act
Secondo molti esperti, la nuova normativa europea sull’uso dell’intelligenza artificiale costituisce un progresso significativo verso la tutela della salute e sicurezza dei lavoratori nell’Unione Europea ma, fanno notare, non fornisce una regolamentazione specifica sull’impiego di tecnologie di AI sul luogo di lavoro e sulla protezione della salute e sicurezza in un contesto lavorativo.
Inoltre, “la normativa presenta anche alcune lacune – scrive Stefania Marassi docente di Diritto del lavoro Europeo e Internazionale presso l’Università di Scienze Applicate dell’Aja- che dovranno essere colmate. In primis, sebbene sia positiva l’introduzione della proibizione di tecnologie di riconoscimento delle emozioni sul posto di lavoro, è essenziale chiarire l’ambito di applicazione dell’eccezione a questo divieto”.
Inoltre, numerosi studi hanno evidenziato i rischi che alcuni sistemi di AI decisamente invasivi possono avere sulla salute, in particolare mentale, dei lavoratori, i quali sono soggetti ad una sorveglianza continua e talvolta in tempo reale, e si trovano spesso costretti ad accelerare il ritmo di lavoro per adeguarsi alle direttive impartite dall’algoritmo. Il rispetto dei loro diritti fondamentali, tra cui il diritto alla protezione dei dati personali, è altresì messo a rischio, data la vasta gamma di dati personali, spesso sensibili, raccolti e analizzati da algoritmi. La recente decisione del garante francese della privacy sugli scanner usati da Amazon France Logistique ne è un chiaro esempio.
In particolare, il garante francese ha inflitto una sanzione di 32 milioni di Euro ad Amazon per violazione di alcune disposizioni del GDPR, a causa dei controlli eccessivi sui lavoratori tramite scanner utilizzati per scansionare oggetti.