24
Apr
Intervista a Maria Giovannone, docente di Diritto del lavoro: “AI e lavoro, un tema tutto da sviluppare, ma abbiamo basi importanti. E altri punti di riferimento sono in gestazione”.

“AI e lavoro, un tema tutto da sviluppare ma abbiamo alcune basi importanti. E altri riferimenti sono in gestazione”.
Sul tema del rapporto tra AI e lavoro, che è alla base della Giornata mondiale sulla Salute e Sicurezza sul lavoro del 28 aprile, abbiamo raccolto il punto di vista di Maria Giovannone, docente universitaria di Diritto del lavoro, che in questa intervista mette in evidenza le numerose sfaccettature di questa relazione.
Il rapporto tra AI e Sicurezza sul lavoro rischia di complicarsi perché i progressi tecnologici sono molto veloci. La norma sembra avere il fiato corto.
Il tema sul rapporto tra AI e lavoro è enorme. L’AI Act in qualche modo affronta alcuni, ma non tutti, i problemi legati all’impatto dell’AI sul lavoro, che comunque incide sia sulla nozione di lavoratore che di datore di lavoro. A volte l’AI si sostituisce, in tutto o in parte, al lavoratore e in alcuni casi si sostituisce al datore di lavoro oppure, sicuramente, ne è uno strumento di tramite per l’esercizio dei poteri del datore di lavoro. Dall’altra parte, l’AI incide addirittura sugli stessi processi di gestione e selezione delle risorse umane, ponendo problemi rispetto alle potenziali discriminazioni nei confronti dei lavoratori. Questa viene definita “discriminazione algoritmica”. L’intelligenza artificiale incide anche nelle relazioni collettive di lavoro, e quindi nelle relazioni sindacali. Pone nuovi temi e nuovi diritti, di informazione, di consultazione, etc.
E per quanto riguarda la tutela e sicurezza nei luoghi di lavoro?
L’impatto sul lavoro dei sistemi di AI lo si può guardare da più punti di vista, a seconda che l’AI sia uno strumento di esercizio dei poteri e delle prerogative datoriali oppure uno strumento per l’esecuzione della prestazione. O ancora, se guardiamo all’AI come un dispositivo per la protezione, individuale o collettiva, dove ci possono essere delle evidenti positività. Se guardiamo ai rischi per la salute e sicurezza, dobbiamo comunque concentrarci su due aspetti principali: uno è quello che riguarda i rischi di natura psicosociale, e organizzativa; e qui, si sottolinea spesso come l’intermediazione dell’AI, che può raggiungere dei livelli di autonomia molto spinti, ponga il tema della garanzia del controllo umano. E questo viene, non a caso, rimarcato anche nell’AI Act europeo. È importante che l’utilizzo dell’AI non impatti troppo negativamente sul profilo dell’integrità morale e psichica della persona che lavora, andando a creare un effetto di particolare stress e ansia. Abbiamo sicuramente parametri di riferimento nelle norme, ma dobbiamo aspettarci che altri ne escano fuori, magari dalla giurisprudenza. Il punto è la garanzia del controllo umano a presidio anzitutto della dignità della persona.
L’AI Act in che misura può aiutarci?
In realtà non affronta tutte le problematiche lavoristiche e, men che meno, tutte quelle che riguardano la salute e sicurezza sul lavoro poste dall’AI. E questo per due ragioni: perché si tratta di questioni complesse, di frontiera e, secondo, l’AI Act nasce per regolare il mercato europeo dei prodotti che sono basati su sistemi di AI e non per regolare le politiche sociali europee. È una norma di prodotto, quindi. Certo, si pone delle problematiche relative proprio alla sicurezza delle attrezzature e dei sistemi di AI che vengono venduti, prodotti, progettati, noleggiati, immessi nel mercato europeo individuando alcuni obblighi, doveri e responsabilità in capo ai produttori e agli utilizzatori, e imponendo una serie di valutazioni dei rischi di impatto sui diritti delle persone e quindi evidentemente anche dei lavoratori. È una disciplina basata sul risk assesment, anche se non ritagliata sulla tutela dei lavoratori.
Quindi, per il momento, nell’affrontare l’impatto dell’AI sul lavoro dobbiamo rifarci al Regolamento Macchine.
In base al Regolamento Macchine, che riguarda la sicurezza delle attrezzature da lavoro, i sistemi di AI devono essere classificati in base al livello di autonomia e in base al livello di rischio. Tanto più il sistema di AI è autonomo e tanto più è rischioso, perché le conseguenze del suo agire potrebbero non essere prevedibili. È una macchina nella misura in cui riusciamo a governarne e valutarne preventivamente i rischi e le conseguenze. E su questo la normativa pone dei vincoli precisi.
Non c’è il rischio che in assenza di normative specifiche a decidere saranno le sentenze?
Dal punto di vista specifico di salute e sicurezza abbiamo bisogno certamente di armonizzare l’apparato normativo nazionale, che già ci consente di fare una valutazione. È certo però, come accade in molti ambiti di frontiera, che la giurisprudenza intervenga per prima e poi arrivi la norma. Da quello che mi risulta, si sta muovendo qualcosa in ambito istituzionale proprio sull’AI.