L’8 e il 9 giugno i cittadini saranno chiamati ad esprimere il loro voto sui cinque referendum abrogativi in materia di lavoro e cittadinanza promossi dalla CGIL a luglio 2024.
Dopo aver superato il vaglio della Corte di Cassazione a dicembre 2024, a febbraio di quest’anno le richieste referendarie hanno, infatti, avuto luce verde anche dalla Corte costituzionale che le ha ritenute conformi alle disposizioni di legge e ne ha dichiarato l’ammissibilità.
Dei cinque quesiti referendari, i quattro in materia di lavoro riguardano, in particolare:
Il primo quesito referendario ha ad oggetto l’abrogazione, nella sua interezza, del D.Lgs. n. 23/2015 – probabilmente il più significativo degli otto decreti attuativi del Jobs Act – che, dieci anni fa, ha introdotto nel nostro ordinamento il sistema delle c.d. “tutele crescenti” per regolare le conseguenze sanzionatorie dei licenziamenti illegittimi per i lavoratori assunti dopo il 7 marzo 2015.
Secondo i promotori del referendum, con l’abrogazione del D.Lgs. n. 23/2015 e la conseguente riespansione della disciplina (significativamente modificata dalla L. n. 92/2012) di cui all’art. 18 L. n. 300/1970, sarebbe, non solo, ricondotta a unità la disciplina sanzionatoria dei licenziamenti illegittimi, ma risulterebbe, altresì, rafforzata la tutela dei lavoratori.
Nonostante il forte peso politico e l’indubbio rilievo mediatico, l’eventuale approvazione di tale quesito referendario sembra, tuttavia, destinata ad avere un impatto più che altro simbolico.
Deve, infatti, ricordarsi che il sistema rimediale originariamente previsto dal D.Lgs. n. 23/2015, caratterizzato, da un lato, dalla limitazione della tutela reintegratoria e, dall’altro, dall’automatica determinazione dell’indennità risarcitoria dovuta in caso di licenziamento illegittimo, sulla base di una formula matematica parametrata all’anzianità di servizio del lavoratore, è stato nel tempo progressivamente smontato da diversi interventi “correttivi” della Corte costituzionale che hanno, di fatto, reintrodotto un sistema sanzionatorio incentrato sulla discrezionalità del giudice e sull’imprevedibilità delle sanzioni, definendo, peraltro, un meccanismo di tutele per alcuni versi persino più favorevole per il lavoratore rispetto a quelle previste dall’art.18 L. n. 300/1970 (ove l’indennità economica è limitata a 24 mensilità, contro le 36 previste dal D.Lgs. n. 23/2015).
È, inoltre, il caso di precisare che per alcune ipotesi di invalidità del licenziamento l’approvazione del quesito abrogativo comporterebbe, addirittura, un arretramento di tutela.
In particolare, nel caso di licenziamento intimato al lavoratore assente per malattia o infortunio prima del superamento del cosiddetto periodo di comporto, oppure intimato per disabilità fisica o psichica a un lavoratore che non versava in realtà in tale condizione, si passerebbe dalla tutela reintegratoria “piena” garantita – anche all’esito della sentenza della Corte costituzionale n. 22/2024 – dall’art. 2, D.Lgs. n. 23/2015, a quella “attenuata” prevista dall’art. 18, L. n. 300/1970. Al proposito, è utile ricordare che in entrambi i casi di reintegrazione (piena e attenuata) il lavoratore ha diritto alla reintegrazione nel posto di lavoro e al pagamento di un’indennità economica commisurata alle retribuzioni medio tempore maturate (dalla data del licenziamento sino alla data di effettiva reintegrazione). Tuttavia, mentre nell’ipotesi di reintegrazione piena tale indennità non ha un tetto massimo e non può, in ogni caso, essere inferiore a 5 mensilità, in caso di reintegrazione attenuata, non solo non c’è la garanzia del limite minimo, ma è, altresì, previsto un tetto massimo di 12 mensilità al risarcimento.
Parimenti, si avrebbe un arretramento di tutela per i licenziamenti intimati dalle c.d. organizzazioni di tendenza (datori di lavoro non imprenditori, che svolgono senza fine di lucro attività di natura politica, sindacale, culturale, di istruzione ovvero di religione o di culto), esclusi dal campo di applicazione dell’art. 18, L. n. 300/1970, ai quali, invece, si applica la disciplina dettata dal D.Lgs. n. 23/2015 (e, dunque, potenzialmente anche la tutela reintegratoria).
Il secondo quesito referendario in materia di licenziamento, mira, invece, ad eliminare il tetto massimo di 6 mensilità (elevabile fino a 10 e 14 mensilità in caso di lavoratori con anzianità di servizio superiore, rispettivamente, a dieci o vent’anni) previsto, dall’art. 8, L. n. 604/1966, all’indennità risarcitoria in caso di licenziamento illegittimo nelle imprese fino a 15 dipendenti.
Ad avviso dei promotori del referendum, grazie all’ampliamento della tutela indennitaria i datori di lavoro verrebbero dissuasi dal ricorso a “facili licenziamenti” e contestualmente, verrebbe restituita dignità e tutela rafforzata ai lavoratori che operano in imprese di dimensioni più contenute, ma non per questo necessariamente più deboli dal punto di vista economico.
Tuttavia, sono molti i commentatori che – condivisibilmente – hanno manifestato non poche perplessità riguardo alle conseguenze dell’accoglimento di tale quesito.
A fronte della rimozione del limite massimo dell’indennità da licenziamento illegittimo, in particolare, l’indennizzo potrebbe essere non solo più alto, ma, in teoria, potenzialmente, senza limiti e addirittura – paradossalmente! –, persino superiore a quello previsto per i licenziamenti irrogati da imprese di grandi dimensioni. In un eventuale contenzioso, infatti, in assenza di un tetto massimo, la quantificazione del risarcimento sarebbe totalmente rimessa alla discrezionalità del giudice e, pertanto, potrebbe andare anche oltre il limite di 24 mensilità previsto dall’art. 18, L. n. 300/1970 per le imprese con più di 15 dipendenti. Vero è, comunque, che, in concreto, quantificazioni del risarcimento “fuori controllo” dovrebbero trovare un argine nella (corretta) applicazione da parte dei giudici dei criteri di determinazione dell’indennità previsti dallo stesso art. 8, L. n. 604/1966 (numero dei dipendenti occupati, dimensioni dell’impresa, anzianità di servizio del prestatore di lavoro, comportamento e condizioni delle parti).
Il terzo quesito attiene ai contratti di lavoro a tempo determinato ed è formulato nei termini di un’alternativa secca: da un lato, abrogare le disposizioni vigenti, con conseguente estensione ai rapporti di lavoro di durata infrannuale dell’obbligo di giustificazione dell’apposizione del termine oggi sussistente per la stipulazione di contratti di lavoro di durata superiore all’anno e il necessario riferimento, per tutti i contratti a termine, alle sole cause giustificative previste dalla legge o dai contratti collettivi; dall’altro, conservare la normativa vigente che, all’opposto, ne liberalizza l’impiego per periodi inferiori a 12 mesi.
Continua a leggere la versione integrale pubblicata su The Platform.
L’implementazione di sistemi IA in ambito lavorativo solleva preoccupazioni sulla discriminazione indiretta. I tribunali italiani evidenziano come gli algoritmi possano perpetuare pregiudizi esistenti, compromettendo i diritti fondamentali dei lavoratori.
L’introduzione di sistemi basati sull’intelligenza artificiale (IA) nei contesti lavorativi sta rivoluzionando i processi aziendali, consentendo alle imprese di ottenere significativi vantaggi in termini di efficienza, precisione e produttività, anche nella gestione e organizzazione della propria forza lavoro.
L’adozione di tali strumenti, tuttavia, pone diverse questioni critiche, e deve misurarsi necessariamente con il rispetto del principio di non discriminazione in ambito lavorativo.
Questo principio, come noto, tutela i lavoratori contro ogni forma di discriminazione, sia diretta che indiretta, basata su genere, razza o origine etnica, religione, disabilità, età, adesione ad associazioni sindacali, partecipazione a scioperi, e così via. Si tratta di una tutela che si estende a ogni fase del rapporto di lavoro, a partire dall’accesso all’occupazione, fino alla gestione del rapporto stesso, incluse le condizioni di lavoro, l’avanzamento di carriera, la retribuzione e finanche le modalità di cessazione del rapporto di lavoro.
Il problema è cruciale in quanto gli algoritmi su cui si fondano i sistemi di IA, soprattutto se appartenenti al tipo “machine learning”, si basano sull’analisi di grandi quantità di dati per apprendere e assumere decisioni. Se però i dati utilizzati per il loro addestramento o funzionamento contengono pregiudizi di natura storica, statistica o sociale, l’algoritmo potrebbe replicarli, mettendo così a rischio i diritti fondamentali dei lavoratori.
Si tratta di una criticità evidenziata anche nel nuovo Regolamento Europeo n. 2024/1689, cd. “AI Act”, che entrerà in vigore dal prossimo 2 agosto 2026. In particolare, al considerando 31 del Regolamento il legislatore Europeo sottolinea che i sistemi di IA che permettono “di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all’esclusione di determinati gruppi” evidenziando, inoltre, come gli stessi sistemi possano “ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia”.
In Italia sono già diverse pronunce giurisprudenziali che hanno affrontato la problematica sotto diverse angolazioni, mettendo in luce i rischi connessi all’uso di algoritmi e sistemi decisionali nella gestione della forza lavoro.
In particolare, il Tribunale di Palermo, con una sentenza del 17 novembre 2023, ha accertato la natura discriminatoria del sistema di valutazione di eccellenza utilizzato da una nota società di consegne a domicilio per l’assegnazione degli incarichi ai suoi corrieri.
La piattaforma utilizzata dalla società si basava, infatti, su un sistema noto come “punteggio di eccellenza” che premiava i corrieri più produttivi, ossia che effettuavano il maggior numero di consegne, e più affidabili, in quanto disponibili a lavorare assiduamente nelle fasce orarie ad alta richiesta, ossia negli orari serali o durante i giorni festivi, garantendo loro un accesso prioritario alla scelta della collocazione delle successive prestazioni.
Si veniva così a creare, però, una disparità di trattamento significativa rispetto ai lavoratori che non potevano soddisfare tali requisiti.
Continua a leggere la versione integrale pubblicata su Agenda Digitale.
Il 30 novembre Alberto De Luca parteciperà all’l’Italian Insurtech Summit e sarà relatore all’interno del panel “Insurtech: c’è carenza di talenti?”
Il panel si focalizzerà sulla situazione dei talenti nel settore dell’insurtech, focalizzandosi sulla possibile carenza di competenze e sulle strategie per affrontare questa sfida.
Il panel esplorerà le dinamiche del talento nell’insurtech e cercherà soluzioni pratiche per garantire una forza lavoro qualificata e preparata per le sfide del futuro.
Argomenti di discussione:
Il panel mira a offrire una prospettiva approfondita sulla questione della carenza di talenti nell’insurtech, fornendo spunti pratici e soluzioni per affrontare questa challenge in modo efficace.
Gli esperti condivideranno le loro esperienze, offrendo insight preziosi su come garantire che il settore dell’insurtech sia dotato delle competenze necessarie per prosperare nell’era digitale.
A questo link tutte le informazioni sul panel: Insurtech: c’è carenza di talenti? | IIA – Italian Insurtech Association (insurtechitaly.com)
1. RIVOLUZIONE DIGITALE E DIRITTO
L’emersione di tecnologie caratterizzate dall’impiego di sistemi di intelligenza artificiale ha inaugurato una nuova stagione di dibattito in merito alle principali questioni etiche, sociali e giuridiche attorno all’impiego di tali tecnologie e alle relative conseguenze.
Le odierne tecnologie – incidendo sempre più sulla società e sui costumi – sollevano infatti il problema della elaborazione di strumenti di tutela dei diritti fondamentali, della sicurezza e della protezione dai dati e ciò al fine di assicurare che il progresso tecnologico si svolga in armonia con le esigenze di tutela individuali e collettive, nel rispetto di una dimensione antropocentrica.
Risulta infatti evidente che lo sviluppo di algoritmi di nuova generazione e di tecniche sempre più sofisticate di trattamento automatizzato dei dati offre nuove opportunità ma, allo stesso tempo, pone complesse sfide che investono pressoché ogni area del diritto.
Il diritto del lavoro non è immune da tale profonda trasformazione che impone un continuo adattamento rispetto alle nuove istanze provenienti dall’esperienza concreta. Si è osservato, in proposito, come questo renda il diritto del lavoro «un diritto necessariamente dinamico avendo alla propria base il contratto di lavoro connesso funzionalmente alle organizzazioni produttive e strutturato in modo che i contenuti del rapporto di lavoro si modifichino in funzione dei mutamenti organizzativi e produttivi».
Uno dei fattori di mutamento dell’organizzazione e dello svolgimento della prestazione lavorativa è senz’altro rappresentato da quella particolare branca dell’informatica denominata intelligenza artificiale (codificato ormai come I.A. o, con il corrispondente acronimo inglese, A.I.).
2. L’INTELLIGENZA ARTIFICIALE NELLA GESTIONE DEL RAPPORTO DI LAVORO
Con il preciso fine di mettere a fuoco le infinite sfaccettature e le molteplici applicazioni del fenomeno, si sono succedute nel tempo molte definizioni di I.A. Particolarmente interessante, data la sua provenienza, è la definizione di Intelligenza Artificiale fornita dalla Commissione Europea nella Proposta di Regolamento del Parlamento Europeo e del Consiglio dell’aprile 2021 che stabilisce regole armonizzate sull’intelligenza artificiale (I.A. Act).
La Proposta di Regolamento, all’art. 3, definisce il “sistema di intelligenza artificiale” come “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti (sistemi di IA generativi), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”.
Funzione specifica del Regolamento, nei termini formulati dalla Proposta, è quella di fissare i requisiti specifici dei sistemi di I.A. e gli obblighi cui deve sottostare chi immette sul mercato questo tipo di prodotti, fino all’utilizzatore, al fine di assicurare che i sistemi di I.A. immessi sul mercato e utilizzati siano sicuri e rispettino i diritti fondamentali e i valori dell’Unione.
Le relative disposizioni si basano su una gradazione del livello potenziale di incidenza dei sistemi sulla collettività, con particolare attenzione alle applicazioni dell’I.A. formalmente qualificabili “ad alto rischio” (ovvero che hanno “un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell’Unione”.
Per quanto qui di interesse, si rileva che l’A.I. Act qualifica, tra l’altro, come “sistemi ad alto rischio” quelli utilizzati “nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo, in particolare per l’assunzione e la selezione delle persone, per l’adozione di decisioni in materia di promozione e cessazione del rapporto di lavoro, nonché per l’assegnazione dei compiti, per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro”.
Tale classificazione deriva dal fatto che “tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento”.
2.1 INTELLIGENZA ARTIFICIALE NELLA FASE DI RECRUITING
Già nella fase prodromica del rapporto lavorativo, l’I.A. sta acquisendo una sempre maggiore importanza: grande sviluppo sta, infatti, avendo l’algorithmic hiring, inteso quale procedura di selezione del personale integralmente o parzialmente affidata ad algoritmi.
La percezione diffusa è che tali procedure automatizzate siano più rapide, affidabili ed economiche rispetto alle selezioni “canoniche”, consentendo di individuare efficacemente le caratteristiche e le attitudini personali dei candidati tramite l’analisi di una grande mole di dati raccolti durante le interviste virtuali.
Se da un lato l’I.A. rappresenta una grande opportunità, dall’altro, quando non è adeguatamente controllata, può essere influenzata da una problematica insidiosa, ovverosia il pregiudizio umano che si riflette inevitabilmente sugli algoritmi. Richiamando l’A.I. Act sopra citato, sono infatti considerati ad “Alto Rischio”:
Con riferimento ai rischi connessi all’utilizzo dell’intelligenza artificiale nel contesto lavorativo, è stato infatti rilevato che “durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre incidere sui loro diritti in materia di protezione dei dati e vita privata”.
In base alle modalità di costruzione del software, anche l’azienda che non abbia finalità discriminatorie, potrebbe inconsapevolmente introdurre c.d. bias nel processo di trattamento, che, con un effetto a catena, condizionerebbero gli esiti del processo, con effetti discriminatori.
Ciò in quanto i software, per quanto possano essere artificialmente intelligenti, vengono comunque programmati da esseri umani e risentono quindi delle dinamiche giudicanti dei loro stessi programmatori.
A ciò aggiungasi che i dati inseriti nei software rimangono memorizzati all’interno del programma condizionando le analisi predittive future che risulteranno influenzate da dati non aggiornati.
Interessante ricordare, a tal proposito, il noto caso di Amazon.
Il famoso colosso statunitense aveva sviluppato un programma sperimentale di talent finding automatizzato con lo scopo di valutare i candidati secondo una scala di punteggio graduale. Tuttavia, con specifico riferimento a ruoli IT, il sistema non selezionava le candidature in modo neutrale rispetto al genere: le figure femminili venivano escluse automaticamente. La ragione era dovuta al fatto che il software si basava su dati raccolti negli ultimi 10 anni e la maggior parte delle risorse assunte in tale arco temporale in ambito informatico erano, appunto, di genere maschile.
Gli algoritmi hanno quindi individuato e messo in luce i pregiudizi dei loro stessi creatori, dimostrando così che l’addestramento dei sistemi automatizzati su dati imparziali porta a future decisioni non neutrali.
Il caso di Amazon offre un interessante spunto di riflessione sui limiti dell’apprendimento dell’Intelligenza Artificiale e su quanto i c.d. bias umani possano riflettersi sui sistemi automatici, condizionandone gli algoritmi.
2.2 POTERE DIRETTIVO ATTRAVERSO L’ALGORITHMIC MANAGEMENT
Oltre alla fase pre-assuntiva, i sistemi di I.A rappresentano un fattore importante altresì nell’organizzazione del lavoro: si pensi, ad esempio, ai sistemi per la gestione della logistica nei magazzini nonché alle piattaforme utilizzate per la gestione dei riders.
In questi settori, le decisioni in merito alla migliore gestione delle attività e delle risorse umane è sempre più spesso demandata ad algoritmi, in grado di analizzare un’infinita quantità di dati e di individuare la soluzione gestionale ed organizzativa più efficace: algoritmi che determinano l’assegnazione di mansioni in base a determinati parametri, sistemi automatizzati di monitoraggio, sistemi di geolocalizzazione che prevedano segnalazioni o interventi automatici in caso di pericolo.
In tale contesto lavorativo in rapida evoluzione, l’Unione Europea ha sottolineato l’esigenza che i lavoratori siano pienamente e tempestivamente informati in merito alle condizioni essenziali del loro lavoro.
Al fine di garantire al lavoratore e alle organizzazioni sindacali una conoscenza dei sistemi digitali nelle singole organizzazioni imprenditoriali, il legislatore, recependo nell’ordinamento interno la Direttiva (UE) 2019/1152 relativa a condizioni di lavoro trasparenti e prevedibili, ha introdotto a carico del datore di lavoro un obbligo di informativa relativo al caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati (art. 1-bis del D.lgs. n. 152/1997 introdotto dal c.d. Decreto Trasparenza, D.Lgs. 104/2022).
Lo scopo della novella legislativa è stato quello, come si evince dalla lettura delle premesse e dell’art. 1 della Direttiva UE, di «migliorare le condizioni di lavoro promuovendo un’occupazione più trasparente e prevedibile, pur garantendo nel contempo l’adattabilità del mercato del lavoro».
Una traduzione in termini pratici di un linguaggio a tratti ostico è che il lavoratore deve poter conoscere se si usano le tecniche automatizzate, se il datore di lavoro si avvale di decisioni algoritmiche e simili; inoltre, il lavoratore ha diritto di sapere come tali tecniche funzionano, quale ne sia la logica e quale gli impatti, anche in termini di rischi per la sicurezza dei dati personali.
Da una lettura combinata dell’art. 1, co. 1, lett. s) e dell’art. 1-bis, co. 1 del D.lgs. 152/1997, si evince che la predisposizione di tale specifica informativa è richiesta nel caso in cui le modalità di esecuzione della prestazione dei lavoratori siano organizzate tramite l’utilizzo di sistemi decisionali e/o di monitoraggio automatizzati, destinati a «fornire indicazioni rilevanti ai fini dell’assunzione o del conferimento dell’incarico della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavoratori».
La portata della norma contenuta nell’art. 1-bis del Decreto Trasparenza ha creato dubbi interpretativi e difficoltà applicative relativi all’individuazione di quali sistemi fossero da includere tra quelli soggetti a tale ulteriore informativa da distinguersi dagli strumenti di controllo a distanza, rispetto ai quali gli obblighi informativi sono viceversa regolati, come ampiamente noto, dall’art. 4 della L. n. 300/1970, ossia da una disposizione fatta espressamente salva dalla novella e che sembra mantenere un suo grado di autonomia.
Con riferimento alle tipologie di strumenti da intendersi quali sistemi automatizzati, la Circolare del Ministero del Lavoro e delle Politiche Sociali n. 19/2022 ha tentato di fornire alcune precisazioni sulle novità introdotte dal D.lgs. 104/2022. In particolare, la Circolare ha escluso l’obbligo informativo nel caso di utilizzo di badge, ovvero di strumenti automatizzati per la rilevazione delle presenze dei dipendenti in entrata o in uscita, sempre che tale registrazione non generi automaticamente una decisione datoriale, mentre, a titolo puramente esemplificativo ma non esaustivo, ha previsto tale obbligo nel caso di utilizzo di sistemi automatizzati di gestione dei turni, di determinazione della retribuzione, di tablet, GPS, wearables e altro.
Continua a leggere la versione integrale pubblicata su Guida al lavoro de Il Sole 24 Ore.
La massima
“Nella situazione tragica in cui il Paese e il mondo intero si sono trovati a causa dell’epidemia da Covid-19, l’imposizione ai lavoratori dell’utilizzo della mascherina da parte [del datore di lavoro], affermata nel Protocollo condiviso con le OOSS, non è certo misura irrazionale o eccessivamente gravosa, ma risponde pienamente al dovere datoriale di tutelare al meglio i propri dipendenti”. Il comportamento del lavoratore che rifiuti di indossare la mascherina in occasione di una riunione aziendale appare quindi del tutto ingiustificato ed è legittima la conseguente sanzione disciplinare della sospensione dal lavoro e dalla retribuzione irrogata dal datore di lavoro.
Come è noto, l’art 2087 del Codice Civile, impone in capo al datore di lavoro l’obbligo di “adottare nell’esercizio dell’impresa le misure che, secondo la particolarità del lavoro, l’esperienza e la tecnica, sono necessarie a tutelare l’integrità fisica e la personalità morale dei prestatori di lavoro”.
Nel contesto emergenziale, dovuto alla diffusione del virus Covid-19, come noto, il Decreto Legge Cura Italia, ha equiparato l’infezione da Covid-19 contratta in occasione di lavoro ad infortunio, rendendo ancor più gravoso l’onere del datore di lavoro di garantire l’osservanza da parte dei lavoratori delle misure introdotte in azienda a tutela della salute e sicurezza degli stessi.
Come noto, nel contesto emergenziale, Governo e Parti Sociali hanno sottoscritto, dapprima in data 14 marzo 2020 il “Protocollo condiviso di regolazione delle misure per il contrasto e il contenimento della diffusione del virus Covid-19 negli ambienti di lavoro”, successivamente aggiornato dal Protocollo del 24 aprile 2020 e, da ultimo, in data 6 aprile 2021 mediante la sottoscrizione del “Protocollo condiviso di aggiornamento delle misure per il contenimento della diffusione del virus SARS-Co V-2/COVID-19 negli ambienti di lavoro”.
Tra le misure di sicurezza previste dalla normativa emergenziale, rientra a pieno titolo, l’obbligo del datore di lavoro di fornire ai lavoratori mascherine chirurgiche, il cui utilizzo, in tutti i casi di condivisione degli ambienti di lavoro, al chiuso o all’aperto, risulta obbligatorio.
Accanto ai doveri imposti in capo al datore di lavoro dalla normativa vigente in materia di salute e sicurezza, si affianca tuttavia un vero e proprio obbligo di cooperazione da parte del lavoratore nell’adempimento delle misure predisposte dal datore di lavoro a tutela della salute e sicurezza sui luoghi di lavoro, così come previsto dall’Art. 20 del T.U. in materia di salute e sicurezza.
Continua a leggere la versione integrale pubblicata su Guida al Lavoro de Il Sole 24 Ore.