Categorie: Insights, Pubblicazioni · News, Pubblicazioni

Tag: IA, Intelligenza Artificiale


7 Apr 2025

Come gestire l’intelligenza artificiale in azienda: guida per dirigenti (Agenda Digitale – 4 aprile 2025, Martina De Angeli)

L’intelligenza artificiale in azienda comporta rischi relativi alla sicurezza dei dati e alla protezione del know-how. Le organizzazioni necessitano di policy adeguate per garantire un utilizzo etico e conforme alla normativa

Quando un dipendente ricorre a sistemi di intelligenza artificiale – spesso generativa – per svolgere le proprie attività lavorative potrebbe, in maniera più o meno consapevole, condividere con soggetti esterni, e quindi non autorizzati, know-how aziendale e informazioni personali.

Intelligenza artificiale in azienda: definizione e diffusione

Vale, innanzitutto, la pena precisare che l’Intelligenza Artificiale generativa è una tipologia di tecnologia che impara dai contenuti esistenti per generarne di nuovi in base alle specifiche richieste del suo interlocutore (umano).

Negli ultimi anni, l’I.A. generativa è entrata nel quotidiano e il mondo del lavoro non ne è stato esente. Accade infatti con sempre maggior frequenza che i lavoratori utilizzino tali tecnologie per portare a termine le proprie attività e nel farlo immettano nei sistemi informazioni aziendali, anche sensibili, know-how aziendale ovvero dati personali e particolari. Spesso le aziende non sono informate o non sono consapevoli di tali pratiche e rischiano di essere esposte a importanti rischi – anche dal punto di vista della cybersicurezza – senza neppure esserne coscienti.

I rischi dell’intelligenza artificiale in azienda, spiegati dall’IA

Nel tentativo di rispondere a questo quesito, abbiamo voluto interpellare una delle parti direttamente coinvolte. Di seguito, per punti, i principali red flag legati all’adozione di I.A. generativa che lei stessa ci ha segnalato.

Secondo l’I.A., acconsentire a che i lavoratori utilizzino queste tecnologie potrebbe comportare per una società:

  • problematiche connesse alla governance e alla gestione della sicurezza informatica;
  • violazioni delle norme in materia di protezione dei dati personali;
  • commissione di comportamenti discriminatori derivanti dai pregiudizi (bias) contenuti nei dati con cui è stata addestrata;
  • eccessiva dipendenza dei lavoratori all’intelligenza artificiale che, nei casi più gravi, potrebbe causare un pericolo di riduzione delle capacità decisionali e critiche tipiche dell’essere umano.

Tutti spunti interessanti ai quali non si può non aggiungere anche il rischio di divulgazione di know-how aziendale e quindi di dispersione di informazioni sensibili per una azienda.

Protezione dell’azienda nell’era dell’intelligenza artificiale

Da queste brevi considerazioni, sorge spontaneo domandarsi come una società possa quindi proteggersi da tutti i rischi connessi ad un uso generalizzato, diffuso e non controllato dell’I.A. generativa da parte dei lavoratori.

In uno scenario che può intimorire e creare scetticismo, certamente la soluzione non può essere quella di impedire l’utilizzo di tali tecnologie che, al contrario, rappresentano sempre più un elemento per rimanere competitivi e contribuiscono allo sviluppo dell’azienda ma anche alla crescita delle sue risorse (umane).

Fondamentale diventa quindi imparare a farne un uso etico e consapevole.

Linee guida per l’intelligenza artificiale in azienda

  • È fondamentale non permettere che i dipendenti ricorrano all’I.A. senza regolamentarne internamente l’utilizzo e fornire loro specifici training, linee guida e best practices. Investire in formazione, in sistemi di sicurezza solidi e in politiche di gestione del cambiamento per garantire che l’adozione dell’I.A. porti vantaggi reali senza però compromettere la sicurezza, l’integrità o la cultura aziendale è una esigenza di primaria importanza.

Continua a leggere la versione integrale pubblicata su Agenda Digitale.

Iscriviti alla newsletter

Contattaci

Hai bisogno di informazioni? Scrivici e il nostro team di esperti ti risponderà il prima possibile.

Compila il form

Altre news e insights

3 Mar 2026

Controllo dei dipendenti: quando il “bossware” diventa un rischio legale (Agenda Digitale, 2 marzo 2026 – Martina De Angeli)

Il monitoraggio dei lavoratori attraverso strumenti digitali è una pratica in rapida espansione, accelerata dalla diffusione del lavoro da remoto e dalla trasformazione digitale delle imprese. Prima di…

3 Mar 2026

Melismelis firma la campagna per i 50 anni di De Luca & Partners

Per lo storico studio legale di giuslavoristi, l’agenzia ha sviluppato il logo dei 50 anni e la campagna adv, ha gestito la pianificazione media on e off-line e rinnovato l’identità visiva del sito web.   Milano, 3 marzo 2026 – De…

27 Feb 2026

Licenziamenti: dalla Corte costituzionale più spazio al giudice e alla reintegrazione (I Focus del Sole 24 Ore, 26 febbraio 2026 – Vittorio De Luca e Alessandra Zilla)

La disciplina dei licenziamenti continua a rappresentare uno dei nodi centrali del diritto del lavoro italiano, terreno di costante tensione tra libertà di iniziativa economica e tutela della…

27 Feb 2026

Il “food delivery” nuovamente al centro delle attività ispettive (Norme & Tributi Plus Diritto de Il Sole 24 Ore, 17 febbraio 2026 – Vittorio De Luca e Alessandro Ferrari)

È recente la notizia che uno dei più importanti player del “food delivery” in Italia è stato sottoposto acontrollo giudiziario, disposto con decreto d’urgenza del pubblico ministero –…

26 Feb 2026

Vittorio De Luca al Welfare & HR Summit 2026

Il 25 febbraio 2026 Vittorio De Luca ha partecipato alla sesta edizione del Welfare & HR Summit de Il Sole 24 Ore, in particolare, il nostro managing partner,…

26 Feb 2026

Corte di Cassazione: il DVR come presupposto di legittimità della somministrazione.

Corte di Cassazione: il DVR come presupposto di legittimità della somministrazione. La mancanza di una valutazione dei rischi concreta e puntuale, formalizzata in un Documento di valutazione dei…