Intelligenza artificiale e rischi penali in azienda. Al via il progetto pilota di Bortolotto e Ricchetti

Nel tessuto sempre più intricato dei luoghi di lavoro moderni, un protagonista silenzioso ma potente sta emergendo: l’intelligenza artificiale (IA). Dagli uffici alle fabbriche, passando per il settore dei servizi, gli strumenti di IA stanno rivoluzionando la dinamica lavorativa in modi mai visti prima. Questa trasformazione, alimentata dalla ricerca dell’efficienza e della produttività, non sta unicamente ridefinendo non solo le aspettative sui compiti, sulle interazioni umane e sul futuro stesso dell’occupazione. Sta, allo stesso tempo, aumentando i rischi derivanti dall’integrazione delle nuove tecnologie sul luogo di lavoro.

Tra i pericoli più significativi rientrano quelli di natura legale e penale che possono insorgere quando le organizzazioni implementano strumenti di IA senza rispettare adeguatamente le normative e ottenere le necessarie autorizzazioni. Uno di questi rischi è rappresentato, per esempio, dall’uso non autorizzato di informazioni sensibili delle aziende: l’intelligenza artificiale richiede un vasto flusso di dati per apprendere e operare in modo efficace; tuttavia, l’inserimento di dati aziendali sensibili senza il dovuto consenso o senza le adeguate misure di sicurezza potrebbe esporre l’organizzazione a gravi violazioni della privacy e delle normative sulla protezione dei dati.

Non solo. Un rischio derivante dall’uso scorretto delle tecnologie è che vengano prodotti dei dati che, sebbene generati internamente, potrebbero non essere completamente utilizzabili o distribuibili senza violare accordi di proprietà intellettuale con terze parti. Il che potrebbe creare conflitti legali e compromettere la fiducia tra aziende e fornitori di tecnologia, ostacolando ulteriormente l’adozione di soluzioni basate sull’IA.

«Spesso diamo per scontato che quello che fa l’IA sia sempre giusto e lecito, ma non è così. Non si capisce da dove arrivi questa convinzione. Stiamo avendo a che fare con tantissimi reati con impossibilità di identificazione della fonte solo perché non si sa ancora come usare le tecnologie», ha spiegato a Inhousecommunity Maurizio Bortolotto, founding partner di Gebbia Bortolotto Penalisti Associati. Insieme a Claudia Ricchetti, general counsel della casa di moda Salvatore Ferragamo, Bortolotto ha di recente dato avvio a un progetto pilota che riguarda esattamente l’uso scorretto dell’IA e i rischi penali che da questo derivano.

«Il lavoro che vogliamo fare parte da una mappatura dei sistemi IA utilizzati in azienda al fine di valutare eventuali gap sotto il profilo della compliance aziendale. Un lavoro complesso ma sicuramente molto innovativo, che tocca i temi della cyber security, della IP, della sicurezza sul lavoro, ma anche delle discriminazioni sociali esistenti nelle macchine che utilizziamo in ufficio», ha affermato Ricchetti, aggiungendo: «Abbiamo a che fare con un vuoto normativo. E, per anticipare l’intervento legislativo che colmerà questo gap, ci siamo voluti portare avanti, avviando un progetto mai realizzato prima e focalizzato proprio sulla necessità di valutare non i benefici dell’uso dell’IA per un miglioramento e una maggiore efficienza sul lavoro, bensì i rischi».

Insomma, mentre l’intelligenza artificiale offre opportunità straordinarie, è fondamentale che le imprese affrontino con attenzione i rischi giuridici ed etici associati al suo utilizzo. In questo modo, la sua integrazione nei luoghi di lavoro potrà risultare responsabile e conforme alla normativa vigente.

Il primo obiettivo del progetto dei due avvocati è quello di rispondere alla seguente domanda: qual è, oggi, il livello di conoscenza medio sui i pericoli penali legati all’utilizzo delle nuove tecnologie?

«Per capirlo – ha concluso Bortolotto – somministreremo alle aziende un questionario con diverse domande (a crocette ma anche aperte). Studieremo le risposte e riusciremo quindi a comprendere il livello di consapevolezza dei professionisti. L’idea è quella di produrre nei prossimi mesi delle linee guida di utilizzo dei sistemi di IA, permettendo così ai lavoratori di capire quali sono utilizzabili sui device aziendali e quali invece non lo sono».

michela.cannovale@lcpublishinggroup.com

SHARE