Tra le promesse rivoluzionarie dell’intelligenza artificiale, emerge un vero e proprio dilemma shakespeariano, ricco di potenzialità straordinarie e complessi interrogativi etici. Se da un lato le aziende vogliono sfruttare al massimo i vantaggi che l’IA può offrire, dall’altro è necessario garantire un comportamento etico. Con l’approvazione dell’AI Act lo scorso 13 marzo (la legge entrerà in vigore non prima di due anni), l’UE ha tracciato una nuova strada, stabilendo regole vincolanti in tema di trasparenza, etica e altri aspetti cruciali. Un atto legislativo storico che riconferma la capacità dell’Unione europea di guardare al futuro e di essere un esempio – come peraltro è già successo sul fronte della sostenibilità – normando un utilizzo responsabile e sicuro di queste tecnologie. Abbiamo voluto approfondire il tema ponendo un paio di domande a Leo Pillon, CEO di Fortitude Group, azienda italiana innovativa, che aggrega competenze e metodologie all’avanguardia per aiutare le imprese ad affrontare le sfide dell’evoluzione digitale.
Il nuovo scenario che va profilandosi pone domande cruciali sulla capacità del tessuto produttivo italiano di adattarsi: quali sono le maggiori sfide da superare?
«Siamo alle soglie di un cambiamento epocale nel nostro rapporto con la tecnologia e il lavoro. L’IA è la forza abilitante di quella che potrà essere una nuova rivoluzione industriale, ed è imperativo equipaggiarsi al meglio per mantenere la competitività e rispondere alle nuove esigenze di business. Il dispositivo disciplinare promosso dall’UE rende palese la necessità da parte delle aziende di monitorare in maniera puntuale la produzione e l’utilizzo dei modelli di IA, nonché la loro affidabilità nel corso del tempo.
Semplificando, è possibile identificare due ambiti su cui è doveroso lavorare per farsi trovare pronti alle nuove necessità di controllo e trasparenza. Da un lato, troviamo il tema delle competenze, soprattutto per quanto riguarda il tessuto produttivo italiano. È universalmente noto che l’asimmetria tra domanda e offerta di impiego specializzato in ambito tech e IA – per citarne due – rallenti la crescita e provochi un danno economico. Non c’è da stupirsi se le aziende italiane reputano quasi metà (48%) delle assunzioni difficili da realizzare, quando consideriamo che solo 1 lavoratore su 10 ha competenze in ambito IA.
La situazione è ancora più critica se prendiamo in esame la piccola e media impresa: solamente il 5,3% delle aziende con 10-49 dipendenti dichiara di utilizzare sistemi di intelligenza artificiale, contro il 24,3% delle realtà con più di 250 dipendenti. Tutto questo all’interno di un mercato che ha raggiunto il valore di 570 milioni di euro nel 2023 (+31% YoY), contro i 10 miliardi in Germania e gli 87 miliardi di dollari negli Stati Uniti.
Il secondo punto fondamentale riguarda la tecnologia. Per gestire le applicazioni di IA le aziende necessitano di un’adeguata struttura metodologica supportata da appropriate piattaforme software, dette MLOps platforms che supportano il lavoro dei data team (Data Scientist, ML Engineer). Con MLOps indichiamo l’approccio metodologico, le pratiche e i tool che semplificano e automatizzano il ciclo di vita del machine learning, dall’addestramento e messa in produzione dei modelli, al monitoraggio dell’integrità del dato e osservabilità».
Come bilanciare l’efficienza dell’IA con l’etica e la responsabilità? E quali sono le principali sfide etiche legate all’integrazione dell’IA nei processi decisionali?
«È evidente che la possibilità di trarre valore dall’IA in maniera sostenibile è legata a doppio filo alla capacità di riconoscerla, comprenderla e se necessario limitarne le applicazioni. La riflessione è prima di tutto etica, per garantire la tutela della società civile sulla base dei principi di fairness, trasparenza e responsabilità. Ma è anche una necessità di business. Risulta infatti difficile integrare l’IA nei processi decisionali senza che vi sia chiarezza sul funzionamento dell’algoritmo, o certezza sulla qualità del dato e sull’assenza di bias – preconcetti – che possono inficiare la qualità delle inferenze.
Con l’obiettivo di rafforzare la trasparenza e il controllo sui modelli di IA, è possibile ad esempio impiegare strumenti specifici per rilevare tempestivamente data e concept drift, ossia le “deviazioni” nella distribuzione dei dati, nei presupposti teorici o nel contesto che possono inficiare le capacità predittive. Risulta inoltre fondamentale la possibilità di analizzare e “spiegare”, in un linguaggio comprensibile agli esseri umani, il funzionamento di un modello e le sue decisioni – ciò che in inglese viene definito explainability.
Sulla base del mio lavoro e della mia esperienza imprenditoriale nel mondo IT, l’integrazione tra competenze e tecnologia all’avanguardia è sempre più fondamentale. Questo è l’approccio che perseguiamo anche in Fortitude Group, che ho fondato e che guido, dove un’offerta consulenziale altamente specializzata si combina con una piattaforma MLOps proprietaria e 100% made in Italy. Ed è l’approccio che ci permette di affrontare le sfide della trasparenza e del controllo sull’intelligenza artificiale. In altre parole, la possibilità di cogliere in maniera piena, etica e consapevole le opportunità di questa dirompente tecnologia».
Le riflessioni di Leo Pillon ci hanno guidato nella promozione di un utilizzo etico dell’IA, sottolineando l’importanza di attribuire un ruolo strategico all’etica all’interno dell’organizzazione. Prima di discutere di tecnologia, è di assoluta importanza dotare tutti i collaboratori delle competenze necessarie, garantendo che l’etica sia un elemento chiave fin dalle fasi iniziali del processo di progettazione. Implementare un sistema di controllo e definire chiaramente le responsabilità sono passi essenziali per mitigare i rischi generati in modo inconsapevole.