Capgemini: ecco sette azioni per un’intelligenza artificiale etica in azienda
Sempre più aziende riconoscono la necessità di etica e affidabilità nei sistemi basati sull’intelligenza artificiale, ma i progressi sono ancora lenti. Secondo il report di Capgemini, infatti, il 70% dei clienti si aspetta che le organizzazioni forniscano interazioni con l’AI trasparenti ed eque.
Questo, quantomeno, è quello che emerge dallo studio del Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust“, secondo cui la percentuale di clienti che credono che le organizzazioni siano completamente trasparenti riguardo a come usano i loro dati personali è scesa dal 76% del 2019 al 62% di oggi.
Lo studio rileva inoltre che solo il 53% delle organizzazioni ha un leader a cui è affidata la responsabilità dell’etica dei sistemi di intelligenza artificiale. Inoltre, sia la governance e la responsabilità per l’AI, sia l’implementazione di strumenti e strutture concrete per lo sviluppo e l’utilizzo dei sistemi di AI, comportano costi elevati per le organizzazioni.
Sette azioni
Nel dettaglio, lo studio evidenzia sette azioni chiave che le organizzazioni possono implementare per costruire un sistema di AI eticamente solido, ognuna delle quali deve essere sostenuta a livello di leadership, governance e pratiche interne:
- Delineare chiaramente lo scopo dei sistemi di AI e valutarne l’impatto potenziale complessivo;
- Implementare in modo proattivo l’AI a beneficio della società e dell’ambiente;
- Incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di AI;
- Aumentare la trasparenza con l’aiuto di strumenti tecnologici;
- Umanizzare l’esperienza di AI e garantire la supervisione umana dei sistemi di AI;
- Garantire la robustezza tecnologica dei sistemi di AI;
- Proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’AI.