Co-fondatrice e co-CEO di Immanence, società che valuta gli impatti e i rischi etici della tecnologia, Luna è una giurista con 11 anni di esperienza come manager della proprietà intellettuale di una multinazionale quotata in borsa.
È un'attivista nel campo dei diritti umani digitali e in Privacy Network coordina le attività del dipartimento di Digital Policy.
Da luglio 2022 fa parte del World Economic Forum Working Group on Metaverse Governance.
A cosa serve l’intelligenza artificiale e perché dobbiamo approcciarla tenendo conto del fattore etico?
L’intelligenza artificiale può avere moltissime funzionalità, ed è ormai più una piattaforma di abilitazione tecnologica che uno strumento tecnico di per sé.
Ci permette di efficientare molti processi, riducendo i margini di errore, ma soprattutto ci impacchetta dati, ne estrae pattern e li trasforma in informazioni che servono a prendere decisioni (sia agli esseri umani, che direttamente alle macchine).
Il processo di analisi dei dati, sia umano che automatizzato, è già di per sé delicato in quanto dipendente dal punto di vista di chi lo svolge, dalla selezione dei dati al tipo di informazione che si vuole raccogliere. Per questo è così importante che tale processo sia negoziato, perché possano emergere bias o altre distorsioni portate da un approccio monoculturale.
Ancor di più è importante adottare un approccio etico, e quindi responsabile e sostenibile, quando abbiamo a che fare con l’automazione di un processo decisionale. Le decisioni degli esseri umani, infatti, passano dall’elaborazione di diversi elementi, incluse le emozioni e il contesto decisionale, gli impatti che ne deriveranno e, non ultima, la propria etica. Al contrario un processo decisionale automatizzato è basato soltanto su un calcolo statistico o probabilistico dei dati di input. Un processo troppo semplice per poter cogliere la complessità di una decisione umana.
Quindi quando le macchine esprimono un giudizio su di noi ad esempio concedendoci o meno un mutuo, dobbiamo necessariamente trovare delle strategie per accompagnare queste decisioni affinché le macchine agiscano sotto il controllo umano. Nel rispetto dei valori umani.
L’etica potrà diventare una qualità nativa della tecnologia?
A mio avviso no, quanto meno non in termini narrativi.
L’etica è per sua natura contestuale, culturale. Dipendente completamente dal sistema sociale in cui è inserita.
L’intelligenza artificiale invece è globale. E anzi uno dei paradossi principali di oggi è proprio il monopolio culturale dell’AI: pur essendo uno strumento diffuso in tutto il mondo, continua a rispondere in larga maggioranza ad un sistema di riferimento statunitense, di una specifica area degli Stati Uniti.
Allora rendere l’etica, come struttura che orienta il processo decisionale nel rispetto dei principi sociali, nativa, cioè codificabile nell’algoritmo, è impossibile.
Quello che si può certamente fare però è costruire una base culturale comune su alcuni aspetti di governance dell’AI, che richieda sempre un certo approccio alla tecnologia che sia consapevole, responsabile e sostenibile appunto.
L’etica della tecnologia è la sfida del nostro decennio e dovremo prevedere una rivoluzione organizzativa e societaria: quali azioni sono necessarie per arrivare preparati a questo cambiamento.
Innanzitutto credo sia importante focalizzarci proprio sulla trasformazione sociale, perché l’AI, o la tecnologia in genere, non è una soluzione di per sé. Non è sufficiente introdurre l’AI per risolvere questioni che hanno a che fare con l’organizzazione ma anzi diventa strategico rivedere i processi e le strutture interne affinché siano capaci di accogliere e sfruttare al massimo i vantaggi dell’AI.
Quindi in primis è fondamentale farsi accompagnare nel disegnare una governance adeguata che permetta di definire ruoli, responsabilità, valori guida che orientino le scelte tecnologiche, policy interne e metriche di verifica dell’andamento dei progetti in corso, sia dal punto di visto tecnico che etico.
E poi certamente formarsi e formare i propri dipendenti, perché l’intelligenza artificiale non sia interpretata come uno strumento demoniaco, né come la panacea a tutti i problemi. Ma anzi se ne comprendano le opportunità, essendo coscienti degli impatti e dei rischi che comporta, e nella sua posizione nella società.
Questi primi due step semplificheranno l’adozione di un approccio all’innovazione non solo compliant con le normative in vigore (vedi AI Act), ma anche capace di tutelare il business dai sempre crescenti rischi reputazionali.
Tag tematici: Intelligenza Artificiale She SPS Italia
Condividi: