CNIL e ARTIFICIAL INTELLIGENCE
Lunedì prossimo, il 7 settembre 2020, la CNIL presenterà, in collaborazione con Voice Lab, il suo primo white paper sugli assistenti vocali, dal titolo «À votre écoute: exploration des enjeux éthiques, techniques et juridiques des assistants vocaux».
La CNIL, l’Autority a vigilanza della privacy in Francia, ha innescato e foraggiato, a fine 2017, un ampio dibattito collettivo sull’approccio etico e funzionale all’utilizzo dell’Intelligenza Artificiale, partendo dagli usi, dalle domande e dalle possibili soluzioni proposte dai partecipanti al dibattito, in più di quaranta eventi organizzati in tutta la nazione francese, nei mesi precedenti la pubblicazione della “Sintesi del Dibattito Pubblico condotto nell’ambito della missione di Riflessione Etica affidata dalla Legge per una Repubblica Digitale”. È stato ritenuto importante improntare un coinvolgimento diretto del cittadino in una tematica e in un universo cosi complesso che plasmerà il nostro futuro. Anzi per la CNIL, questo dibattito è una logica estensione del lungo processo di incontro tra la società e la tecnologia digitale. Imperativo categorico è stato quello di stabilire che le nuove tecnologie siano al “servizio” della mano umana, in un rapporto di trasparenza e responsabilità, per lo «sviluppo di un modello francese di governance etica dell’Intelligenza Artificiale» (Isabelle Falque-Pierrotin Presidente della CNIL)
La prima parte della Sintesi fornisce una definizione pragmatica dell’algoritmo e dell’Intelligenza Artificiale, presentandone i principali utilizzi al centro dell’attenzione pubblica. L’IA fa riferimento a una nuova classe di algoritmi parametrizzati attraverso tecniche di apprendimento, e le cui istruzioni derivano dalla macchina stessa che “impara” dai dati che gli vengono forniti.
PRINCIPALI TEMATICHE
Sei sono le principali tematiche etiche che son emerse in questo lavoro:
- la crescente autonomia degli artefatti tecnologici sta consentendo forme sempre più complesse di delega di compiti, ragionamenti, decisioni, portando con sé anche il rischio di “comode delegittimazioni”, a uso e consumo di chi dovrebbe detenere oneri di responsabilità! (diluizioni di responsabilità);
- lo sviluppo di simili tecnologie porta con sé il serio rischio di aggravare, o addirittura, legittimare forme di esclusione, discriminazioni e pregiudizi;
- la profilazione e la segmentazione, originate dal web ed amplificate da sistemi avanzati algoritmici potrebbero influenzare logiche collettive, essenziali della nostra società, come il pluralismo democratico e culturale e la condivisione del rischio;
- l’implementazione di tali sistemi passa attraverso una quantità infinita di set di dati che contrasta con il principio della minimizzazione dei dati, a tutela delle libertà individuali e pubbliche;
- un approccio critico a detta implementazione dovrebbe prevedere una attitudine a non riporre troppa fiducia nei risultati prodotti dalla “macchina”;
- le nuove forme di ibridazione uomo-macchina innescano nuovi rapporti relazionali con robot umanoidi che, pur essendo oggetti, rischiano di «mettere in discussione l’idea di una irriducibile specificità umana.»
La terza parte prende in considerazioni le possibili risposte ai dibattiti intrapresi, innalzando a principali due principi fondamentali:
- il principio di lealtà, con un incisività maggiore rispetto a quello formulato dal Consiglio di Stato, in relazione alle piattaforme web, assumendo qui una connotazione collettiva, che mira garantire che lo strumento algoritmico non tradisca la comunità cui appartiene (consumatore o cittadino), che siano coinvolti o meno i dati personali;
- il principio di vigilanza/riflessività, in risposta alle forme di negligenza, indifferenza, diluizione di responsabilità, generate dalla natura altamente compartimentata e segmentata dei sistemi AI, organizzando una forma di interrogazione regolare, metodica, deliberativa e fruttuosa di tutti gli attori della catena algoritmica, compresi gli “addestratori”.
Questi principi sono resi operativi da sei raccomandazioni:
- formare all’etica tutti gli anelli della catena algoritmica;
- rendere comprensibili i sistemi algoritmici creando mediazioni con gli utenti;
- progettare sistemi AI al servizio della libertà umana (contrastando sistemi black box o algoritmi opachi, evidenziandone limiti e modus operandi, avverso concetti di infallibilità e neutralità indiscussi) ;
- creare una piattaforma nazionale per la revisione degli algoritmi (auditing algoritmico con soluzioni di “labeling”);
- incoraggiare un’etica AI attraverso progetti di ricerca nazionali;
- rafforzare la funzione etica dell’IA nelle aziende.
«L’algoritmo senza dati è cieco. I dati senza algoritmi sono muti».
SCHEMA AREE DI SVILUPPO
In uno schema riportato nel Rapporto in questione, si elencano le grandi funzioni degli algoritmi e dell’Intelligenza Artificiale in differenti settori: le funzioni sono
- Generare conoscenza,
- Corrispondenza,
- Previsione,
- Raccomandazione,
- Aiutare la decisione,
incrociati con i settori dell’istruzione, giustizia, salute, sicurezza, lavoro cultura ed altri.
Educazione | Giustizia | Salute | Sicurezza | Lavoro | Cultura | Altro | |
Generare conoscenza
|
Capire meglio le
capacità di apprendimento degli studenti |
Evidenziare i diversi modi in cui viene fatta giustizia nelle diverse regioni | Approfittare della quantità di pubblicazioni
scientifiche |
Trovare link di ausilio alle indagini | Comprendere i fenomeni sociali in azienda | Creare aperture culturali | Affinare i profili di rischio nelle assicurazioni |
Corrispondenza |
Ripartire i candidati nell’istruzione superiore | Ripartire i pazienti nelle sperimentazioni cliniche | Estrarre elenco candidati per un lavoro | Profili compatibili su siti incontri | |||
Previsione
|
Prevedere gli abbandoni scolastici | Prevedere successo di una causa ed entità danni | Previsioni epidemie | Previsioni terrorismo | Previsioni dimissioni | Previsioni marketing | |
Raccomandazione |
Consigliare agli studenti percorsi personalizzati | Consigliare mediazioni | Orientamenti di carriera | Consigli libri | Individuare messaggi politici sui social | ||
Aiutare la decisione
|
Suggerire la soluzione giuridica più adatta ad un giudice | Suggerire il miglior medicinale | Suggerire le zone “calde” di pattugliamento | Navigazione stradale |
ETICA
Il concetto di etica si è modificato e rafforzato nel corso del tempo: in questo rapporto si evidenzia come recentemente si sia sviluppato come un affiancamento della legge, per riaffermare, consciamente o inconsciamente, gli standard legali. Ma un terzo uso si è fatto vanti nell’ambito delle istituzioni pubbliche, dopo la creazione, nel 1983, del Comitato Consultivo Nazionale di etica della vita e della salute (CCNE), ove appare come uno «scout legale». «L’inclusione nella legge di una riflessione etica risponde alla necessità di uno spazio necessario per una riflessione collettiva su un patto sociale i cui aspetti essenziali (libertà fondamentali, uguaglianza tra i cittadini, dignità umana) possono essere messi in discussione non appena l’evoluzione tecnologica sposta il limite tra il possibile e l’impossibile, e richiede la ridefinizione del limite tra l’auspicabile e l’indesiderabile.»
Il concetto di trasparenza, da molti esaltato come fondante di un’etica algoritmica congrua, secondo il CNIL incontrerebbe non poche obiezioni, e risulterebbe ai molti semplicistica ed in ultima analisi inefficace: la sua assimilazione alla semplice pubblicazione di un codice sorgente lascia i molti non specializzati, lontani da qualsiasi logica di “chiarezza” e “verità”, per non parlare delle eventuali tensioni, in ambito privato, con i diritti di proprietà intellettuale. Pertanto qui si dà risalto ai concetti di “intelleggibilità” e di “spiegabilità” a discapito della trasparenza. La logica dell’algoritmo non va spiegata a livello di codice ma verbalmente, come sostiene Daniel Le Métayer, dell’INRIA, istituto nazionale francese di ricerca in informatica e controllo. Non deve essere trasparente il codice ma comprendere cosa entra e cosa esce dall’algoritmo ed il suo scopo, ossia realizzare un lavoro pedagogico per capire esattamente cosa fa e come lo fa.
Nel settore dell’istruzione superiore, per esempio, nel contesto francese, in cui la differenziazione pedagogica per “gruppi di bisogni” è ben lungi dall’essere efficace, alcuni collaboratori vedono nell’algoritmo la possibilità di “implementare” opzioni individuali e collettive che tengono conto delle diverse difficoltà incontrate dagli studenti, per fornire loro corsi personalizzati, riferire sui loro progressi e condividerli con tutta la comunità educativa.
Il prossimo passo consiste proprio nel delimitare, in ottica di rispetto e conformità con la privacy, i sistemi legati agli assistenti vocali, che hanno evidenziato pratiche a dir poco problematiche, dalla rimozione di funzionalità non sempre giustificate in caso di rifiuti a date raccolte, alla conservazione delle impronte vocali per impostazione predefinita, non dimenticando l’uso di forzature per l’attivazione del riconoscimento dell’utente.
Riproduzione Riservata
Avv. Raffaella Aghemo
Scrivi un commento