(Italiano) Intelligenza Artificiale: aspetti etici e responsabilità degli scienziati

ORIGINAL LANGUAGES, 5 Sep 2022

Elena Camino | Centro Studi Sereno Regis – TRANSCEND Media Service

Photo by Rod Long on Unsplash

29 ago 2022 – Alcune informazioni e riflessioni di questo articolo sono tratte da un testo di Guglielmo Tamburrini, che mette in relazione il tema dell’Intelligenza Artificiale (IA) con i problemi ambientali, chiamando direttamente in causa le responsabilità degli scienziati.

La problematica generale che riguarda la ricerca sull’Intelligenza Artificiale e le sue possibili implicazioni etiche viene affrontata nei numerosi contributi che da alcuni anni il prof. Norberto Patrignani offre, sia nelle sue pubblicazioni scientifiche, sia in seminari e incontri organizzati per il nostro centro studi.

Tra tale documentazione segnalo, in particolare:

Don Milani al tempo dell’Infosfera | Norberto Patrignani (martedì 24 Ottobre 2017)

Slow Tech | 8. Etica e informatica. Dilemmi al confine tra decisioni e scelte. CONVERSAZIONE con Norberto Patrignani (giovedì 28 Novembre 2019)

Fermare la cyberwar prima che sia troppo tardi (martedì 5 Aprile 2022)

Verso un’abbondanza frugale | Incontro con Norberto Patrignani (giovedì 26 Maggio 2022)

“Intelligenza” artificiale: non chiamiamola così! (lunedì 27 Giugno 2022)

Entrambi gli autori richiamano l’attenzione dei lettori sulle responsabilità dei ricercatori – soprattutto i professionisti delle discipline informatiche (esperti, studiosi e professori universitari) nella ricerca e sviluppo di progetti al confine tra etica e scienza.

Guglielmo Tamburrini e Norberto Patrignani, assieme a Francesca Farruggia (Istituto di Ricerche Internazionali Archivio Disarmo – IRIAD di Roma) parteciperanno a un incontro su Tecnologia e Pace co-organizzato da Centro Studi Sereno Regis e Politecnico di Torino nel corso della prossima Biennale Democrazia 2022 (12 novembre 2022 alle ore 11 presso la sala Emma Strada del Politecnico Torino)


IA: un mondo presente ma sconosciuto

Dell’Intelligenza Artificiale (IA) si parla e si scrive ormai da decenni: tra finanziamenti alla ricerca, sperimentazioni nei più disparati ambiti, e applicazioni concrete, si può affermare che non c’è quasi aspetto della vita umana che non sia stato già cambiato, o che non possa essere modificato nel prossimo futuro.

Nell’Introduzione dell’articolo sopra citato Tamburrini accenna rapidamente all’impatto pervasivo dell’IA negli ultimi 10 anni, alimentato da sistemi informatici di apprendimento dell’IA, che stanno assumendo un ruolo crescente nel commercio, nell’industria, nella gestione dei servizi pubblici e privati, nella comunicazione, nell’intrattenimento, nella sicurezza e nella difesa. Il tema è vasto, e di difficile comprensione per il pubblico non specializzato.

Il ‘machine learning’, l’apprendimento automatico, si basa sull’idea che i computer possono imparare ad eseguire compiti specifici senza essere programmati per farlo, grazie al riconoscimento di schemi tra i dati, che vengono forniti in modo iterativo. Un aspetto importante del machine learning è la ripetitività: esposti più volte ai dati, questi sistemi sono in grado di adattarsi in modo autonomo. Nelle ‘deep neural networks’, reti neurali profonde, di struttura più complessa e caratterizzate da un gran numero di strati e connessioni tra i componenti, il sistema apprende a eseguire dei compiti sempre più sofisticati nella misura in cui viene alimentato da quantità e varietà crescenti di informazioni.

Come chiarisce Patrignani, queste reti artificiali, costituite da nodi e interconnessioni, quando ricevono i dati in ingresso iniziano ad affinare i parametri di connessione tra i nodi stessi. Dunque, l’algoritmo definito in fase di progettazione e caricato in memoria per l’esecuzione è dinamico, e consiste nel fornire i criteri di “calibrazione” delle connessioni a seconda dei dati letti. Più dati vengono letti più la rete diventa precisa rispetto all’obiettivo, allo scopo (ad esempio simulare il linguaggio parlato).

L’IA e le grandi minacce del nostro tempo

Anche se nell’immaginario collettivo l’IA viene considerata come ‘immateriale’, in realtà si tratta di un sistema molto complesso e ‘concreto’, caratterizzato dalla presenza di oggetti materiali tra loro variamente interconnessi, e il cui funzionamento richiede una significativa componente di ‘allenamento’: quindi occorrono tantissimi dati, giganteschi centri di elaborazione, e una continua fornitura di energia per ‘alimentare’ queste “reti neurali”.

La produzione di questi sistemi è resa possibile dall’esistenza di filiere che connettono i luoghi in cui sono presenti le materie prime necessarie (dal rame dei fili elettrici ai minerali rari di certe componenti elettroniche) ai punti di assemblaggio dei componenti; dai centri di ricerca e innovazione in cui vengono sperimentati, fino alla rete di alimentazione e alla distribuzione capillare nei luoghi di utilizzo finale.  Tutt’altro che immateriale, dunque!

Guglielmo Tamburrini nel suo articolo richiama l’attenzione su due aspetti dell’IA assai poco presenti nella consapevolezza del pubblico. In una prima parte egli esamina le implicazioni etiche della crescente impronta ecologica dell’Intelligenza artificiale (che si calcola anche attraverso la misura della produzione di CO2 – la ‘carbon footprint’), richiamando l’attenzione su uno dei maggiori e urgenti problemi che l’umanità deve affrontare oggi: il controllo delle emissioni di gas con effetto serra (emessi nell’atmosfera contribuiscono a trattenere al suo interno parte del calore proveniente dal sole ) che stanno causando drammatiche alterazioni del clima in tutto il pianeta.

Nella parte finale del suo articolo l’Autore introduce il tema delle minacce che ordigni cibernetici alimentati dall’IA pongono all’infrastruttura digitale di comando, controllo e comunicazione dei sistemi di armi nucleari. In entrambi i casi l’autore assume una prospettiva etica, e si propone di mettere in relazione il vasto settore dell’Intelligenza Artificiale con le responsabilità dei soggetti che a vario titolo sono coinvolti nella ricerca e nell’applicazione di questa nuova tecnologia. Ma vediamo più in dettaglio…

L’Intelligenza Artificiale e il cambiamento climatico

In occasione di un incontro di lavoro organizzato pochi mesi fa dal Climate and Sustainability Consortium, nel discorso introduttivo al workshop si legge:

“Il vorace appetito per l’energia dei computer e della tecnologia delle comunicazioni di tutto il mondo rappresenta una chiara minaccia per il riscaldamento climatico del globo. […] Se continuiamo con la traiettoria esistente dell’energia di calcolo, entro il 2040, dovremmo raggiungere la capacità di produzione mondiale di energia. L’aumento della domanda e dell’energia di calcolo è aumentato a un ritmo molto più rapido rispetto all’aumento della capacità di produzione energetica mondiale, […] Per citare solo un esempio: le tecnologie dell’informazione e delle comunicazioni rappresentano già oltre il 2% della domanda globale di energia, che è al pari delle emissioni dei carburanti dell’industria aeronautica. […] Siamo l’inizio di questo mondo basato sui dati. Abbiamo davvero bisogno di iniziare a pensare a questo e agire ora…”

Per scoprire come e quanto il settore di ricerca e sviluppo sull’ Intelligenza Artificiale ‘pesa’ nei confronti dei cambiamenti climatici in atto occorre indagare sui modi in cui si sperimentano e si implementano le diverse applicazioni dell’IA, stimando quali sono le risorse computazionali ed energetiche necessarie per ‘allenare’ una varietà di modelli di IA.

Il compito di misurare la produzione di gas con effetto serra (GHG) sulle varie tecnologie messe in atto nella produzione di applicazioni di IA si è rivelato molto complesso a seconda della funzione: per esempio, l’addestramento di modelli per l’elaborazione del linguaggio naturale (NLP, Natural language processing) implica la produzione di GHG pari a quella di 5 automobili di media potenza lungo l’intero ciclo di vita.  Le emissioni di GHG di modelli più sofisticati (per es. che comprendono unità di elaborazione grafica: Graphic Processing Units) sono state stimate come equivalenti a quelle emesse in un volo aereo da San Francisco a New York.

La pubblicazione di risultati di ricerche sui legami tra IA e produzione di GHG ha fatto emergere crescenti preoccupazioni sugli impatti ambientali dello sviluppo di sistemi di IA, e ha spinto l’Unione Europea a pubblicare un Libro Bianco in cui si sollecita una maggiore attenzione per questo aspetto.  La valutazione del carico ambientale dell’IA è cruciale sia per quantificare i contributi dei diversi segmenti del sistema, sia per elaborare politiche efficaci e introdurre azioni di mitigazione. Inoltre, questi calcoli sono necessari per individuare responsabilità retrospettive (comportamenti irresponsabili, danni già inflitti) e in prospettiva, affinché tutti i soggetti coinvolti si assumano le loro responsabilità e mettano in atto iniziative ambientalmente più sostenibili. Da un punto di vista etico e giuridico sta diventando sempre più importante mettere in luce le relazioni tra l’aspetto materiale (la produzione di CO2) e la distribuzione delle responsabilità tra i gruppi di attori coinvolti.

Come sottolinea Tamburrini nell’ articolo, dal punto di vista dell’etica ambientale emerge una evidente tensione tra i comportamenti consolidati della comunità di ricerca sull’IA e gli obiettivi di mitigazione del riscaldamento globale. Ci si può chiedere se sia eticamente giustificato – nei settori di R&S accademici e industriali – perseguire esclusivamente obiettivi di accuratezza, se questi richiedono crescenti costi energetici, causati dalla scelta di modelli, pratiche di addestramento e tempi di test sempre più energivori.

Grazie a un lavoro di comparazione tra articoli pubblicati di recente su riviste di prestigio internazionale, l’Autore trae la conclusione che nella maggior parte dei casi l’obiettivo delle ricerche era l’accuratezza del modello, senza prendere in considerazione l’efficienza, quindi senza occuparsi dei costi ambientali. E osserva che questo atteggiamento viene spesso trasmesso nei corsi universitari. Sarebbe quindi opportuno inserire nei progetti di ricerca e nei programmi educativi una nuova prospettiva, quella della consapevolezza ambientale.

IA e problematiche globali: il rischio nucleare

Come accenna Tamburrini nella parte finale del suo articolo, un nuovo tema sta emergendo nell’ambito dell’Intelligenza Artificiale: anch’esso è di portata globale, come l’impatto ambientale. I dibattiti etici sulla militarizzazione dell’IA hanno riguardato finora le implicazioni dello sviluppo e del dispiegamento di sistemi d’arma autonomi (autonomous weapons systems: AWS). Questi sistemi d’arma sono in grado di selezionare e coinvolgere dei bersagli senza che, dopo la loro attivazione, ci sia un ulteriore intervento di un operatore umano.

Le tecnologie basate sull’ IA svolgono un ruolo cruciale nello sviluppo di questi sistemi d’arma autonomi, dotandoli delle capacità percettive, deliberative ed esecutive di cui tali sistemi hanno bisogno per svolgere il compito di selezione e attacco del bersaglio. Ormai le parti coinvolte in conflitti armati sempre più spesso ricorrono ad armi informatiche (cyber weapons).  E attualmente gli Stati stanno sviluppando – o forse hanno già sviluppato – cyber weapons autonomi (ACW: autonomous cyber weapons) da utilizzare nei conflitti armati.

A differenza dei sistemi d’arma autonomi già conosciuti (AWS), e sui quali sono in corso dibattiti avanzati e sono state emesse alcune direttive che li riguardano, i sistemi d’arma autonomi cibernetici (ACW) operano nel ‘cyberspazio’, e sono in grado di prendere di mira la sorveglianza e sistemi militari di ricognizione, sistemi d’arma che richiedono risorse software per essere gestiti, sistemi software che servono a scopi di intelligence e di comando e controllo dei centri militari. Il crescente numero di compiti che i sistemi di IA sono in grado di svolgere autonomamente sta dando origine a un nuovo problema globale, che riguarda l’impatto dei sistemi di IA sulle minacce di conflitti nucleari globali e sulle loro implicazioni etiche.

Herbert Lin, esperto di minacce informatiche e autore di un recente libro Cyber Threats And Nuclear Weapons, così si esprime in una intervista sull’IA:

Che ruolo avranno le moderne tecnologie come l’intelligenza artificiale (AI) nei sistemi di armi nucleari?Tendo ad essere scettico sull’IA per i sistemi ad alto rischio. Oggi, l’IA qualcosa che a volte funziona e a volte no. Potrebbe anche funzionare il più delle volte. Ma non c’è alcuna garanzia che funzionerà. Quando non funziona, non riesci a spiegare perché non ha funzionato, e anche quando funziona, non sai perché ha funzionato. Quindi, l’idea di affidare il futuro del pianeta a una tecnologia che non capiamo e a un comportamento che non possiamo prevedere, per me è una cosa molto preoccupante. Non ho fatto un’analisi sistematica del potenziale impatto dell’IA sul comando e il controllo delle armi nucleari, ma dal mio punto di vista la mancanza di chiarezza su ciò che sta realmente accadendo all’interno del sistema è la conseguenza che più mi preoccupa circa con l’introduzione di nuove tecnologie”.

Progressi tecnologici e responsabilità umane

Come è sempre avvenuto nel corso dell’ultimo secolo, l’ampliamento delle conoscenze e delle applicazioni tecno-scientifiche ha portato con sé implicazioni etiche di grande portata, e ha esteso le responsabilità degli scienziati coinvolti nelle scelte dei campi da esplorare e negli usi dei nuovi saperi.  Gli scienziati che si occupano di Intelligenza Artificiale – grazie alla loro posizione epistemica privilegiata – hanno grandi responsabilità, così come avvenne nei decenni passati ai  loro colleghi coinvolti nella costruzione delle prime armi atomiche.

Subito dopo la Seconda Guerra mondiale molti fisici sentirono l’obbligo morale di rendere consapevole l’opinione pubblica e i decisori politici delle minacce esistenziali causate dalle armi atomiche e dalla corsa al riarmo. Più tardi chimici e biologi svolsero un ruolo cruciale nei dibattiti internazionali e negli sforzi diplomatici che portarono a trattati che decretarono il bando delle armi chimiche e biologiche.

La situazione attuale è molto più ambigua e complessa.  Le dinamiche geopolitiche sono in continua evoluzione, con alleanze e opposizioni che si formano e si disfano sulla spinta di interessi politici e commerciali; il moltiplicarsi e il diversificarsi degli strumenti di offesa – dai carri armati ai cyber – attacchi hanno trasformato il campo di battaglia del ‘nemico’ in uno spazio globale;  le competenze tecnico-scientifiche necessarie per la realizzazione dei più recenti progetti di ricerca militare si sono moltiplicate, e specialisti di discipline diverse conoscono e padroneggiano solo una parte dei problemi e dei risultati. Per esempio, le attività militari contribuiscono in modo accelerato al degrado ambientale e al cambiamento climatico, senza che necessariamente tutti i membri dello staff ne siano consapevoli.

Oggi gli scienziati che si occupano di IA hanno il dovere di informare la società delle minacce alla pace e alla stabilità che i sistemi d’arma autonomi stanno portando a livello globale, inclusi quelli che operano nel cyber-spazio e che riguardano i sistemi di comando, controllo e comunicazione degli armamenti nucleari.

La responsabilità alle ‘macchine’?

Come mette in evidenza Norberto Patrignani in un recente articolo, il 2022 è iniziato con una guerra in cui vengono utilizzate anche sofisticate tecnologie digitali come gli attacchi informatici. La notte prima dell’invasione, il 24 febbraio, le infrastrutture informatiche ucraine del Ministero degli Interni erano già state attaccate. […]  Ma un attacco informatico deve essere considerato un “atto di guerra”? A chi va attribuito? Quali sono le risposte e le difese possibili? […].  Sull’altro fronte, nei mesi successivi sono stati impiegati contro la Russia dei sistemi d’arma autonomi letali; i cosiddetti LAWS, Lethal Autonomous Weapons Systems, armi automatiche che, una volta attivate, sono capaci di selezionare e attaccare un obiettivo senza ulteriori interventi da parte degli esseri umani.

Cyber attacchi e armi autonome: sono gli Stati, i governi, o le ‘macchine’ ad essere responsabili di questi atti di guerra?

Anche Patrignani, come Tamburrini, sottolinea le responsabilità degli scienziati.

“Le persone esperte di informatica dovrebbero invece essere “computer professional” che vedono la conoscenza e l’esperienza solo come una delle loro caratteristiche, che si considerano non semplici individui ma membri di una comunità professionale, con una responsabilità sociale, consapevoli del contesto applicativo dei loro progetti, con un impegno a proteggere l’interesse pubblico e l’ambiente”.

Torino centro strategico militare?

Lo scorso 7 aprile 2022 i Ministri degli esteri dell’Alleanza Atlantica hanno approvato la Carta per il “Defence innovation accelerator for the North Atlantic” (Acceleratore di innovazione nella difesa per l’Atlantico del nord), il cui acronimo è DIANA e che comprende un fondo – il NATO Innovation Fund – che partirà con un capitale di un miliardo di euro e finanzierà per i prossimi quindici anni start up e piccole e medie imprese ad alto contenuto tecnologico. Si concentrerà in particolare sulle cosiddette deep technologies, le tecnologie emergenti che la NATO ha identificato come prioritarie: esse comprendono i settori dell’aerospazio, dell’intelligenza artificiale, delle biotecnologie e della bioingegneria, dei computer quantistici, della sicurezza informatica, dei motori ipersonici, della robotica, dell’industria navale e delle telecomunicazioni.

All’interno di questo progetto, Torino è stata scelta come prima sede europea degli acceleratori di startup nel campo della sicurezza. A Torino, la sede di DIANA sarà ospitata prima nelle Officine Grandi Riparazioni, e in seguito all’interno della Città dell’Aerospazio: un progetto che sarà finanziato con 300 milioni del PNRR e altri 800 provenienti dalle 70 aziende del settore che vi stabiliranno la loro sede, tra cui anche Leonardo, azienda italiana che coordinerà tre progetti del nuovo sistema di difesa europeo. È prevista quindi una collaborazione tra Leonardo e il Politecnico: in questo modo, “si creerà un sistema interconnesso dove coesistono l’accademia, la ricerca e i laboratori di sviluppo tecnologico, le start up e le piccole medie imprese, e la grande impresa”.

Quali responsabilità professionali per ricercatori e formatori?

Il lungo e ‘faticoso’ articolo che state leggendo è stato scritto con un obiettivo specifico: rendere consapevole il pubblico, la società civile, i giovani e le famiglie che li sostengono negli studi della sfida che sono chiamati ad affrontare, se intendono operare per costruire una società pacifica, equilibrata, sostenibile, e per bandire la guerra.  Bisogna porre molte domande ai decisori politici, agli scienziati, agli ‘esperti’. Quali competenze vengono fornite ai tanti giovani che attualmente sono attirati a studiare, e poi a partecipare attivamente ai sempre più numerosi progetti – italiani e internazionali – che vengono offerti grazie alle sinergie tra industria, mondo accademico e difesa? Che tipo di obiettivi i finanziatori di tante offerte formative si propongono di conseguire coinvolgendo le giovani generazioni della nostra Università, e del nostro prestigioso Politecnico?

In un recente articolo sulla qualità della ricerca scientifica Alice Benessia riporta alcune battute di un’intervista che Richard Feynman  (Premio Nobel per la Fisica nel 1965, partecipò da giovane al Progetto Manhattan per la fabbricazione della bomba atomica) rilasciò alla BBC nel 1981.  Egli ricorda l’eccitazione che provò, insieme agli altri membri del Progetto, dopo il successo del primo test sulla bomba atomica, il Trinity Test. Alla domanda dell’intervistatore su come mai avessero deciso di proseguire la costruzione della bomba anche dopo che la Germania si era arresa, Feynman rispose:

Quello che ho fatto in modo immorale, direi, è stato di non ricordare il motivo per cui lo stavo facendo, così che quando il motivo è cambiato, quando la Germania è stata sconfitta, non mi è venuto in mente un solo pensiero su tutto questo, sul fatto che dovevo riconsiderare il motivo per cui stavo continuando [a costruire la bomba]. Semplicemente non ci ho pensato, ok?”

Nell’articolo citato Alice Benessia offre alcune riflessioni sull’importanza di sviluppare – da parte dei ricercatori – strumenti culturali che favoriscano pensiero critico, consapevolezza socio-ecologica e coinvolgimento personale: competenze sempre più necessarie per affrontare meglio la crisi sistemica globale contemporanea, migliorando allo stesso tempo la propria vita professionale e personale.

La considerazione che Primo Levi espresse nel 1986 è sempre valida, ma è sempre più difficile ‘conoscere il fine’, ‘esercitare una scelta’, ‘non lasciarsi sedurre’… e la posta in gioco è sempre più alta!

«Mi piacerebbe (e non mi pare impossibile né assurdo) che in tutte le facoltà scientifiche si insistesse a oltranza su un punto: ciò che farai quando eserciterai la professione può essere utile per il genere umano, o neutro, o nocivo. Non innamorarti di problemi sospetti. Nei limiti che ti saranno concessi, cerca di conoscere il fine a cui il tuo lavoro è diretto. Lo sappiamo, il mondo non è fatto solo di bianco e di nero e la tua decisione può essere probabilistica e difficile: ma accetterai di studiare un nuovo medicamento, rifiuterai di formulare un gas nervino. Che tu sia o non sia un credente, che tu sia o no un “patriota”, se ti è concessa una scelta non lasciarti sedurre dall’interesse materiale e intellettuale, ma scegli entro il campo che può rendere meno doloroso e meno pericoloso l’itinerario dei tuoi compagni e dei tuoi posteri. Non nasconderti dietro l’ipocrisia della scienza neutrale: sei abbastanza dotto da saper valutare se dall’uovo che stai covando sguscerà una colomba o un cobra o una chimera o magari nulla».

Primo LEVI, Covare il cobra, 11 settembre 1986, in Opere II, Einaudi, Torino 1997 [1]

Nota

[1] Pubblicato la prima volta sul quotidiano “La Stampa”, 21 sett. 1986.

_______________________________________________

Elena Camino è membro della rete TRANSCEND per la Pace, Sviluppo e Ambiente e Gruppo ASSEFA Torino.

 

 

Go to Original – serenoregis.org


Tags: ,

Share this article:


DISCLAIMER: The statements, views and opinions expressed in pieces republished here are solely those of the authors and do not necessarily represent those of TMS. In accordance with title 17 U.S.C. section 107, this material is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. TMS has no affiliation whatsoever with the originator of this article nor is TMS endorsed or sponsored by the originator. “GO TO ORIGINAL” links are provided as a convenience to our readers and allow for verification of authenticity. However, as originating pages are often updated by their originating host sites, the versions posted may not match the versions our readers view when clicking the “GO TO ORIGINAL” links. This site contains copyrighted material the use of which has not always been specifically authorized by the copyright owner. We are making such material available in our efforts to advance understanding of environmental, political, human rights, economic, democracy, scientific, and social justice issues, etc. We believe this constitutes a ‘fair use’ of any such copyrighted material as provided for in section 107 of the US Copyright Law. In accordance with Title 17 U.S.C. Section 107, the material on this site is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. For more information go to: http://www.law.cornell.edu/uscode/17/107.shtml. If you wish to use copyrighted material from this site for purposes of your own that go beyond ‘fair use’, you must obtain permission from the copyright owner.

Comments are closed.