INFORMATICA
INTELLIGENZA ARTIFICIALE
ETICA E LEGGI
Conferenza 11.04.2024
presso Pontifica Università Antonianum


1. Premessa

Questa pagina è liberamente ispirata dagli argomenti che ho sentito trattare nella conferenza indicata. Ho avuto infatti la fortuna di parteciparvi per via del mio lavoro e devo dire che sono stati trattati svariati aspetti legali ed etici dell'intelligenza artificiale (AI). Quale specialista di AI sono estremamente interessato al punto di vista non tecnico sull'AI che si viene sviluppando. In particolare questo periodo è caratterizzato dal fiorire di iniziative nelle quali l'AI, in un modo o in un altro, diviene protagonista. In questo senso non si può omettere di citare l'AI Act e il recentissimo disegno di legge italiano recante disposizioni e delega al Governo in materia di AI. Ricordo anche solo 5 o 6 anni fa, quando la materia in questione era trattata solo da gruppi di specialisti altamente tecnici e nessuno avrebbe mai pensato ad un disegno di legge a ciò specificamente dedicato. Segnalo poi tutti gli approfondimenti sull'etica dell'AI che sono in corso, ecc. I tempi cambiano...

Ad ogni modo, ripeto che la pagina è liberamente ispirata da quell'incontro per cui inserirò mie considerazioni e pensieri non necessariamente seguendo pedissequamente quanto trattato nel citato evento.


2. AI e rischio

Mai come per l'AI si sente parlare della parola "rischio" e naturalmente della sua gestione. Gestire il rischio è un'approccio da ritenersi fondamentale in qualsiasi ambito tecnologico o ingegneristico e l'AI non fa eccezione. Eppure quando si tratta di gestire il rischio collegato alla progettazione, implementazione o uso di un'applicazione software qualsiasi posso assicurare che lo sforzo in tale direzione è molto limitato. Questo per un motivo semplice: valutazione e gestione del rischio confliggono con velocità di produzione e budget. Al contrario la sensibilità per questo aspetto nel campo dell'AI è notevole e cresce costantemente con lo strutturarsi della materia. Il motivo risiede innanzitutto nella potenza dell'AI, non bene delimitata e nemmeno compresa da tutti, specialisti inclusi. In secondo luogo poggia anche su una sorta di "terrore sociale" che sembra consolidarsi a vista d'occhio: il timore che l'AI ci sostituisca nel lavoro prima e nella vita poi.

In ogni caso, sebbene la paura non sia sempre un corretto motivatore, ben venga l'attenzione ai rischi e ben venga una progettazione orientata a valutarli prima e non dopo aver costruito grandi sistemi. Ricordiamo, comunque, che questo scrupolo ce lo facciamo soprattutto noi paesi EU e non tutti nello stesso modo. L'Italia ha una posizione a dire poco serrata sull'argomento, invito a vedere paesi vicinissmi come la Francia, per la quale l'AI è impiegata e finanziata in maniera notevole rispetto a quanto facciamo noi, spesso con meno vincoli. Se poi allarghiamo la visuale fuori dall'EU la situazione si complica molto, ma di questo parlerò più avanti.


3. Prospettive dell'AI

La materia è in forte crescita e come costantemente ripeto in tutti i consessi, Quantum computing, Super computing, AI e Cloud fonderanno assieme le loro potenzialità dando origine a strumenti tecnici che ora non possiamo neanche immaginare. L'unica cosa certa è la velocità via-via crescente con la quale questo avverrà. Bisogna essere preparati: per i tecnici come me questo significa ampliare costantemente i propri orizzonti culturali specifici, per le persone comuni non specialiste di settore significa prepararsi ad un'elevata flessibità in tutto: lavoro, relazioni, vita, apprendimento, ecc.. Molti lavori sono già al tramonto e l'evoluzione dell'AI li spingerà giù dalla rupe. Questo non va visto in generale come negativo: dobbiamo pensare solo che il nostro modo di lavorare ed essere dovrà modificarsi di conseguenza, nasceranno molte nuove opportunità per le menti flessibili.

Alla domanda: si può guidare tutta questa evoluzione? La pretesa di guidare l'evoluzione dell'AI assomiglia molto, nel business, alla volontà di guidare il mercato. Certo si possono dare regole e preservare certi valori ma irrigidire il mercato significa solo una cosa: uscire dal mercato e questo, oggi, mina la sopravvivenza stessa. Sono quindi assolutamente in linea con l'idea di regolamentare, ma bisogna fare attenzione perchè la velocità di evoluzione di questi fenomeni è estremamente più alta di quella inerente alla nostra capacità di regolamentare.


4. La tentazione della Giustizia celere e Omnicomprensiva

L'AI promette diverse cose e molte, onestamente ad oggi, non le mantiene. Sicuramente può gestire e analizzare enormi volumi di dati che noi esseri umani nemmeno in gruppo e in più vite potremmo considerare. Ci sono quindi problemi per i quali essa comincia a sembrare l'unica opzione possibile. Uno di questi è la Giustizia (rimango generico su quale tipo di essa). Tomi e tomi di documentazione attendono, in tale settore, di essere attentamente esaminati per produrre delle decisioni prima possibile. L'AI promette velocità di analisi, sintesi documentale e schemi decisionali semplificati. Non sono pochi gli enti al mondo che stanno sperimentando in questo senso. Inoltre, terribilmente, l'AI va oltre e propone schemi anche predittivi evidenziando come le azioni di singoli e di gruppi rispondano in realtà a complesse regole matematiche ora finalmente approcciabili. Tutto questo è per me riassunto nel termine "tentazione". Il concetto che l'AI possa risolvere quello che noi esseri umani non riusciamo ad organizzare è illusorio e fallace. L'AI migliora e fa funzionare più velocemente ciò che noi siamo in grado di organizzare bene. Questo almeno fino a quando l'AI non si autogenererà (ci sono studi già pluriennali in tal senso ma per quanto ne sappia ancora non ci sono barlumi di luce), perchè al momento è solo in grado di imparare tantissimo e non benissimo quello che noi già sappiamo.


5. Il problema dell'umanizzazione dell'AI

"Chattare" con ChatGPT o con Gemini, ecc conduce un tecnico specializzato ad approfondire come il "motore" intelligente lavori e quali processi logici sia in grado di incorporare o copiare. In pratica l'attenzione va al processo che realizza la funzione di interazione linguistica e non all'aspetto "umano" dell'interazione. Per una persona non specializzata accade proprio l'opposto: il lato falsamente "umano" della chiacchierata ha il predominio e nel peggiore dei casi si tende a stabilire una relazione. Il "motore" di AI è costruito per facilitare tale transizione di stato perchè gli permette di guidare meglio il "cliente". In buona sostanza il "motore", lavorando solo per analogia e non incorporando un'individualità, è facilitato da un'interazione amichevole con il "cliente" umano nella quale, quest'ultimo, di fatto, inizia dopo un poco a parlare con se stesso (i suoi stessi concetti vengono riproposti e riutilizzati dall'AI per intrattenerlo). Nella considerazione che esistono persone con personalità indebolite, queste possono facilmente divenire dipendenti dall'interazione con l'AI andando, peraltro, a peggiorare il loro stato costruendo una dipendenza. La risposta a questo problema dell'umanizzazione è la regolamentazione e l'educazione. Ben presto i "motori" di AI saranno così diffusi che si dovrà pensare ad una sorta di generalizzata alfabetizzazione degli utenti. Una volta bisognava imparare a scrivere a far di conto, poi è divenuto indispensabile saper "usare" il computer classico, presto sarà necessario saper interagire con l'AI, pena una sorta di ignoranza generalizzata che non permetterà più di valutare quale realtà sia vera...


6. Siamo noi a influenzare l'AI o viceversa?

Prepariamoci ad un rapporto che di fatto è già biunivoco. Sotto molti punti di vista l'AI attuale, compresa quella generativa, è un sofisticato specchio delle nostre conoscenze individuali e sociali che passano attraverso Internet. L'idea però, che siamo solo noi ad influenzarla è davvero superficiale. Quando accedi ad Amazon per comprare qualcosa, sei davvero sicuro che lo hai fatto per libera scelta? Inoltre, sei davvero sicuro che stai andando a comprare qualcosa di cui avevi bisogno? Ed anche: la ricerca che fai su Google è davvero improntata su quello che volevi cercare o il tuo target di ricerca cambia mentre lo cerchi? Noi siamo cibo per l'AI (le nostre informazioni lo sono) ma anche parziali esecutori di suoi ordini... Spero che nessuno si stupisca che abbia usato Amazon e Google come esempi parlando di AI, in caso contrario prego di approfondire tale discorso perchè sono esempi estremamente calzanti, globalizzati e ben poco soggetti a regolamentazione (parlando di AI), anche in EU e quindi in Italia.


7. Il mito di un'AI Italiana o Europea

Sia l'AI Act che le ultime disposizioni legislative contengono l'idea conservativa di avere un mercato interno (in EU o peggio ancora in Italia) di AI. Questo come se fosse possibile rinchiudere queste teorie e sistemi entro limiti geografici. Bisogna tornare al perchè l'AI è oggi alla ribalta e perchè sembra aver iniziato a funzionare. Per gli specialisti di qualche anno fa teorie come quelle attuali non avevano niente di nuovo, solo non si sapeva come farle funzionare in pratica e non si era nemmeno sicuri che potessero funzionare. Sono stati 3 i punti di sviluppo che hanno consentito il passaggio: (1) la disponibilità, spesso in cloud, di grandi potenze di calcolo altamente scalabili a prezzi relativamente abbordabili; (2) la grande disponibilità, prevalentemente in cloud e Internet, di grandi spazi di memoria che potessero manipolare enormi quantità di dati, ciò sempre a prezzi relativamente contenuti. (3) l'elevato volume di scambio delle informazioni su Internet, a bassissimo costo ed alta velocità. In definitiva l'AI è giunta dov'è oggi grazie all'apertura, anche e soprattutto quella di natura geografica. L'idea di facilitare o confinare un'AI italiana o EU porta solo a sminuirla e renderla meno concorrenziale e valida di quella non confinata. Ripeto quindi che sono d'accordo con la regolamentazione del settore (purchè non eccessiva) ma non nel facilitare o costringere il mercato dell'AI interno in certe direzioni.


8. ISO/IEC 42001:2023 IT AI Management system

Segnalo questa ISO specifica pubblicata a Dicembre 2023 e mi riservo di dedicare una pagina di questo sito a tale documento, di sicuro importante nel quadro attuale di sviluppo dell'AI. Tale ISO/IEC 42001 è il primo standard mondiale per i sistemi di gestione dell'AI. Considera aspetti etici, trasparenza, dinamicità del sistema, formazione, rischi e opportunità.


9.Uso dell'AI a scopo illecito

Non è difficile comprendere che l'AI è uno strumento estremamente versatile e per certi campi molto efficace. Come tutti gli strumenti con tali caratteristiche può essere usato particolarmente bene come arma informativa e informatica/telematica. Basta ricordare la potenza dei fake basati su AI circolanti in rete, nonchè la dinamicità e potenza dei cyber attack coordinati da sistemi di AI distribuiti su Internet. Di conseguenza esistono molteplici organizzazioni ed enti al mondo che studiano come potenziarla quale arma operativa e svariate organizzazioni criminali che investono congrue quantità di denaro su di essa per strutturare un supporto agile ed efficace nell'ambito illecito di competenza. Vorrei aggiungere che queste organizzazioni ed enti non si fanno scrupolo di impiegare l'AI oltre i limiti consentiti dall'etica e dalle leggi per cui ne ottengono spesso la massima potenza di fuoco contrariamente a quelle organizzazioni governative che operano alla luce del sole. Anche questo deve far molto riflettere sul concetto di regolamentazione del settore. Come ho già ripetuto la regolamentazione è necessaria ma non solo in senso positivo e confinativo dall'interno, vanno considerati anche altri aspetti quali, ad esempio: l'uso legittimo dell'AI quale arma a scopo difensivo, lo stabilire limiti legali alla possibilità di operare (sia in raccolta dati, che a livello analisi, che infine a livello operativo) per sistemi di AI esterni all'EU destinati a scopi non riconosciuti, non dichiarati o non chiari, favorire l'uso dell'AI interna a scopo investigativo e di intelligence, ecc.. Quindi la regolamentazione non deve limitare le possibilitù di sviluppo e studio dell'AI in generale quanto piuttosto limitare e circoscrivere l'azione di specifici sistemi di AI volti a scopi non ritenuti eticamente/ militarmente/ legalmente accettabili dall'Italia e dall'EU.


10.L'AI è sostenibile energeticamente?

Tutti gli elementi che ho già citato come concorrenti alla prossima evoluzione dell'AI, ossia Quantum computing, Super computing e Cloud hanno un tratto in comune: sono energivori. Lo sono come energia necessaria al loro funzionamento e come energia necessaria al loro raffreddamento. Tutta la potenza di elaborazione e la memoria impiegata da questi sistemi corrispondonno a tanto calore sviluppato e tanta corrente elettrica consumata in assoluta costanza 24h 7/7. La possibilità di rendere accettabile dal punto di vista ecologico l'AI è purtroppo minima. Lo hanno già dimostrato diversi grandi provider di tali servizi che hanno dovuto ricorrere all'acquisto di intere centrali elettriche, nel migliore dei casi idroelettriche ma più spesso termiche e nucleari. Capisco di avere un'opinione negativa del fenomeno in questo senso ma direi che è un approccio realistico. La veloce evoluzione di questa materia sarà un grande problema da gestire energeticamente ed ecologicamente parlando, siamo appena agli inizi, ma la questione emergerà prestissimo.


11.L'AI è sostenibile economicamente?

L'AI produce assuefazione nelle persone comuni, intendo dire che una volta sperimentate applicazioni software AI-based tornare indietro è praticamente impossibile per gli sfortunati clienti (chi tra voi cerca alternative a Google per fare ricerche su Internet?! Perchè? Facciamoci domande, sempre!). Questo si traduce in immensi profitti per poche società spesso internazionali basati sullo sfruttamento delle persone comuni. La regolamentazione in questo caso è assolutamente indispensabile perchè l'AI tenderà ad incrementare le differenze di disponibilità ecomomiche tra le persone. L'AI (purtroppo) promuove, direttamente o indirettamente, la vecchia frase: pochi ricchi sempre più ricchi e quindi in questo senso va guidata con molta attenzione. La redirezione della ricchezza, infatti, non è prodotta come risultato diretto ma indiretto di un processo estremamente complesso in cui la persona comune ha ben poca voce in capitolo (ammesso che capisca cosa sta accadendo).


12. Il mito di un'AI spiegabile

L'AI attualmente in uso e naturalmente quella generativa (che, ricordiamo, non è l'unica esistente) non fa eccezione, non è solo difficile da capire nei suoi meccanismi ma, essendo prevalentemente basata su complessi meccanismi numerici che convergono (si spera) più o meno efficacemente verso un risultato, non ha in se l'idea di procedimento risolutivo di un problema e nemmeno della completa divisione in passi compiuta per giungere alla decisione finale. Il sistema apprende nel senso di analizzare tonnellate di dati e modificare di conseguenza un'infinità di parametri numerici che la regolano (non è inusuale considerare ordini di grandezza di miliardi o decine di miliardi di parametri). Poi il sistema si pronuncia su un problema per il quale viene interrogato sfruttando i citati parametri grazie ad un "motore" interno che a sua volta esegue una congrua quantità di calcoli per addivenire a delle risposte di natura più spesso probabilistica. In tutto questo, il rincorrere la "spiegabilità" della decisione proposta dal motore rischia (avviene nella maggioranza dei casi) di realizzare un qualcosa di ancora più complesso della ricerca di una soluzione per il problema iniziale. L'essere umano, come spiegazione di una decisione intende un processo logico, il più delle volte argomentato (si pensi ad un processo dibattimentale). Per l'AI attuale la spiegazione è una caterba di parametri numerici a seguito dei quali il motore non poteva non proporre una certa opzione. Bisogna ricordare che l'AI ha senso perchè accelera la risoluzione di problemi complessi; se la spiegazione del perchè ha trovato certe soluzioni è ancora più complessa del problema iniziale per cui viene usata, l'AI spiegabile da chi verrà considerata? Questione di non poco conto e irrisolta, per cui ricorrere al concetto di imporre un'AI spiegabile per certe applicazioni critiche, sebbene valido eticamente e legalmente, ha ben poco senso dal punto di vista tecnico (attualmente).


13. Conclusioni

Vorrei chiudere sfruttando un''elegante osservazione che ho intrasentito durante la conferenza: per come è oggi l'AI, interagire con l'AI, per un utente non tecnico, equivale a interagire con se stesso. Questa osservazione, misto tra aspetti psicologici e filosofici, ha davvero tanto senso. L'AI generativa in particolare è psicologicamente parlando un potente "specchio" delle proprie idee, non per niente nella tecnica del "prompting" (programmare sistemi di AI mediante interazione diretta, colloquio, video, audio, testo, ecc.) quello che si deve pensare è proprio di interloquire con qualcosa che consente al programmatore stesso di chiarificare le sue idee sul problema che sta trattando (provare per credere, interagite con ChatGPT o Gemini avendo l'idea di dover risolvere insieme per passi qualcosa di ben delineato e vedrete che ottimo lavoro di squadra farete con "lui"). Ritornando quindi al discorso dell'umanizzazioone dell'AI per gli utenti comuni è bene ricordare e sottolineare che l'AI attuale lavora per analogie e non per significati, mette in parallelo dei fatti piuttosto che valutarli, non ha individualità neanche come meccanismo ma semplicemente sta lavorando per un obiettivo.