intelligenza artificiale

Uno dei saggi più interessanti ed illuminanti degli ultimi mesi è dal mio punto di vista quello dedicato all’intelligenza artificiale a firma Henry Kissinger, Eric Schmidt e Daniel Huttenlocher.

I rischi

L’ex segretario di stato americano, l’ex amministratore delegato di Google e il decano del Massachusetts Institute of Technology descrivono in maniera esaustiva la storia di questa tecnologia, le sue potenzialità, i non trascurabili rischi. Si tratta, è bene dirlo subito, di una questione attualissima e molto concreta, visto che l’intelligenza artificiale senza che ce ne rendiamo conto è già presente nelle nostre vite. Il senso più intimo del testo è proprio questo, non è una questione filosofica o una discussione sui massimi sistemi, ma qualcosa di molto impattante di cui essere tutti pienamente consapevoli e che le istituzioni dovrebbero provare a regolamentare in tempi molto rapidi.

Come sempre il problema non è mai il progresso, ma l’uso che se ne intende fare ed i valori che ispirano il nostro agire. Fa specie in tal senso, scorrendo le pagine del libro dedicate alla sicurezza e all’ordine mondiale e vista l’autorevolezza e la conoscenza dei fatti di alcuni degli autori, acquisire la certezza che negli anni della guerra fredda solo una considerazione ci ha salvato dal disastro nucleare e cioè la certezza che “il nemico” in caso di attacco avrebbe avuto il tempo di fare altrettanto. Emerge cioè la certezza che in assenza di questo equilibrio del terrore, della consapevolezza che la fine “dell’altro” avrebbe significato la fine di tutto, chi era in posizione di vantaggio avrebbe sicuramente sfruttato quel vantaggio, come peraltro era già successo, a dispetto della distruttività sproporzionata ad esso connessa. Ebbene una corsa per ottenere il vantaggio strategico nell’ambito dell’intelligenza artificiale, inutile dirlo, sarebbe già in fase di svolgimento.

Ritorno a Kant

Nel 1781 il filosofo tedesco Immanuel Kant pubblicò la Critica della ragione pura, nella quale sostenne la necessità da parte della ragione di applicarsi nella conoscenza di sé stessa, cosa che l’avrebbe portata alla comprensione dei suoi stessi limiti. Secondo Kant la ragione umana aveva la capacità di conoscere la realtà in maniera approfondita, ma incompleta, imperfetta. La cognizione e l’esperienza umana filtrano, strutturano e distorcono tutto ciò che conosciamo, anche quando cerchiamo di ragionare “puramente” facendo uso della sola logica.

Per i successivi duecento anni questa fondamentale distinzione operata da Kant finì nel dimenticatoio, convinti che ciò che la mente umana ci nascondeva strutturalmente non aveva alcuna importanza, sarebbe rimasto tale per sempre, ispirando semmai fede e consapevolezza dell’infinito. La realtà degli avvenimenti ha però smentito questo assunto e l’evoluzione dell’intelligenza artificiale ha dato ragione a Kant. In effetti i primi tentativi di creare un’intelligenza artificiale si basavano sulla codificazione delle competenze umane, ma la gran parte del mondo non è organizzata in modo chiaro e quindi riconducibile a semplici regole o rappresentazioni simboliche.

Ecco perché nei decenni passati si sono compiuti passi in avanti enormi nell’automazione dei processi aziendali, nella capacità di calcolo, nel gioco degli scacchi, ma si sono incontrate difficoltà nella traduzione linguistica o nel riconoscimento visivo degli oggetti, in quanto forieri di una maggiore ambiguità e variabilità. Questa difficoltà ha condizionato gran parte degli anni Ottanta e tutti gli anni Novanta del secolo scorso, tanto da far parlare di “inverno dell’intelligenza artificiale”.

In seguito però ci si rese conto che era necessario un nuovo approccio, in grado di consentire alle macchine di imparare in modo autonomo. I ricercatori si resero conto cioè che per identificare l’immagine di un gatto una macchina doveva imparare una serie di rappresentazioni visive di gatti osservando l’animale in vari contesti, ossia per consentire l’apprendimento automatico serviva la sovrapposizione di varie rappresentazioni di un dato oggetto e non la sua forma ideale. Fornire alle macchine questo strumento, tipico dell’intelligenza in natura, ma avendo le macchine una impostazione diversa e una capacità di calcolo superiore, permette attraverso un algoritmo di apprendimento automatico di cogliere relazioni che sfuggono all’osservazione degli esseri umani e che questi talvolta non sono nemmeno in grado di ricostruire a posteriori.

Le applicazioni

Un algoritmo di apprendimento automatico che migliora un modello basato su dati soggiacenti ha portato di recente all’identificazione di un nuovo antibiotico, l’halicina, e nuove possibilità emergono nella possibilità di individuare precocemente il cancro. Ma le applicazioni possibili sono miriadi, non solo in campo medico ma anche in campo agricolo, in campo finanziario, in quello della difesa dell’ambiente.

Nel 2017 Alphazero, un algoritmo sviluppato da Google DeepMind, ha persino sconfitto Stockfish, considerato fino ad allora il programma di scacchi più potente al mondo, ma concepito secondo il vecchio schema. Alphazero vinse 28 partite, ne pareggiò 72, non ne perse nessuna, distinguendosi per uno stile di gioco originale e imprevedibile, per non dire incomprensibile. Mentre Stockfish era stato di fatto addestrato dall’uomo, DeepMind era in grado di apprendere in autonomia.

Le piattaforme di rete sono già gestite dall’intelligenza artificiale, aggregando informazioni ed esperienze, producendo risposte e consigli che possono sembrare sorprendentemente appropriati. Il rischio sono le bolle di filtraggio, la disinformazione ad hoc, ma soprattutto un generale disimpegno della mente umana, in una condizione di sempre maggiore dipendenza. A ciò bisogna aggiungere la proprietà di questi strumenti, spesso e volentieri in mano a privati con un approccio transnazionale, oltre che la non completa prevedibilità degli sviluppi.

Infatti per loro stessa ammissione sebbene gli ingegneri coinvolti in questi processi sappiano che la loro funzione di ricerca gestita dall’intelligenza artificiale produca risultati più chiari di quelli che otterrebbero senza, essi non sono sempre in grado di spiegarne la ragione. Si impone dunque la necessità di organismi sovranazionali di controllo ed ogni Paese farebbe bene a non rimanere troppo indietro da un punto di vista strategico. Abbiamo il dovere di plasmare l’intelligenza artificiale in un modo che sia compatibile con il futuro umano, tuttavia l’assenza di un deterrente potente e facilmente comprensibile, oltre che la scarsa conoscenza dell’argomento e delle sue implicazioni non giocheranno a favore.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui