Storicamente. Laboratorio di storia

Dibattiti

Macchine e noi. Note sulla storia dell’intelligenza artificiale a partire da Nello Cristianini

PDF
Abstract

Il testo discute le principali teorie e ipotesi scientifiche sulla storia dell’intelligenza artificiale avanzate in tre recenti volumi dall’informatico Nello Cristianini. Si discute il significato storico ed epistemologico delle principali svolte nello sviluppo delle ricerche sull’IA nel XX secolo, per poi esaminarne l’impatto politico e sociale negli ultimi anni. L’analisi comprende anche una lettura critica del vocabolario scientifico impiegato dallo stesso Cristianini, perché concetti come “intelligenza”, “adattamento” e “ambiente” evidenziano non solo i rischi associati a possibili abusi dell’IA, ma più propriamente il ruolo di quest’ultima nell’affermazione e riproduzione delle relazioni sociali su scala globale. 

The text discusses the main scientific theories and hypotheses for a historical reinterpretation of Artificial intelligence, as set out by computer scientist Nello Cristianini in three recently published volumes. It reports on the historical and epistemological significance of the main stages in the development of AI research in the 20th century, before examining its political and social impact in recent years. The analysis also involves a critical reading of the scientific vocabulary employed by Cristianini himself, as concepts such as “intelligence”, “adaptation” and “environment” highlight not only the risks associated with the “misuse” of AI, but also its role in the affirmation and reproduction of social relations on a global scale.

La storia dell’intelligenza artificiale non ha una data di inizio univoca, né esiste un campo di ricerca omogeneo al suo interno deputato a ricostruirne le vicende fondamentali. Tenendo da parte le scienze dure e computazionali, di algoritmi e macchine intelligenti è possibile discutere da molteplici punti di vista, perché profonda e sfaccettata è l’influenza che la loro introduzione e sviluppo a partire dalla metà del XX secolo ha esercitato sulle società, sugli stati, sulla politica e sui modi di intendere, governare e indirizzare il progresso scientifico. Ne risulta che una storia dell’intelligenza artificiale oggi è per forza di cose un capitolo fondamentale della più ampia storia della tecnologia, della scienza contemporanea, ma anche del capitalismo, delle relazioni internazionali e delle teorie sociali e politiche che nel tempo hanno legittimato o messo in questione le implicazioni etiche e materiali dell’applicazione su vasta scala delle tecnologie digitali (William 2003; Wooldrige 2021; Crawford 2021; De Luca 2024; Aresu 2024). I tre recenti volumi pubblicati per il Mulino dall’informatico Nello Cristianini, professore di Intelligenza Artificiale presso l’Università di Bath, in Inghilterra, intitolati La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano (2023), Machina Sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza (2024) e Sovrumano. Oltre i limiti della nostra intelligenza (2025), meritano di essere discussi esattamente perché restituiscono in maniera chiara e accessibile la dimensione sfaccettata delle implicazioni storiche, teoriche ed etico-politiche dell’attuale proliferazione di software con capacità di apprendimento e interazione fino a pochi anni fa inimmaginabili. Cristianini, è bene specificarlo, ricostruisce le vicende storiche dell’intelligenza artificiale con lo sguardo di uno scienziato interessato a ragionare sul futuro delle ricerche nel settore e su come esse, già da qualche decennio, lancino una sfida radicale ai modi tradizionali di intendere l’intelligenza umana, la sua specificità, la sua dimensione sociale e non solo natural-evolutiva.

Non è un’analisi storico-concettuale dettagliata delle diverse scuole di pensiero e dei problemi teorici che una tale impresa solleva che può essere pretesa dai volumi di Cristianini; interrogandoli è però possibile verificare quali presupposti scientifici fanno da sfondo alla parabola storica dell’intelligenza artificiale e quali svolte teoriche ne segnano il cammino, travalicando i confini delle scienze informatiche e computazionali. Queste note saranno perciò divise in due parti che costituiscono altrettanti attraversamenti tematici dei volumi in oggetto: nella prima si restituiscono i principali momenti storici di ridefinizione e innovazione tecnologica che hanno reso possibile l’attuale proliferazione di macchine intelligenti cosiddette “generative”; la seconda prende in esame il ruolo di categorie quali adattamento, ambiente e intelligenza per la comprensione del funzionamento e dello sviluppo tecnico di algoritmi e software IA, intesi come “macchine sociali”.

Simboli, reti, dati

Se ci si vuole attestare sul piano dell’invenzione del lemma “intelligenza artificiale” per stabilire l’inizio della sua storia, allora è necessario fare riferimento alla Conferenza di Dartmouth (Usa) del 1956, durante la quale Herbert Simon e Allen Newell presentano il primo programma esplicitamente progettato per replicare le capacità umane di problem solving (il Logic Theorist), che John McCarthy definisce immediatamente un esempio di “Artificial Intelligence”. Cristianini, tuttavia, non si accontenta di ciò; per lui la storia dell’intelligenza artificiale deve essere fatta risalire almeno al 1950, quando Alan Turing propone il suo celebre test per stabilire la capacità delle macchine di conversare in modo il più possibile indistinguibile da un essere umano (Cristianini 2024, 17). Le teorie di Turing – in particolare quelle espresse nel suo saggio seminale del 1950 Computing Machinery and Intelligence – accompagnano Cristianini lungo tutti i suoi ragionamenti sugli sviluppi di algoritmi e intelligenze artificiali per due motivi fondamentali: il primo dipende dal fatto che il modello teorico di Turing ha influenzato la scienza dell’intelligenza artificiale fino alla soglia degli anni Ottanta; il secondo è che alcune sue intuizioni hanno per Cristianini un valore quasi profetico se ripensate alla luce delle più recenti capacità sviluppate dalle macchine intelligenti.

“Ogni volta che licenzio un linguista la performance del nostro sistema migliora”. Questa frase, pronunciata nel 1988 da Frederick Jelinek, informatico impiegato presso la IBM, riassume il senso e la radicalità della svolta fondamentale che Cristianini ravvisa nelle vicende novecentesche dell’intelligenza artificiale (Cristianini 2023, 45). Lungo tutti gli anni Settanta l’approccio alla soluzione di problemi nella capacità delle macchine di comporre frasi di senso compiuto e rinvenire gli errori a loro sottoposti era ancora quello suggerito da Turing vent’anni prima: la macchina è tanto intelligente quanto più è in grado di “imitare” le facoltà umane. Di conseguenza, le ricerche si sono per anni concentrate sulla produzione di modelli linguistici complessi tali da includere sufficienti regole sintattiche, grammaticali e ortografiche da rendere la macchina capace di replicare il linguaggio umano. È quella che in letteratura viene oggi definita “Intelligenza Artificiale Logica”, il frutto di un paradigma scientifico – Cristianini si rifà esplicitamente al filosofo Thomas Kuhn per questa definizione – improntato al tentativo di costruire modelli informatici formalmente capaci, tramite la simbologia matematica, di replicare il pensiero, il ragionamento e l’intelligenza umane. A quei modelli veniva conseguentemente richiesto di risolvere problemi matematici, di dimostrare teoremi di geometria, di giocare a scacchi con competenza, di raccomandare acquisti compatibili con il profilo dell’acquirente che stava visitando un sito internet. Retrospettivamente, Cristianini rileva in questo approccio il problema di presupporre che l’intelligenza sia, appunto, un carattere solo umano di cui la macchina può esprimere tratti caratteristici su un piano imitativo (Cristianini 2023, 12). L’affermazione di Jelinek è quindi un’ottima rappresentazione del mutamento di paradigma scientifico in corso in quei decenni.

Il secondo motivo del costante richiamo alle teorie di Turing consiste, come detto, nella capacità di anticipazione che Cristianini assegna loro. In particolare, Turing aveva posto il problema di controllare e comprendere lo sviluppo di macchine che avrebbero a un certo punto superato gli esseri umani in prestazioni specifiche sempre più complesse. È questo lo scenario che effettivamente si apre per Cristianini nel momento in cui gli algoritmi basati sulle reti neurali e la sostituzione di modelli logico-formali con quelli statistico-probabilistici hanno imposto uno scarto radicale nella ricerca e nello sviluppo dell’intelligenza artificiale (Cristianini 2024, 97). È quella che nel suo primo volume l’autore definisce “la scorciatoia” che ha permesso a scienziati e informatici di superare i limiti tecnici fino a quel punto incontrati:

Dopo aver cercato per anni di scoprire l’elusiva qualità che rende le cose intelligenti per implementarla nelle loro macchine, i ricercatori si sono accontentati di studiare i comportamenti intesi a perseguire uno scopo e di generarli con vari metodi. Questo ha prodotto una classe di agenti autonomi che possono apprendere e comportarsi in modo appropriato in una varietà di situazioni nuove, sfruttando relazioni statistiche nel proprio ambiente, eliminando il bisogno di regole di condotta esplicite, ma introducendo la necessità di grandi quantità di dati da cui imparare. Il nuovo paradigma, che si basa sull’apprendimento automatico, porta con sé nuove aspettative, nuovi strumenti e nuovi esempi da imitare (Cristianini 2023, 27).

Emergono da questo passaggio almeno tre elementi importanti per una storia critica dell’intelligenza artificiale contemporanea: quello della difficile definizione di “intelligenza”, quello della rilevanza dell’“ambiente” nel quale e dal quale le macchine apprendono e, connesso a questo, il tema delle grandi quantità di dati di cui gli algoritmi necessitano per essere addestrati.

A prescindere dall’immenso e plurisecolare dibattito filosofico sul concetto di “intelletto”, che non è rilevante ai fini di questo discorso, il volume di Cristianini permette di registrare non solo, come si è già notato, che alla base delle ricerche in campo informatico si situa uno spiazzamento dell’essere umano quale unico agente intelligente, ma anche che le stesse acquisizioni in campo tecnologico sono state a loro volta un vettore di ridefinizione di che cosa significhi essere “intelligenti”, e di come tale intelligenza possa essere misurata scientificamente. Lungo tutto il XIX secolo le scienze evoluzionistiche avevano già assestato un duro colpo teorico all’idea che quella umana fosse l’unica intelligenza possibile, mentre a inizio XX secolo l’ecologia, la psicometria e le scienze socio-biologiche più in generale hanno approfondito questa frattura rielaborando il contenuto di concetti quali quello di ambiente e di adattamento anche in funzione di una definizione funzionalistica e operativa di intelligenza, ignorando la quale non è possibile cogliere le cause storiche e la portata teorica delle successive riflessioni sul Machine learning avanzate dalle scienze computazionali, che infatti ne riattivano puntualmente il lessico. Questo insieme di acquisizioni permettono di sostenere che non esiste una singola qualità che rende gli agenti “intelligenti”, ma che al contrario l’intelligenza debba essere misurata in funzione della capacità di un sistema di agire in modo appropriato in un ambiente mutevole, che richiede perciò la capacità di elaborare decisioni differenti in grado di massimizzare le probabilità di successo del sistema stesso (Cristianini 2023, 13). Così si spiega la pervasività del riferimento all’ambiente in cui le macchine sono chiamate a operare: esso – e su questo terreno è possibile misurare la portata del cambio di paradigma risalente agli anni Ottanta del XX secolo – non è più dato dalle istruzioni introdotte ab origine dal programmatore, ma è per la maggior parte costituito dagli immensi set di dati attraverso cui l’algoritmo viene addestrato a comportarsi in maniera adeguata al proprio scopo. Significativamente, un articolo comparso sulla rivista Wired nel 2008 a firma di Chris Anderson aveva definito questo mutamento nel campo delle ricerche sulle tecnologie digitali la “fine della teoria” (Anderson 2008), con ciò indicando l’esaurimento delle capacità propulsive del metodo scientifico moderno basato sulla costruzione di rapporti causali tra eventi altrimenti indipendenti, sostituito da inferenze statistiche che, con le parole di Cristianini, trasformano l’IA in una disciplina per addestratori, non più per programmatori (Cristianini 2025, 20).

Nel sostenere ciò, Cristianini getta luce sull’espansione smisurata del mercato dei dati, ma finisce per concedere uno spazio solo marginale alla trattazione degli effetti economici e sociali di questi recenti sviluppi: si tratta di una mancanza rilevante perché, quando presa in considerazione, permetterebbe di determinare non solo di quale “ambiente” si nutre l’intelligenza artificiale, ma anche quale ambiente il suo sviluppo contribuisce a creare. Fuor di metafora, se un agente è tanto più intelligente quanto più è in grado di raggiungere i propri scopi in un contesto mutevole, allora uno studio storico che vuole domandarsi come quegli agenti adoperino la propria intelligenza deve prendere in considerazione il modo in cui gli algoritmi oggi cambiano le condizioni in cui milioni di persone nel mondo vengono messe al lavoro, o ancora il modo in cui vengono direzionati tanto i fondi pubblici quanto i capitali privati per la ricerca. Peraltro, si tratta di processi resi più evidenti e dirimenti proprio dai diversi salti di scala operati dai sistemi di intelligenza artificiale negli ultimi quindici anni, cui Cristianini dedica larghe parti dei suoi volumi del 2024 e del 2025. Da questo punto di vista è possibile notare come la programmazione – l’introduzione degli scopi che il programma deve darsi – continui a costituire un nodo centrale per comprendere il funzionamento politico e sociale degli algoritmi, nonostante il carattere opaco del loro “comportamento”.

“Nel 2017 un nuovo algoritmo, chiamato Transformer, consentì ai computer di analizzare rapidamente quantità enormi di testo, per scoprire utili regolarità statistiche senza intervento umano. Fu l’inizio di una lunga catena di conseguenze” (Cristianini 2024, 25). Questo algoritmo è l’antenato più recente di Gpt (Generatively pretrained transformer), che con la sua capacità di interagire in maniera convincente con utenti umani ha cambiato in maniera permanente il modo in cui ci si interfaccia con un agente intelligente e che cosa ci si aspetta da esso. Sul piano tecnico, la novità dirompente del modello di linguaggio Gpt consiste nella sua capacità di trarre dai dati su cui viene addestrato a prevedere con quale parola sarà più corretto completare una frase, capacità di soluzione di problemi che vanno ben oltre quel compito specifico. I ricercatori si sono in altre parole resi conto che aumentando la quantità di dati migliorava la capacità predittiva dell’algoritmo e, di conseguenza, la sua abilità nel rispondere con frasi corrette nella forma e nel contenuto a domande riguardanti i casi più disparati, sempre e solo usufruendo di correlazioni statistiche tra i dati immessi nel sistema. È così che, per Cristianini, si è ormai giunti al punto in cui i “modelli di linguaggio” di cui si servono agenti come Gpt costituiscono dei veri e propri “modelli del mondo” (Cristianini 2024, 137), cioè rappresentazioni esaustive (in relazione al compito che devono svolgere) dell’ambiente in cui devono operare. Da questo punto di vista, la vicenda di come l’IA ha ottenuto la capacità di riconoscere le immagini – uno dei molti esempi riportati dall’autore – può essere ripresa a titolo esemplificativo perché restituisce tanto il tipo di indagine cui Cristianini è interessato, quanto le possibilità e i limiti che essa conseguentemente incontra.

Nel 2007 la ricercatrice Fei Fei Li crea una collezione di immagini da taggare per insegnare alle macchine a distinguere gli oggetti presenti al loro interno. Un problema che già nel 1988 Hans Moravec aveva riconosciuto come uno dei più duri da risolvere con gli strumenti della logica formale trova così una soluzione. Negli anni successivi, in particolare tra il 2014 e il 2015, ResNet, un modello di calcolo a rete neurale per il riconoscimento di immagini, arriva a ottenere tassi di accuratezza del 96,4% nelle proprie classificazioni, superando i valori raggiunti dagli esseri umani impegnati in test simili (94,9%). Sostiene Cristianini che “questa è la natura della Narrow Artificial Intelligence, un approccio in cui gli agenti raggiungono prestazioni altissime, al costo di diventare estremamente specializzati” (Cristianini 2025, 27): da qui in avanti la storia dell’IA è attraversata da numerosi esempi di programmi creati, test elaborati per misurarne l’intelligenza in campi specifici, addestratori impegnati a chiudere eventuali falle apertesi nel sistema. Quella che descrive Cristianini è una corsa all’abbattimento di sempre nuove barriere tecnologiche che rappresentano altrettante frontiere delle prestazioni umane. Attingendo a un lessico apocalittico – “la sfida finale”, “batterci al nostro gioco”, “oltre i limiti della nostra intelligenza”, “l’ultimo esame dell’umanità” – l’autore alimenta nelle battute finali del suo ultimo volume l’idea che il limite e la non-unicità dell’intelligenza umana, da cui il suo percorso editoriale aveva preso le mosse, sia oggi definitivamente provata dalla capacità delle macchine di ottenere risultati “sovrumani” in molti campi, con gradi sempre maggiori di generalità e astrazione. Se ha l’indubbio pregio di rendere accattivanti e accessibili a un pubblico non specialistico anche gli aspetti più tecnici delle ricerche nel campo dell’IA, la scelta dell’autore – coerente lungo tutti i tre volumi – di insistere sul raffronto tra capacità cognitive umane e algoritmiche rischia tuttavia di far scivolare in secondo piano aspetti storici, filosofici e politici rilevanti di questa vicenda. In altre parole, i volumi di Cristianini, attraverso il percorso appena sintetizzato, privilegiano l’urgenza di trovare soluzioni politiche e di governo di “controllo” (Cristianini 2023, 67) di una tecnologia che sempre meno gli esseri umani sono in grado di comprendere fino in fondo, e che sempre più di conseguenza pone problemi-limite – tra i molti esempi di rischi sono riportati il caso di Cambridge Analytica, che ha rivelato l’esposizione dei sistemi politici democratici alle influenze delle Big Corporations, l’“effetto Eliza”, ovvero la pericolosa capacità di persuasione che un bot può esercitare su individui “vulnerabili”. A essere sacrificata, in questa prospettiva, è un’analisi del carattere compiutamente politico e sociale degli algoritmi, riscontrabile esercitando uno sguardo critico sui fini e le relazioni sociali che essi incorporano, nonché sullo strumentario concettuale adoperato per legittimarne scientificamente il funzionamento nell’epoca dell’apparente “fine della teoria”.

“Macchine sociali” e politica dell’Intelligenza Artificiale

Norbert Wiener era preoccupato che le macchine potessero prendere delle scorciatoie pericolose e le paragonò al talismano di un vecchio racconto dell’orrore, che fa ciò che gli viene chiesto, ma lo fa “alla lettera”. Oggi le sue preoccupazioni potrebbero realizzarsi: usiamo algoritmi statistici per valutare i rischi di decisioni, spesso associate a individui, anche quando la posta in gioco è molto alta. Per fortuna finora il danno è stato contenuto, ma come possiamo assicurarci che le macchine non violino le fondamentali norme sociali, eseguendo “alla lettera” quello che viene chiesto loro? (Cristianini 2023, 83).

Questo passaggio del volume La scorciatoia restituisce un’immagine accurata del modo in cui Cristianini pone la fondamentale questione della dimensione storico-politica dell’intelligenza artificiale. Attraverso la lettura dei suoi volumi ci si ritrova di fronte a un mondo in cui lo sviluppo tecnologico è una corsa continua verso il superamento di barriere tecniche, mentre i problemi politici sorgono solo in quei casi eccezionali in cui l’impossibile comprensione del “comportamento” della macchina implica una difficile regolazione istituzionale dei suoi usi. Tuttavia, questa non è l’unico punto di vista con il quale è possibile inquadrare in prospettiva storica e politica la funzione sociale dell’IA, e gli stessi volumi di Cristianini forniscono utili elementi di partenza per allargare il campo visivo su tali questioni. In particolare, è il nesso concettuale tra intelligenza e ambiente – che l’autore tratta a più riprese per spiegare quali passaggi tecnici e teorici stanno alla base degli sviluppi delle ricerche nel campo dell’IA – a permettere di domandarsi non solo in che modo le macchine rischino di “violare le norme sociali”, ma come strutturalmente le confermino, ne producano e riproducano i contenuti e il carattere coattivo.

“Scoprire regolarità nell’ambiente”, ricorda Cristianini, “è un passo necessario perché un agente possa anticipare le conseguenze delle proprie azioni, e così un ambiente regolare è un prerequisito per il comportamento intelligente” (Cristianini 2023, 53). Alla base di questa definizione del rapporto tra intelligenza e ambiente c’è il principio evoluzionistico per cui la selezione avviene per contatto prolungato con meccanismi e agenti esterni – ambientali – che spingono l’organismo ad adottare continuativamente la soluzione che si rivela empiricamente di successo con maggior frequenza rispetto ad altre. Intelligente sarebbe perciò l’agente, come già in parte osservato, capace di adottare comportamenti adeguati al proprio scopo nell’ambiente in cui è chiamato a farlo. Già prima che Darwin imprimesse la fondamentale svolta evoluzionistica allo studio della natura, una legge scientifica per essere tale doveva registrare su un piano di soddisfacente generalità i nessi causali che connettono regolarmente i fenomeni empiricamente osservabili. In altre parole, senza presupporre la regolarità della natura, non è pensabile la scienza moderna (Bonasera 2025). Il problema posto dall’applicazione di questo principio alla costruzione di macchine intelligenti dopo la “fine della teoria” è la traduzione sociale dell’ambiente a partire dal quale diviene possibile misurare e proceduralizzare “l’intelligenza” stessa delle macchine. D’altra parte, se è vero che “lo studio dell’apprendimento automatico è la scienza di come costruire macchine che possano trasformare osservazioni del passato in conoscenze e previsioni”, il problema non è tanto “come possiamo fidarci” (Cristianini 2023, 55) della loro intelligenza, ma indagare a quale politica apre un’intelligenza che riceve i propri stimoli da dati prodotti socialmente.

Gli elementi per indagare questo aspetto si trovano principalmente nel nono capitolo del volume che apre la trilogia che si sta discutendo. Per prima cosa, Cristianini fornisce in quella sede la seguente definizione di “macchina sociale”: “chiamiamo macchina sociale ogni sistema che includa esseri umani, in cui ciascuno esegue compiti ristretti e ben definiti e la cui interazione è mediata e vincolata da un’infrastruttura rigida. Oggi tale infrastruttura è tipicamente digitale” (Cristianini 2023, 170). L’esempio di macchina sociale avanzato dall’autore è quello di un gioco – Esp (Extra sensorial perception) – dove un algoritmo genera immagini che due giocatori a distanza dovranno descrivere usando parole che si aspettano siano scelte anche dall’altro giocatore. In questo modo, mentre i giocatori perseguono i propri fini specifici – vincere indovinando le parole più adatte a descrivere l’immagine – addestrano anche l’algoritmo a riconoscere quelle stesse immagini, “taggandole” e contribuendo così al perseguimento dello scopo generale della macchina sociale. Ne risulta una concezione dell’IA come “macchina sociale” che vincola la possibilità degli individui di perseguire i propri scopi al successo stesso del sistema sul piano macroscopico; una macchina, suggerisce Cristianini, che si comporta perciò come se fosse guidata dalla smithiana “mano invisibile” (Cristianini 2023, 175) o per meglio dire, riprendendo la definizione del mercato del neoliberale Friedrich von Hayek, che è espressione di un “ordine spontaneo”. Diviene con ciò possibile stabilire un nesso storico e concettuale tra l’IA e il neoliberalismo come teoria politica dell’ordine sociale, come ideologia e pratica politica che si afferma storicamente proprio in contemporanea alla “scorciatoia” epistemologica applicata alla ricerca sull’intelligenza artificiale (Ricciardi 2024). Adattamento, intelligenza intesa in senso funzionale e operativo, ambiente come nome di un ordine dato sono tra i termini fondamentali utilizzati per descrivere il comportamento delle macchine intelligenti e, non a caso, sono al centro anche della semantica neoliberale della società come ordine che spontaneamente produce disuguaglianze di fatto dove regna l’uguaglianza formale degli individui-agenti, e come sistema i cui fini sfuggono strutturalmente alla presa – cognitiva e politica – degli individui, per i quali è dunque impossibile metterli in questione.

Con ciò non si intende sostenere che le vicende tecno-scientifiche che segnano la storia dell’IA possano essere completamente schiacciate su quelle sociali e politiche del neoliberalismo; si tratta, piuttosto, di saggiare la ricchezza e la profondità di significati rintracciabili nell’attributo “sociale” delle macchine (Consolati e Rudan 2024). Esse sono tali non tanto o non solo perché correlando i dati che trovano nel proprio ambiente in un modo incomprensibile per gli esseri umani rischiano di produrre risultati incompatibili con i valori di determinati utenti o sistemi politici, ma perché così facendo gli algoritmi replicano la struttura sociale che ha prodotto i dati di cui si alimentano, mentre l’automatizzazione dell’apprendimento finisce persino per naturalizzare il carattere sociale degli output che fornisce.

Studi sullo sviluppo dell’IA che non cadono nella trappola dell’alternativa tra “ottimismo” e “pessimismo” tecnologico – che Cristianini evita con successo – e che si alimentano di competenze scientifiche profonde e variegate – che Cristianini certamente possiede – permettono di iniziare a porsi problemi e domande urgenti anche per le scienze storiche, politiche e sociali. La pervasività con cui oggi gli algoritmi di intelligenza artificiale permeano le vite di miliardi di persone nel mondo richiedono infatti uno sforzo teorico di comprensione critica delle modalità del loro funzionamento, della “natura” dei loro “comportamenti” sociali, nonché della semantica che caratterizza i discorsi contemporanei sul rapporto tra tecnologia, politica e società.


Bibliografia

  • Anderson, Chris. 2008. “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.” Wired, 23 giugno. https://www.wired.com/2008/06/pb-theory/.
  • Aresu, Alessandro. 2024. Geopolitica dell’intelligenza artificiale. Milano: Feltrinelli.
  • Bonasera, Jacopo. 2025. La natura in principio. Costituzione, società e governo nel pensiero politico di T.R. Malthus. Bologna: il Mulino.
  • Consolati, Isabella, e Paola Rudan. 2024. “Politica dell’algoritmo: tecnologie, poteri, teorie.” Scienza&Politica. Per una storia delle dottrine XXXVI/70: 5-13.
  • Crawford, Kate. 2021. Né intelligente né artificiale. Il lato oscuro dell’IA. Bologna: il Mulino.
  • Cristianini, Nello. 2023. La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano. Bologna: il Mulino.
  • –, 2024. Machina Sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza. Bologna: il Mulino.
  • –, 2025. Sovrumano. Oltre i limiti della nostra intelligenza. Bologna: il Mulino.
  • De Luca, Stefano. 2024. “Intelligenza artificiale e politica: l’ultima frontiera.” Storia del pensiero politico 3: 349-378.
  • Ricciardi, Maurizio. 2024. “Ordine politico e costellazione algoritmica. La tecnologia come progetto d’ordine.” Scienza&Politica. Per una storia delle dottrine XXXVI/70: 15-31.
  • William, Sam. 2003. Storia dell’IA. La battaglia per la conquista della scienza del XXI secolo. Milano: Garzanti.
  • Wooldrige, Michael. 2021. A Brief History of Artificial Intelligence. What It Is, where We Are, where We Are Going. New York: Flatiron Books.