Supponiamo di fornire ad una IA generativa come ChatGPT l’immagine di un cane, e di chiedere di generare una descrizione dettagliata dello stesso. L’IA, a quel punto, basandosi sulla sua conoscenza degli animali classificati come cani da diverse fonti, potrebbe fare inferenze sulla razza, sul comportamento o sull’aspetto dell’animale nell’immagine (ad esempio “un cane di taglia media con pelo corto, colore nero o marrone, solitamente amichevole e energico“). Il processo è pienamente automatizzabile ma dipende in maniera sensibile dai dati con cui si addestra il suo motore di inferenza, ovvero il processo che genera la descrizione sulla base delle caratteristiche dell’immagine.
L’IA utilizza dati precedentemente appresi per dedurre o inferire le informazioni mancanti e/o non direttamente osservabili nell’immagine, cercando di generare una descrizione accurata basandosi sulla conoscenza regressa. Tuttavia, va notato che l’IA potrebbe anche fare delle supposizioni errate o generalizzare eccessivamente a causa delle limitazioni nel riconoscere le sfumature, i casi particolari, le eccezioni e le peculiarità presenti nell’immagine che non siano previste nella sua base di conoscenza.
L’inferenza è un processo tipico per un’intelligenza artificiale generativa, e siamo praticamente abituati a darlo per scontato. Manca potenzialmente qualcosa al processo generativo eppure ne facciamo uso lo stesso, anche a costo di sbarazzarci del concetto di verifica che ha da sempre caratterizzato il pensiero cognitivista. Le macchine dell’intelligenza artificiale o, se preferite, gli apparati macchinici del desiderio (per dirla alla Deleuze-Guattari) sono soggetti ad un margine di errore spaventoso anche perchè ci siamo sbarazzati arbitrariamente del concetto di verifica, accontentandoci di enucleare esperienze senza analizzarle in modo critico. Con la conseguente ed ovvia diffusione di fake artificiali a tutto spiano, che diventano poi difficili da arginare se vengono diffusi in modo arbitrario.
Il concetto di inferenza per Jerome Bruner
Jerome Bruner, psicologo e pedagogista americano, ha contribuito significativamente alla teoria dell’apprendimento basandosi sul concetto chiave che l’apprendimento sia un processo attivo, in cui gli individui costruiscono nuove idee o concetti basandosi sulla propria esperienza pregressa. Per Bruner, di fatto, l’inferenza è un elemento cruciale nel processo conoscitivo umano: corrisponde con la capacità dell’individuo di estrapolare, dedurre o congetturare nuova conoscenza sulla base di ciò che già conosce. Già secondo i primi studi di Alan Turing, del resto, si possono progettare macchine automatiche in grado di dimostrare teoremi, e per quanto la realtà non sia per forza un teorema matematico il valore dell’inferenza è basilare per il progresso della scienza e (se possibile) delle nostre vite.
Bruner sosteneva già all’inizio del Novecento che le persone non assimilano passivamente le informazioni ma le elaborano attivamente, creando connessioni e costruendo significati attraverso l’uso dell’inferenza. Il che ovviamente non significa che la loro elaborazione sia perfetta o impeccabile: tale processo di inferenza implica la capacità di collegare, dedurre e generalizzare a partire da ciò che è stato appreso in precedenza, ma non quella di effettuare il compito in maniera impeccabile. In un periodo in cui molti bias cognitivi erano stati appena accennati (prima che arrivasse Daniel Kanheman ad elencarli quasi tutti, quantomeno), è una nota molto importante da fare. Bruner ha sottolineato l’importanza del processo nell’apprendimento poiché consente agli individui di andare oltre ciò che è direttamente presente o insegnato, estendendo il proprio sapere e comprendendo nuove situazioni o concetti attraverso il ragionamento e l’applicazione delle conoscenze esistenti. Ma serve una validazione delle informazioni inferite, che secondo lo psicologo può avvenire attraverso l’esperienza diretta e/o l’analisi critica. Cosa che, per inciso, non sembra prevista nelle intenzioni e dei progetti delle IA attuali, costruite come macchine di I/O da dare in pasto alle folle senza troppe vie di mezzo.
Sembra in altri termini che siamo tutti soggetti ad un’allucinazione collettiva o, alla meglio, ad un bias di automazione: persi nell’incanto di generare contenuti in modo automatico abbiamo tralasciato completamente la fase di verifica della conoscenza. Una volta si rimarcava spesso che non si potesse credere acriticamente alle informazioni presenti su internet, oggi questa osservazione è diventata demodè, tanto peggio se c’è un software che permette di “scrivere” genericamente su qualcosa in modo sintatticamente perfetto e semanticamente, in molti casi, più che perfettibile.
Se oggi l’IA generativa è incredibilmente potente nel creare contenuti e generare informazioni in modo autonomo, il problema della verifica e dell’analisi critica rimane una sfida significativa, che (soprattutto) non è detto si possa automatizzare. L’IA generativa, come i modelli di linguaggio GPT, può produrre testi che sembrano autentici e credibili, ma senza la capacità di discernimento o analisi critica propria degli esseri umani. Questi modelli non verificano automaticamente l’accuratezza o la veridicità delle informazioni che generano, e depongono in netto favore delle tecnologie supervisionate.
Nella foto: un cane di taglia media con pelo corto, colore nero o marrone, solitamente amichevole e energico, disegnato da Midjourney.