Poniamo di fare uso di ChatGPT o Gemini di Google, e di chiedergli di spiegare un concetto complesso a nostra scelta: esso genererà una risposta basata su ciò che ha acquisito nei propri dati di addestramento, senza tuttavia avere un autentico senso della verità o dell’accuratezza. A tale riguardo un “pappagallo stocastico” è un termine metaforico utilizzato per descrivere i modelli di intelligenza artificiale (IA) come i modelli linguistici di grandi dimensioni (LLM, ad esempio ChatGPT o Gemini), ed è stato coniato per sottolineare il fatto che questi modelli, pur producendo risposte apparentemente intelligenti, non possiedono una comprensione vera o una conoscenza autonoma. Afferisce pertanto al mondo delle intelligenze artificiali deboli o specializzate su un singolo compito, non a quelle forti o “universali” o, ancora, senzienti.
L’espressione “pappagallo stocastico” – l’idea si basa sull’immagine di un pappagallo virtuale che ripete frasi che ha sentito, senza realmente comprendere ciò che dice – viene introdotto da un celebre articolo del 2021 sui pericoli degli LLM in termini pratici, etici e morali, e propone che si faccia uso in modo responsabile di questi software, sollevando interrogativi non da poco su vari fronti.
Di fatto, l’IA non “comprende” davvero il significato del testo che genera, anche se può sembrare convincente. Poiché i modelli sono addestrati su dati umani, possono replicare (o amplificare) pregiudizi e stereotipi presenti nei dati di addestramento. Il tutto può indurre gli utenti a pensare che il sistema “sappia” o “pensi”, quando in realtà è solo un elaboratore statistico di parole.
Il termine “pappagallo stocastico” invita a essere critici e consapevoli nell’uso dell’IA: per quanto sofisticata, rimane uno strumento che non possiede una comprensione umana. Bisogna usarla con attenzione, specialmente in contesti delicati o decisionali. Numerosi ulteriori interrogativi riguardano l’impatto ambientale delle intelligenze artificiali ed il rischio annesso alla diffusione di bias cognitivi, pregiudizi ed errori sistematici di ragionamento.
Significato dei singoli termini
- Stocastico: Si riferisce al fatto che il modello genera testo basandosi su probabilità. Analizza enormi quantità di dati e calcola quale parola (o sequenza di parole) ha maggiori probabilità di seguire una data frase.
- Pappagallo: Richiama l’idea che l’IA non “comprende” o “inventa” ma imita modelli linguistici appresi dai dati. Non ha consapevolezza, intenzionalità o creatività intrinseca, ma solo un’enorme capacità di imitazione sofisticata.