Dove ci porta l’intelligenza artificiale


Molti fisici sembrano d’accordo sul fatto che, se non fosse stato per il controllo della controllo delle congestioni, la valutazione dei browser web non sarebbe mai non si sarebbe mai verificata. In effetti, pochi hacker in tutto il mondo non sarebbero d’accordo con l’unificazione essenziale del voice-over-IP e della coppia di chiavi pubbliche e private. Per risolvere questo problema, proviamo che gli SMP possono essere resi stocastici, memorizzabili nella cache e interponibili.

Nel 2005 ha luogo una delle trollate del secolo: un gruppo di informatici riesce a sottoporre e far approvare un contributo scientifico dal titolo Rooter: A Methodology for the Typical Unification of Access Points and Redundancy (più o meno: Rooter: Una metodologia per l’unificazione tipica dei punti di accesso e la ridondanza) al fine di aver diritto a partecipare alla conferenza indetta dalla World Multiconference on Systemics, Cybernetics and Informatics (WMSCI).

Sembra una questione interessante per informatici, fisici e matematici, e di sicuro non per tutti i cervelli, ma si tratta di uno scherzo: l’articolo era stato generato artificialmente da un prototipo di software inventato dai quattro burloni, conteneva frasi senza senso e, nonostante questo, in prima battuta gli autori erano stati invitati a partecipare come relatori. Lo script era scritto in linguaggio Perl e si chiamava SCIgen, concepito in un momento storico in cui non esisteva ChatGPT (che sarebbe arrivato circa 17 anni dopo), mentre all’epoca il meglio dei “generatori di linguaggio naturale” (che poi sarebbero diventati LLM, in versione modernizzata) erano poco più che generatori di frasi casuali che, a campione, ogni tanto avevano senso.

A fronte di casi del genere bisognerebbe interrogarsi sul perché una cosa del genere sia stata fatta: parlare di troll può essere una risposta ma rimane parziale, tanto più che sembrava implicita ed evidente la volontà degli autori dello scherzo di evidenziare la facilità con cui era possibile partecipare ad una conferenza così specialistica. Nepotismo, cricche universitarie, baronati, all’epoca forse tremarono un po’ tutti, magari senza darlo a vedere. A quel punto infatti tanto valeva interrogarsi anche sulla qualità media degli articoli scientifici che vengono pubblicati dalle rivista, cosa che fece Nature nel 2014 evidenziando (e facendo rimuovere) centinaia di articoli annidati tra le pubblicazioni scritti usando lo stesso metodo, evidentemente emulato in massa (per chi non lo sapesse, gli articoli anche se scritti in modo artificiale fanno curriculum per chi li scrive e si muove in quell’ambiente).

Molti blog di oggi popolano visibilmente le proprie pagine di contenuti scritti da intelligenze artificiali, ed il bello non è solo che nessuno se ne accorge, ma che quei contenuti vengono a volte apprezzati come se fossero scritti da esseri umani (su questo blog ho avviato da qualche tempo un esperimento di scrittura artificiale – inclusiva di immagini illustrative – che trovate sotto Arte generativa, per inciso). Oggi finiamo per interrogarci sul fatto che un’intelligenza artificiale possa sostituire un essere umano integralmente: fa quasi ridere istericamente, se si pensa da dove eravamo partiti. E per quanto ce lo chiediamo in maniera più che altro folkloristica sulla stampa generalista, vale la pena di verificare se le domande che stiamo facendo sono quelle giuste oppure no. Le sfumature dell’intelligenza artificiale sono numerose e vengono applicate da molto prima che il tutto diventasse una moda di cui discutere: Amazon, Ebay, Facebook facevano da tempo uso delle IA per migliorare i propri contenuti e mostrare al pubblico contenuti tali da tenerne viva l’attenzione (e la carta di credito, naturalmente). L’intelligenza artificiale è presente da tempo nei navigatori GPS, in quasi ogni smartphone, nei risultati dei motori di ricerca, per trovare automobili a noleggio, addirittura nei siti per adulti e in quelli di dating: di questo ben pochi hanno avuto da lamentarsi.

Le domande che ci poniamo sull’IA sono quelle giuste? L’impressione è che non lo siano: gli esempi di intelligenza artificiale che trovate nella stampa sembrano tipicamente frutto di cherry picking anti-tecnologico, pregidizievole, a quanto pare ostile a prescindere: bot che scrivono articoli al posto di esseri umani, LLM che i ragazzi di scuola usano per farsi fare i compiti, intelligenze artificiali che producono pezzi di automobili lasciando a casa padri di famiglia, bambole gonfiabili ultra realistiche dotate di affettività da regalare a Natale. Sono degenerazioni, è chiaro, ma non è corretto pensare che sia tutto lì e finisca tutto lì, come se questo mostro fosse comparso improvvisamente nelle nostre vite senza preavviso. Nemmeno un accenno al fatto che si tratta di tecnologie che possono essere supervisionate e non supervisionate, che si basano comunque su algoritmi statistici e che sono, di fatto, algoritmi statistici diffusi su larga scala, che a poco servono i comitati etici (che sono ovviamente importanti, ma non bastano da soli) se poi mancano le conoscenze di base. Nemmeno un accenno a come funzionano queste tecnologie, a quante e quali risorse usino: il computer, ancora oggi, per molti di noi rimane un oggetto stregato, indecifrabile, per cui si attivano più pensieri magici che ricerche serie, più allegorie fantasmologiche che manuali e/o condizioni d’uso. È un po’ come parlare male delle auto e preoccuparsi che inquinano e possono provocare incidenti senza nemmeno sapere se siano mosse da un motore o dal pluri-citato turco meccanico. Come possiamo correggere il tiro – perchè il tiro va corretto, e questo è fuori discussione – se non sappiamo nemmeno da dove siamo partiti?

Il punto è che, tragicamente, ci troviamo ormai in uno scenario in cui si stanno replicando (almeno in parte) le dinamiche dei primi social network: buoni e cattivi al tempo stesso, utili e da perdigiorno, usabili e cinici, illusori e pericolosi. Sembra che non possiamo proprio farne a meno. Se funzionano bene o benissimo, del resto, fanno paura – perchè finiranno per sottrarci qualcosa; se funzionano male, invece, ci faranno male lo stesso – o faranno comunque qualcosa come non dovrebbero. Lo dimostra peraltro uno studio recentemente pubblicato (agosto 2023) il quale evidenzia come la qualità delle risposte di ChatGPT dalla versione 3.5 alla 4.0 sia diventata difficile da quantificare (è molto degradata per certi aspetti, poco migliorata per altri), evidenziando come sia necessario tenere d’occhio le prestazioni nel tempo, prima di giudicarla.

Del resto se ChatGPT fornisce risposte accurate o perfette è un problema: lo è per certi luddisti, ad esempio, che mai vorrebbero che le macchine prendano il sopravvento o ne sostituiscano le mansioni. Preoccupazione lecita, ci mancherebbe altro, ma si dice e si dimentica spesso che il cervello è modificabile e le cose possono migliorare per tutti, e non per forza una tecnologia di IA deve essere nemica o contro qualcuno. Soprattutto se, tecnicamente parlando, è usata in modalità ibrida o con la supervisione di un essere umano. Se ci aspettiamo che l’intelligenza artificiale risolva i nostri problemi o la confondiamo con lo studio di uno psicologo (a quanto pare ChatGPT riceve domande personali: c’è chi fa psicoterapia con ChatGPT, forse perchè di sicuro non ci giudica – non può farlo – e ovviamente non può relazionarsi come avverrebbe con un terapeuta). Il bound da non superare forse sta proprio qui, sulla falsariga di quello che ci spinge a non fidarci delle diagnosi che cerchiamo su Google, o ci suggerisce di cambiare strada anche se il navigatore si ostina a portarci in direzione di un baatro. Se facciamo confusione diventa pulsione di morte, o peggio ancora rischia di essere una profezia di autodistruzione, che si autoavvera perchè siamo noi ad averlo voluto. Possiamo dire no, se lo vogliamo, all’uso smodato delle nuove tecnologie, ma è necessario prima che ci chiariamo tutti le idee su cosa sono davvero, senza demonizzarle.

Se ChatGPT non fornisce risposte accurate, come pare faccia spesso, spreca risorse che potrebbero essere utilizzate per altre attività e, non sia mai, potrebbe portare a squilibri ambientali ulteriori: questa è un’accusa topica che si muove alle blockchain delle criptovalute da anni, e meraviglia che non sia ancora stata mossa alle AI, che in misura diversa consumano lo stesso.

Comunque vada, insomma, sarà un insuccesso. Ma qualcosa di buono c’è sempre, anche qui, secondo me. Le intelligenze artificiali si muovono su un nastro di Mobius che è buono da un lato e cattivo dall’altro, non c’è risposta netta e mai potrà esserci, nè distruggere le macchine nella totalità nè tantomeno adeguarci alle stesse sarà la soluzione.

Il nostro voto

Lipercubo.it is licensed under Attribution-ShareAlike 4.0 International - Le immagini presenti nel sito sono presentate a solo scopo illustrativo e di ricerca, citando sempre la fonte ove / quando possibile - Questo sito contribuisce alla audience di sè stesso


Il nostro network: Lipercubo.it - Pagare.online - Trovalost.it.