Perchè ChatGPT non ruberà il lavoro a nessuno

Sento spesso dire che le intelligenze artificiali generative ruberanno il lavoro a chi ce l’ha, tipo scrittori e giornalisti.

Capisco il timore, ma non lo condivido.Per quanto istintivamente simpatizzi per hacker e boicottatori seriali per giusta causa, non riesco davvero a diventare luddista o almeno, se non proprio luddista, ostile all’uso delle nuove tecnologie che in realtà non rubano proprio nulla a nessuno.

Cosa sono le intelligenze artificiali generative

Le intelligenze artificiali generative sono sistemi informatici che utilizzano algoritmi complessi per generare autonomamente nuovi dati, testi, immagini o altri tipi di contenuti. Questi sistemi sono in grado di apprendere dai dati di input e creare nuovi materiali in modo autonomo, simulando in parte il processo creativo umano. Sono utilizzate in diversi campi, come la scrittura automatica di testi, la creazione di immagini, la produzione musicale e molto altro ancora. Esse hanno il potenziale di automatizzare alcuni compiti che tradizionalmente venivano fatti da esseri umani, come la scrittura di articoli o la generazione di contenuti.

Le intelligenze artificiali generative sono spesso basate su modelli statistici complessi, il cui esempio più popolare sono le reti neurali e tutto l’insieme di tecnologie analoghe utili per fare apprendimento macchina (machine learning). Il premio nobel per l’economia Daniel Kahneman (che citavo, abbastanza curiosamente, riguardo ai bias legati ai corsi di seduzione online) si è spinto a sostenere che l’uso intensivo di algoritmi per fare scelte importanti, alla lunga, potrebbe portare a scelte migliori i medici più preparati e tecnologicamente non ostili. Questo per un motivo semplice, in effetti: un algoritmo esegue il proprio compito freddamente, e per quanto soggetto a bug informatici non è soggetto ai bias / distorsioni cognitive a cui è soggetto l’uomo. Per quanto spaventoso o irreale possa sembrare, di conseguenza, una diagnosi fatta da un algoritmo (ammesso che sia stato correttamente tarato) potrebbe finire per salvare più vite di un medico, sempre nell’ipotesi che sia usato in modo corretto.

By nrkbeta - IMG_4330, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=104292544
Creative Commons License
This work by NRKbeta.no is licensed under a Creative Commons Attribution-Share Alike 3.0 Norway License.
Permissions beyond the scope of this license may be available at http://nrkbeta.no/cc/.

Ci pensano quelli bravi col computer (ma anche no)

Non si tratta ovviamente di cedere all’automatismo passivamente (il che sarebbe, non sia mai, bias di automazione); non si tratta neanche di immaginarsi su un tavolo operatorio con un Terminator che sogghigna alle nostre spalle: si tratta di riflettere su ciò che Domenico Conforti (mio docente universitario di Modelli di sistemi di servizio, una delle materie che ho amato di più) chiamava “metodi di supporto alle decisioni”. Che era un modo accademico e italianizzato per chiamare, già agli inizi degli anni Duemila, ciò che oggi è nota come intelligenza artificiale supervised o supervisionata. Per quanto il discorso sia leggermente più complesso per le tecnologie che rientrano nell’ambito non supervisionato (ovvero algoritmi che nascono, producono e muoiono da soli), direi che gran parte delle fobie tecnologiche legate al mondo delle IA supervisionate sono infondate. Lo sono perchè un medico che ha fatto il giuramento di Ippocrate e che quotidianamente cerca di dare del proprio meglio (presupposti non ovvi quanto necessari da specificare) non si potrà mai fidare di un algoritmo in modo blando o cieco, ma potrà tenere conto delle elaborazioni che fa in una grande varietà di modi. Il problema, semmai, è che sarà improbabile leggere risultati incoraggianti nel breve periodo, e sarà sperabilmente più agevole farlo nel medio-lungo.

Come funzionano le intelligenze artificiali generative

Restando su un ambito più blando, i modelli come ChatGPT che scrivono frasi come quella che ho appena riportato, “apprendono” dai dati forniti loro durante il processo di addestramento, per poi inferire nuova conoscenza: il che vuol dire che danno una forma ai dati che vengono passati e cercano di stabilire una funzione matematica, per intenderci, per rappresentarli con un certo grado di fedeltà. L’idea è che se capiscono come funziona il reticolo di informazioni in modo corretto nulla vieti, fino a prova contraria, che possano risolvere problemi mai visti prima. Ad esempio, nel caso del linguaggio naturale, una rete neurale può essere addestrata su un vasto corpus di testi per comprendere modelli, regolarità grammaticali e semantiche del linguaggio. Questa rete neurale, una volta addestrata, può essere utilizzata per generare nuovi testi coerenti e sintatticamente validi.

By Anonymous - https://i0.wp.com/universityarchives.princeton.edu/wp-content/uploads/sites/41/2014/11/Turing_Card_1.jpg?ssl=1, Public Domain, https://commons.wikimedia.org/w/index.php?curid=137325684
By Anonymous – https://i0.wp.com/universityarchives.princeton.edu/wp-content/uploads/sites/41/2014/11/Turing_Card_1.jpg?ssl=1, Public Domain, https://commons.wikimedia.org/w/index.php?curid=137325684

Tralasciando questioni etiche in ambito clinico (solo per amor di brevità), per una intelligenza artificiale che apprende un linguaggio naturale nulla dovrebbe essere più facile che “parlare da sola”, parlare in autonomia, scrivere in altrettanta autonomia. Come farebbe un bambino che ascolta gli adulti e prova a riprodurne le parole passo passo, ammesso che a qualche adulto non venga in mente di impedirne la crescita limitandolo o umiliandolo. Alan Turin nel suo epocale articolo su Mind si interrogò se le macchine possano davvero pensare, immaginando in un puro esercizio speculativo che fosse possibile addestrare un automa o un computer mediante una logica premio-punizione. La pratica ci suggerisce che insultare il navigatore quando ci porta fuori strada non aiuta a trovare la strada giusta, anche senza aver studiato comportamentismo: motivo per cui sarebbe anche plausibile e auspicabile convincerci che ChatGPT non ruberà il lavoro a nessuno. A meno che, ovviamente, non sia l’uomo a decidere di farne uso in questa veste.

Il problema del plagio

Ovviamente non va dimenticato – e non si può far finta di ignorare – che sistemi come ChatGPT possano effettivamente diventare dei plagiatori seriali, dei copiatori automatici che riempiano il mondo di testi scopiazzati e citino anche malamente autori precedenti. Possono copiare esattamente come farebbe uno scopiazzatore umano, e non va dimenticato che è proprio quest’ultimo, idealmente, a dargli l’esempio. Se dimentichiamo questo aspetto rischiamo di mostruosizzare le nuove tecnologie e, a quel punto, rigettare anche solo l’idea di uno smartphone, entrando in un vortice di preoccupazione paranoica che non aiuta a stare al mondo.

Il problema del diritto d’autore, in ogni caso, non sembra connaturato alle nuove tecnologie in sè: rientra semmai in un problema più generale, di coerenza e correttezza umana, per il quale peraltro ci si sta sensibilizzando anno dopo anno, anche se spesso in maniera scomposta o, alla meglio, sulla falsariga delle problematiche di privacy digitali (che erano ignorate con arroganza implicita fino a qualche anno fa, mentre adesso sono molto più discusse e pop). Un sistema di intelligenza artificiale (come andrebbe correttamente chiamato per evitare di “personalizzarlo” troppo o farlo sembrare grottescamente un robot umanoide che copia dal compagno di banco) sarà sempre soggetto a potenziali abusi, esattamente come un telefono può essere usato per inviare minacce, Photoshop può essere usato per creare fotomontaggi osceni, Word può essere usato per scrivere tutorial su come fabbricare armi artigianali. Si poteva copiare anche prima, si potrà copiare anche in futuro, la tecnologia è solo un catalizzatore e, come suggerivano autori accelerazionisti come Nick Land e Mark Fisher, non è da escludere che accelerare il progresso possa essere addirittura consigliabile per una società differente (anche se non necessariamente migliore della attuale). Se l’uomo non si responsabilizza e non la smette di dare la colpa agli altri, specie se gli altri sono letteralmente “cose” digitali, sarà difficile trovare una vera svolta.

Del resto app popolari come Midjourney o FakeYou hanno evidenziato ancora più chiaramente questa ambivalenza tecnologica, che non sembra eliminabile: un software può essere sfruttato per creare fake news o per costruire prodotti artistici di livello con la stessa probabilità. È un’ambiguità di fondo che dipende da come guardiamo la tecnologia in ballo, sulla falsariga di ciò che Slavoj Zizek chiama “parallasse“, una scissione dell’Uno in due prospettive diverse che non vanno viste come in contraddizione tra loro bensì, se si può, in cooperazione. Perchè da che mondo e mondo gli hacker sono sempre esistiti, i troll non ne parliamo, per cui tanto varrebbe non dimenticare l’importanza del contesto e non radicalizzare la nostra visione, che rischia di farci oscillare tra il radicalismo di 4chan (dove tutti sono anonimi e quasi nessuno viene beccato a commettere abusi) e l’ipocrisia rassicurante delle proposte di certi politici, che vorrebbero risolvere il problema obbligando gli utenti social a identificarsi come avverrebbe ad un posto di blocco, dimenticando (spesso maliziosamente) che anche il problema delle identità digitali clonate è ben precedente a quello dell’avvento delle intelligenze artificiali, e non si risolve in questa veste perchè potrei sempre connettermi a nome di altre persone, il che è anche il motivo per cui difficilmente ci ritroveremo a votare in forma digital.

Perchè non bisogna temere passivamente le IA

Non per altro, ma al di là della facciata terrorizzante e oscura, le IA possono aiutare a ottimizzare e accelerare alcuni processi, funzionando come strumenti di scrittura assistita e coadiuvando il compito di tanti redattori web, spesso costretti loro malgrado a produrre grandi quantità di articoli in poco tempo. Nella scrittura, ad esempio, le IA possono essere uno strumento per assistere gli scrittori, suggerendo idee o ottimizzando il flusso di lavoro, ma l’originalità, la creatività e la sensibilità umana rimangono irrinunciabili in molti campi. Nella speranza che i caporedattori non si mettano di traverso, in quei casi le IA generative possono essere molto utili, anche se non potranno mai sostituire del tutto il talento umano.

Lo aveva capito Alan Turing in quell’articolo seminale di metà anni Cinquanta, concependo la macchina che porta il suo nome come è un modello di calcolo di massimo livello ispirato ad un uomo che calcola e computa con carta e penna; lo aveva intuito Ada Lovelace quando scriveva sulla prodigiosa macchina analitica e sui suoi limiti: un modello di calcolo che era in grado di farsi programmare ma che non poteva, da sola decidere un bel nulla, mutuato da Charles Babbage. L’informatica teorica, del resto, da anni si interroga sul problema delle classi P ed NP, che significa: esistono o no problemi che sia più difficile risolvere che calcolare una soluzione? In modo formale (e a prescindere da quanto potenti e veloci siano i computer in gioco) si richiede in altri termini se ogni problema per il quale un computer possa verificare la correttezza in tempo finito sia anche risolvibile, ovvero se il computer sia (o no) in grado di individuare autonomamente una soluzione entro un tempo ritenuto accettabile.

I limiti già ci sono

Le preoccupazioni sui confini tecnologici, sull’etica, sui 9.999 “manifesti” (prodotti in certi casi giusto dagli imprenditori che ipocritamente le finanziano) sono, in gran parte, speculazioni vacue tra il pop ed il sociologico che dicono più sull’egocentrismo di chi le pubblica che su chi potrebbe metterle in pratica.

I limiti delle applicazioni di informatica sono ben definiti, salvo clamorose sorprese, dall’informatica teorica e dalle sue (poco note fuori dall’ambito specialistico, in effetti) speculazioni, teoremi e assiomi. Perchè preoccuparsene se il limite di fatto c’è già, e se l’unico limite da porre è quello imposto dall’etica umana o – se preferite – dall’uso che si decide di fare delle nuove tecnologie? In informatica tutto è numero, nel senso che ogni problema pratico è riconducibile ad uno matematico e un esempio può far capire cosa intendiamo: poniamo di voler trovare tutti i divisori di un numero intero N, problema facile da verificare puntualmente anche per numeri molto grandi.

Bisogna vedere la questione in termini generali, perchè un “problema” rientra nel “qualsiasi cosa un computer possa fare in modo esatto. Quello appena citato, nello specifico, è un esempio di problema polinomiale (P), mentre il suo suo duale non deterministicamente polinomiale (NP) richiederebbe: trovare tutti i numeri che siano divisori di n, cosa che diventa difficile e non accettabile come tempistiche per molti dei metodi di fattorizzazione che conosciamo ad oggi. Ho sempre pensato che mi piacerebbe vivere abbastanza da sapere se P coincida con NP o no, perchè spero davvero che la soluzione sia trovata nei prossimi anni. Il problema della fattorizzazione è alla base dell’efficenza della crittografia che usiamo ogni giorno su WhatsApp, in banca, sul web e anche leggendo le pagine di questo blog.

Certo, sappiamo che ci sono problemi come “trovare un/una fidanzato/fidanzata” che applicazioni come Tinder provano a risolvere – funzionalismo puro!, ma lo fanno in modo approssimato, sono euristiche buttate lì per fare qualche soldo, come ben sappiamo, e non possiamo occuparcene in questa sede.

In definitiva: piuttosto che cedere a dialettiche populiste (che danno soddisfazione, mi rendo conto, ma ci rendono ciechi al cambiamento e ostili all’innovazione senza un vero motivo) e parlare di “rubare lavoro”, va considerato che le IA potrebbero offrire opportunità sempre più innovative, realizzando l’utopia accelerazionista-progressista: permettere agli scrittori e ai giornalisti di concentrarsi su compiti più creativi e che diano vero valore aggiunto (quelle che ci rendono migliori), lasciando che le IA si occupino delle attività più ripetitive, puramente analitiche o didascaliche (anche queste, in effetti, necessarie).

Cosa ne pensi?
[Voti: 1 Media: 4]
Privacy e cookie

Lipercubo.it is licensed under Attribution-ShareAlike 4.0 International - Le immagini presenti nel sito sono presentate a solo scopo illustrativo e di ricerca, citando sempre la fonte ove / quando possibile - Questo sito contribuisce alla audience di sè stesso Il nostro network: Lipercubo - Pagare - Trovalost