TECNOCRAZIA_ (51 articoli)

La tecnocrazia si riferisce a un sistema di governo o di organizzazione sociale in cui il potere decisionale è affidato principalmente a esperti tecnici o specialisti nei rispettivi campi, piuttosto che a politici o rappresentanti eletti.

  • Il Test di Turing è superabile?

    Il Test di Turing è superabile?

    Il Test di Turing, proposto nel 1950 da Alan Turing nel suo articolo Computing Machinery and Intelligence, è un esperimento concettuale per valutare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano. Il test si basa su un “gioco dell’imitazione”, in cui un giudice umano interagisce, tramite una comunicazione testuale, con due interlocutori: un essere umano e una macchina. Se il giudice non è in grado di distinguere quale dei due sia la macchina con una probabilità significativamente superiore al caso, si considera che la macchina abbia “passato” il test.

    Il test non definisce un criterio universale per il superamento, né specifica una soglia precisa, sebbene alcuni esperimenti abbiano adottato il 33% come valore convenzionale. Turing non concepì il test come una metrica assoluta di intelligenza, ma piuttosto come un esperimento epistemologico per esplorare il concetto di intelligenza artificiale.

    L’idea che una macchina possa “superare” il Test di Turing è spesso riportata dai media con grande enfasi. Tuttavia, una revisione critica del testo originale di Turing e delle sue interpretazioni successive dimostra che il test non è una misura definitiva dell’intelligenza artificiale e che nessuna IA ha effettivamente superato un criterio scientificamente rigoroso. Questo articolo analizza la natura speculativa del test e le sue ambiguità metodologiche, evidenziando come sia impossibile “superarlo” in senso assoluto.

    Il concetto di intelligenza artificiale è stato spesso valutato attraverso il prisma del Test di Turing, che però non nasce come un esperimento empirico ma come una provocazione filosofica. Questo lavoro analizza le limitazioni intrinseche del test, dimostrando come le affermazioni sul suo superamento siano prive di fondamento scientifico.

    2. Il Test di Turing e le sue Ambiguità

    L’originale proposta di Turing non fornisce specifiche quantitative per determinare se una macchina abbia superato il test. L’idea che il 33% dei giudici debba essere ingannato è un’interpretazione arbitraria derivata da esperimenti successivi. Inoltre, il test non valuta l’intelligenza in senso stretto, ma solo la capacità di ingannare un interlocutore, il che rende il suo valore scientifico limitato.

    3. Analisi Critica delle Presunte Vittorie

    Diversi casi riportati come successi nel superamento del test, come Eugene Goostman nel 2014 e GPT-4 nel 2024, si basano su esperimenti con metodologie discutibili. In molti casi:

    • I giudici avevano un tempo limitato per interagire con i partecipanti.
    • Il contesto delle conversazioni favoriva risposte brevi e ambigue.
    • Le macchine erano programmate per evitare domande complesse e per simulare comportamenti umani con tecniche elusive.

    4. Il Test di Turing è Superabile?

    La formulazione del test implica che qualsiasi macchina che riesca a imitare un comportamento umano potrebbe passarlo, ma la mancanza di una soglia chiara lo rende non falsificabile e quindi non scientifico in senso stretto. Inoltre, il concetto stesso di “ingannare un umano” non è necessariamente correlato all’intelligenza, poiché può essere ottenuto con euristiche e trucchi statistici senza una reale comprensione semantica.

    Il Test di Turing non è mai stato superato perché non è un esperimento scientifico con criteri definiti, ma un’idea filosofica che non può avere un risultato univoco. La narrazione secondo cui IA come ChatGPT o Eugene Goostman avrebbero superato il test è una costruzione mediatica che non resiste a un’analisi rigorosa. Il futuro dell’intelligenza artificiale non dipende dal superamento di un test concettuale, ma dalla capacità di sviluppare sistemi in grado di mostrare comprensione e ragionamento genuino

    Il Test di Turing, proposto nel 1950 da Alan Turing nel suo articolo Computing Machinery and Intelligence, è un esperimento concettuale volto a valutare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano. Il test prevede che un giudice umano interagisca, tramite comunicazione testuale, con due interlocutori nascosti: un essere umano e una macchina. Se il giudice non riesce a distinguere la macchina dall’essere umano con una precisione superiore al caso, si considera che la macchina abbia “superato” il test.

    È importante notare che Turing non ha mai specificato una soglia percentuale precisa per determinare il superamento del test. In alcune interpretazioni successive, è stato suggerito che ingannare il 30% dei giudici possa rappresentare una soglia significativa, ma questa non è una prescrizione originale di Turing. citeturn0search0

    Critiche alle affermazioni di superamento del Test di Turing

    Nel 2014, il programma “Eugene Goostman” ha affermato di aver superato il Test di Turing, convincendo il 33% dei giudici di essere umano. Tuttavia, questa affermazione è stata oggetto di critiche per diversi motivi:

    • Caratterizzazione del chatbot: Eugene Goostman è stato progettato per impersonare un ragazzo ucraino di 13 anni. Questa scelta ha permesso di giustificare eventuali errori linguistici o mancanza di conoscenze, rendendo più facile per il programma evitare domande complesse e ingannare i giudici.
    • Assenza di una soglia definita: Come precedentemente menzionato, la soglia del 30% non è stata stabilita da Turing stesso, rendendo discutibile l’affermazione che il test sia stato superato basandosi su questa percentuale.
    • Strategie evasive: Le risposte del programma spesso evitavano le domande dirette, utilizzando frasi generiche o cambiando argomento, il che non rappresenta una vera comprensione o intelligenza.

    In conclusione, sebbene il Test di Turing sia stato fondamentale nel stimolare la ricerca sull’intelligenza artificiale, le affermazioni riguardanti il suo superamento devono essere valutate con cautela. Le limitazioni intrinseche del test e le ambiguità nelle sue interpretazioni suggeriscono che nessuna macchina ha effettivamente dimostrato una comprensione o intelligenza paragonabile a quella umana attraverso questo metodo.

  • Intelligenza artificiale, perchè?

    Viviamo in un’epoca di accelerazione tecnologica, di ottimizzazione sistematica, di digitalizzazione invasiva, di iperconnessione permanente, di automazione progressiva, di machine learning compulsivo, di reti neurali impazienti, di analisi predittiva ipertrofica, di deep learning ossessivo, di bias algoritmici sempre più sofisticati, di personalizzazione al limite dell’inquietante e, soprattutto, di un costante senso di déjà vu digitale, perché ogni volta che apriamo Instagram ci troviamo davanti contenuti che non abbiamo mai visto ma che ci sembrano inevitabilmente familiari.

    Si parla di intelligenza artificiale perché l’umanità, dopo millenni passati a sbagliare da sola, ha deciso che era ora di farsi aiutare da qualcosa che può sbagliare più velocemente. E su scala globale. Perché, diciamocelo, se per secoli abbiamo avuto il dubbio cartesiano (“Cogito, ergo sum”), oggi l’algoritmo ci regala la certezza assoluta (“Scorri, ergo ti conosco”).

    Filosoficamente parlando, l’IA è il nostro tentativo di dare vita a un’intelligenza che non ha dubbi, non ha esitazioni, non ha esitazioni sui propri dubbi e, soprattutto, non si pone domande esistenziali. Se la filosofia umana è stata per millenni un’indagine sulla natura della conoscenza e della realtà, l’intelligenza artificiale è un’enorme operazione di riduzione di tutto ciò che è complesso a semplici click, impressioni, engagement e tempi di permanenza sul post. Platone parlava del mondo delle idee pure, ma poi è arrivato l’algoritmo che ha deciso che la tua idea perfetta è un video di gatti in loop, seguito da una pubblicità di un corso di trading online.

    L’IA finisce per diventare il Super-Io digitale definitivo, quello che non solo osserva ogni nostra azione, ma la prevede, la categorizza e la sfrutta economicamente. Freud si strapperebbe i baffi: se lui scavava nell’inconscio per svelare i nostri veri desideri, l’IA li anticipa, li confeziona e ce li ripropone sotto forma di contenuti sponsorizzati, spesso prima ancora che ci rendiamo conto di averli. L’algoritmo non ha bisogno di interpretare i sogni, perché li conosce già. E te li vende con lo sconto del 10%.

    L’IA è l’ultima creazione dell’essere umano per delegare anche l’errore, dopo aver già delegato il pensiero critico, la memoria e la capacità di fare di conto senza calcolatrice. È la macchina perfetta per dirti cosa vuoi, anche quando non lo vuoi. È come un amico che ti conosce bene, ma con la personalità di un venditore di aspirapolveri porta a porta: sa esattamente quando hai bisogno di qualcosa, ma soprattutto sa quando sei più vulnerabile per fartela comprare.

    E alla fine, cosa abbiamo creato? Un’entità onnisciente che sa tutto di noi, tranne come filtrare i contenuti sensibili di Instagram senza mandare in tilt mezzo mondo. Forse era meglio restare con le vecchie divinità mitologiche: almeno non cercavano di venderci un abbonamento premium.

  • Guida pratica al meme NPC

    Il termine “NPC” (Non-Player Character), originariamente utilizzato nel contesto dei videogiochi per indicare personaggi non controllabili dai giocatori, ha acquisito una nuova dimensione nel panorama culturale e filosofico contemporaneo. e alla sua funzione ludica, il meme “NPC” è diventato una metafora per descrivere individui percepiti come privi di pensiero critico o autonomia, paragonandoli a personaggi che seguono schemi predefiniti senza consapevolezza o introspezione. (immagine: By anonymous – https://knowyourmeme.com/memes/npc-wojak, Fair use, https://en.wikipedia.org/w/index.php?curid=64521200)

    Il meme “NPC” è emerso nel 2016 su piattaforme come 4chan, dove un utente anonimo ha suggerito che alcune persone si comportano in modo simile agli NPC dei videogiochi, ripetendo frasi fatte e mostrando una mancanza di profondità nel pensiero. Questppresentazione è stata graficamente associata al meme “Wojak”, che raffigura un volto stilizzato e privo di espressione. Col tempo il meme ha guadagnato ulteriore attenzione, venendo utilizzato in contesti politici per criticare coloro che aderivano a ideologie percepite come conformiste o prive di originalità. Non di rado, il meme è usato in senso spregiativo o di sfottò, per indicare qualcuno che non partecipi attivamente alla socialità oppure non voglia o non sappia esporsi politicamente.

    Nel contesto sociale, il meme PC è stato adottato – a volte in forma offensiva – per criticare individui o gruppi considerati incapaci di formare opinioni autonome, accusati di seguire passivamente le narrative prevalenti senza un’analisi critica. Questa analogia suggerisce unaietà in cui alcune persone operano come automi, reagendo agli stimoli esterni senza una vera comprensione o riflessione. Tuttavia, è importante notare chuso del termine in questo modo può essere percepito come offensivo, poiché implica una svalutazione dell’umanità e dell’individualità dell’altro. (vice.com)

    Se consideriamo gli esseri umani come dotati di coscienza e capacità di introspezione, l’idea di etichettare qualcuno come “NPC” implica una negazione di queste qualità, riducel’individuo a un’entità programmata e prevedibile. Questo porta a riflettere su temi come l’autenticità, l’indivudalità e la complessità dell’esperienza umana. Da una prospettiva filosofica, il meme “NPC” solleva questioni sulla natura della coscienza, dell’autodeterminazione e del libero arbitrio.

    Inoltre, l’uso del meme può essere interpretato come una critica alla società contemporanea, suggerendo che molte persone operano in modalità “automatica”, accettando passivamente infzioni e norme sociali senza un esame critico. Questo fenomeno potrebbe essere visto come una conseguenza della sovrastimolazione informativa e della cultura dei social media, dove la profondità del pensiero è spesso sacrificatafavore di reazionimmediate e superficiali.

     

  • Come hackerare la società

    Secondo l’esperto di sicurezza Bruce Schneier (autore del libro La mente dell’hacker), il genio riesce sempre ad hackerare il desiderio. Questa massima suggerisce che ogni sistema, per quanto apparentemente solido, nasconde falle che possono essere scoperte e sfruttate da menti ingegnose. Questo principio, nato nel contesto della cybersicurezza, si applica perfettamente alla fantapolitica sociale e all’accelerazionismo, due filoni del pensiero speculativo che esplorano il futuro del potere, della governance e delle strutture sociali.

    Hackerare il potere

    L’accelerazionismo è una corrente filosofica e politica che vede il progresso tecnologico ed economico come un motore inarrestabile, capace di sovvertire le strutture tradizionali della società. Gli accelerazionisti credono che l’unico modo per trasformare il mondo sia spingere al massimo le forze della modernità, fino a un punto di rottura. In questo contesto, “hackerare” il sistema significa trovare falle nei meccanismi del potere e sfruttarle per spingerlo oltre i suoi limiti.

    Esempi di queste strategie speculative includono:

    • Automazione e IA radicale: L’introduzione su larga scala dell’intelligenza artificiale per scardinare l’ordine lavorativo e politico.
    • Criptovalute e decentralizzazione: L’uso di blockchain per svincolare l’economia dal controllo delle istituzioni centralizzate.
    • Memetica e guerra dell’informazione: Strategie di comunicazione virale per influenzare la politica e la società a livello globale.

    Se da un lato queste idee promettono una liberazione dal giogo delle strutture di potere tradizionali, dall’altro pongono interrogativi inquietanti sulla loro sostenibilità e sulle possibili conseguenze negative.

    La fantapolitica sociale esplora scenari futuri in cui la governance viene radicalmente trasformata da nuove tecnologie, ideologie o eventi critici. Romanzi di fantascienza e speculative fiction hanno spesso anticipato sviluppi della società moderna con inquietante precisione. Alcuni degli scenari più discussi possono includere, ad esempio:

    • Governi algoritmici: Stati governati da IA imparziali che ottimizzano risorse e decisioni, eliminando il fattore umano e le sue debolezze.
    • Corporazioni sovrane: Multinazionali che superano gli stati nazionali per imporsi come nuove entità di governo.
    • Post-democrazia e realtà virtuale: L’erosione della politica tradizionale a favore di simulazioni immersive che offrono ai cittadini l’illusione della partecipazione.

    La domanda cruciale è: queste sono visioni di un futuro migliore, o nuovi modi di controllare la società in senso alienante e negativo? Se il futuro è un sistema da hackerare, chi avrà il potere di riscrivere le regole? Le figure emergenti del domani potrebbero essere gli hacker sociali, individui o gruppi capaci di manipolare sistemi economici, politici e tecnologici per indirizzare il cambiamento.

    In un mondo sempre più interconnesso e governato dall’informazione, la lotta per il controllo della realtà si sposta su nuovi fronti:

    • Manipolazione delle narrative: Fake news, deepfake e propaganda algoritmica come strumenti di dominio.
    • Hacking biologico e potenziamento umano: Tecnologie di editing genetico e biohacking per ridefinire i limiti della condizione umana.
    • Esodo digitale e nuove forme di cittadinanza: Popolazioni che abbandonano le nazioni tradizionali per costruire comunità virtuali autonome.

    La metafora dell’hacking applicata alla politica e alla società ci pone di fronte a un bivio: possiamo usare le crepe del sistema per costruire un mondo più giusto e libero, o ci limiteremo a sfruttarle per massimizzare il controllo e la disuguaglianza? Il futuro, come sempre, dipenderà dalle mani che riusciranno a decifrare il codice e riscriverlo secondo la loro visione.

  • Uscire da X non è la soluzione

    Uno strano gioco. L’unica mossa vincente è non partecipare.

    Nel film WarGames di John Badham ricorderete la sequenza in cui, dopo aver fermato l’intelligenza artificiale del supercomputer WOPR dallo scatenare una guerra nucleare, il terminale del computer mostra la scritta “A STRANGE GAME. THE ONLY WINNING MOVE IS NOT TO PLAY“.

    WOPR era un acronimo per War Operation Plan Response, un dispositivo in grado di simulare scenari di guerra nucleare. Una visione delle nuove tecnologie inquietante e – come va di moda scrivere in questi casi – profetica di ciò che viviamo in questi anni. Nello stesso film, del resto, il personaggio di David – l’hacker protagonista – aveva attivato il programma “Guerra globale termonucleare” accedendo ad un terminale di comando remoto, dal computer di casa, ritenendo si trattasse di un banale videogame. L’IA reagisce alla circostanza alzando i propri livelli di sicurezza, mentre si addestra con un numero sempre maggiore di dati e di potenziali casistiche belliche, senza fare differenza tra realtà (uno scenario di guerra effettivo) e simulazione (una battaglia simulata allo scopo di fornire informazioni ai militari).

    La morale del film è nota, e vale la pena ribadirla: l’abuso tecnologico porta sempre alla rovina, ed esistono “giochi” a cui è opportuno non giocare: l’unica mossa vincente, a quel punto, è quella di non parteciparvi affatto. Un social network come X si addestra con i nostri dati personali e le nostre storie, non è interessato a fare differenze tra reale e virtuale, possiede un potere di suggestione ben superiore a WOPR e, cosa davvero grottesca, riesce a farlo abbassando il livello di protezione e sicurezza della piattaforma, al posto di alzarlo. Un parallelismo inquietante a cui, complici le esternazioni sempre più politicizzate e radicali di Musk, molti utenti hanno risposto fermando il proprio account, sospendendolo o cancellandolo del tutto.

    Chiaro, bisogna saper dire di no. Lo facciamo ogni giorno, a pensarci, ed è una strategia di sopravvivenza nota: ci tiriamo indietro da relazioni che riteniamo poco adatte, anche se sembravano invitanti all’inizio. Cambiamo idea su una proposta di lavoro perchè precaria o mal pagata. Diciamo no a certe uscite tra amici perchè stanchi, stressati, poco focalizzati su noi stessi, poco a nostro agio – e per quanto la compagnia possa essere teoricamente desiderabile. Dire “no” è un valore aggiunto e sottovalutato, in genere. Ma il punto da cogliere è che in molti casi una discreta parte di chi sta abbandonando X è un organo di informazione, il che rischia di creare una situazione autoritaria o distopica in cui la totalità degli stessi sarà presente perchè a favore di Musk (pro-Trump / repubblicano, per estensione).

    In certi giochi, nessuna mossa è quella vincente e lo sappiamo. E sui social come X, del resto, dovrebbe valere a maggior ragione: ci relazioniamo con una maggioranza di utenti che non vediamo mai dal vivo e, plausibilmente, non vedremo mai. Bisogna saper usare i social, e non darne per scontato l’uso. Abbiamo spesso a che fare con contatti sregolati, eufemismo per dire troll, in molti casi. Rispondiamo in modo incerto o perplesso a messaggi privati inattesi, invasivi e via dicendo. Leggiamo post inconcepibili o eccessivi perchè non possiamo accettarne la presenza e la convivenza. Sono in tanti a non aver accettato le regole del gioco di X, in effetti, e in tantissimi stanno progressivamente andando via dalla piattaforma (tra gli ultimi, Internazionale). Tanto per essere chiari, proverei a spiegare per esteso perchè – da utente tutt’altro che a favore di Trump –  trovi l’abbandono in massa una mossa generalmente poco efficace alla causa, al netto di motivazioni personali di altro tipo.

    Manifesto del non-abbandono

    Alla base del tasso di abbandono di X c’è una linea di gestione della piattaforma che viene considerata troppo libertaria, al punto di minare le basi della democrazia, della reciproca convivenza e, in alcuni casi, sminuendo la portata di potenziali reati come hate speech, razzismo, cyberbullismo, apologia del fascismo e via dicendo. Fermo restando ovviamente che non tutti devono stare sui social e che qualcuno potrebbe semplicemente decidere di starne alla larga, ecco le principali motivazioni per cui trovo mediamente fuorviante uscire dalla piattaforma “per protesta”.

    La protesta, a ben vedere, va fatta dall’interno, per il semplice fatto che è impossibile cambiare qualcosa da cui prendiamo le distanze.

    Le regole possono cambiare

    Anche se ad oggi (gennaio 2025) sembra improbabile un cambio di direzione nella gestione di X (che equivarrebbe ad un cambio di proprietario, da quello che capiamo), le cose potrebbero comunque cambiare nel medio-lungo periodo. Vedremo.

    Soprattutto se persisteranno le polemiche sull’utilizzo, sulla ridotta usabilità della piattaforma, sul timore e sul disagio che provano molti utenti e sul fatto che gli inserzionisti potrebbero ritirare i finanziamenti se gli utenti non sono abbastanza vari per loro. Estremizzando, se tutti coloro che provano disagio andranno via da X, rimarranno primariamente troll a sguazzare liberamente tra loro, o saranno comunque una netta maggioranza rispetto agli utenti ordinari. E questo, naturalmente, realizza in modo preciso e macabro il “piano” iniziale voluto dal suo fautore. Chi esce per protesta, in altri termini, rischia semplicemente di spianare la strada alla normalizzazione dei contenuti violenti per cui è andato via. Come suggerisce Scully a Murder nel film di X-Files, “se me ne vado, vincono loro“. Senza contare che i troll, per loro stessa natura, sono spesso difficili da monetizzare per gli inserzionisti. E se perdi appeal commerciale, la piattaforma decade.

    Non sei tu a stabilire colpe e meriti

    Per quanto le piattaforme social siano ammantate di “democrazia” a corrente alternata (leggasi: solo quando conviene), in genere sono spazi privati, assimilabili più a centri commerciali che a piazze pubbliche. Nonostante parecchi analisi suggeriscano il contrario ed assimilino piattaforme come X a luoghi pubblici, l’ingresso in questo luogo pubblico richiede un’iscrizione, per quanto innocua possa sembrare – e per quanto si sia banalizzata l’idea di fornire i nostri dati per farlo. Quanti di noi entrerebbero serenamente in una piazza in cui non solo ti chiedono un documento all’ingresso, ma registrano almeno una parte dei nostri dati su un dispositivo non in nostro possesso? Sui social, dopati da campagne di marketing sempre più radicali e prive di scrupoli, il problema neanche ce lo poniamo. Men che meno su X dove, di fatto, aleggia una singolare e burrascosa idea di “libertà” dettata, più che altro, da egotismo e isteria di massa.

    Sembrerebbe forse l’unico punto in favore della disiscrizione di massa, in effetti, e presenta un suo fascino oggettivo: il problema pero’ è che in questo caso bisognerebbe cancellarsi da qualsiasi piattaforma social. Senza voler difendere Musk in modo acritico, per intenderci, è quantomeno curioso come le figure di Zuckerberg o di Bezos (da tempo nell’occhio del ciclone per il loro avvicinamento alle politiche repubblicane di Trump, e tutt’altro che neutri politicamente) siano poco considerate dai media e dall’opinione pubblica, e difficilmente si metta in discussione l’opportunità etica di far parte dei loro mondi. Se il criterio per cui ci togliamo da X vale per Musk, uno dovrebbe valutare seriamente di cancellare il proprio account Facebook e, a quel punto, anche quello Amazon. Chi lo farebbe?

    Cosa che farebbero in pochi, dato che i social network e gli ecommerce sono quasi un genere di prima necessità, e creano pure un effetto di attaccamento per cui, per semplificare, non ci cancelliamo per non perdere i contatti a cui magari, nel frattempo, siamo pure affezionati. Anche qui, sembra valere il mantra “if I quit, they win“: nessuno ci obbliga ad interagire con tutti, nessuno ci vieta di cercare altri spazi più flessibili.

    La cosa essenziale è essere consapevoli che esiste il diritto di cancellare l’account, inalienabile, ma al tempo stesso è poco credibile come mezzo di protesta limitarsi a dire “non gioco più”. La vera protesta si fa dall’interno, come gli hacker della prima ora hanno sempre suggerito: trovando falle nel sistema, evidenziandole, mettendole a nudo nella loro debolezza o viltà. Sarà anche utopia e sì, certmente non tutti hanno gli strumenti per farlo, ma quegli hacker spesso diventati famosi non studiavano neanche nelle università e si limitavano ad aguzzare l’ingegno.

    Del resto se queste figure mitologiche si fossero limitate a barricarsi dientro Linux e cancellare Windows e Mac OS dai loro PC, oggi non saremmo a conoscenza di molte delle falle informatiche che affliggono i sistemi Microsoft e Apple.

    I social non usano dati esatti

    Per quanto i sistemi informatici dispongano di molti dati – e per quanto la precisione possa essere elevata (anche solo per il gran numero di fonti da cui generalmente attingono), i dati non sono mai perfetti: approssimano, rendono l’idea in modo parziale, non per forza rappresentano ciò che dovrebbero. Questi errori sono subdoli e difficili / impossibili da rilevare, anche in casi banali: per intenderci, una persona potrebbe aver caricato nel proprio profilo una foto non recente, e potrebbe non essere realmente la “versione” di sè che racconta nel proprio storytelling digitale.

    Del resto non siamo obbligati a dire la verità sui social, anche se tendiamo a dare per scontato che sia proprio il contrario e che tutti attorno a noi lo facciano. Questo vale a maggior ragione dopo l’esplosione creativa di content creator e guru di vario genere, che propongono contenuti commerciali dietro una maschera di “spontaneità” che è solo marketing, alla fine. Troviamo sempre più spesso prodotti miracolosi, servizi presunti innovativi, truffe di ogni genere, donne e uomini che sembrano perennemente carichi di sensualità o infinitamente disponibili. Sono falsi d’autore che collimano solo parzialmente con la realtà, che sembrano bastarci al punto di sostituirsi alla realtà, sulla falsariga di Baudrillard e della società dello spettacolo di Guy Debord. Internet non esprime la totalità del mondo: uno studio del 2024 afferma al contrario che gli LLM come ChatGPT e Gemini sono malamente addestrati su internet, e per questo tendono a replicare passivamente il punto di vista del “popolo del web” – populista, egemonico e non per forza maggioritario come potrebbe sembrare.

    Abbandonare X perchè promuove contenuti falsi significa dimenticare questo aspetto, oltre a rischiare – alla lunga – di arrendersi alla falsa evidenza che i social siano la realtà, al posto di esserne una rappresentazione camuffata, ipocrita, grottesca e/o fuorviante. O magari una vera rivoluzione si potrà un giorno fare offline?

    Non esiste il “paradiso perduto”

    La migrazione in massa su BluSky di qualche mese fa è stata sostanziale, e (per inciso) anch’io vi ho partecipato (senza pero’ uscire da X, per i motivi che discuto qui). Ritenevo giusto stare su due piattaforme simili, anche in considerazione del fatto che molti contatti erano passati lì, e mi interessava continuare a seguirli. Questo porta a fare una considerazione ulteriore: abbandonare una piattaforma sgradita può portare a pensare che andare su un’altra sia salvifico o “balsamico” di per sè. Autori come Cory Doctorow raccontano da tempo per quale motivo non esiste la “piattaforma perfetta” mediante la teoria della enshittification: una catena di decisioni che porta ogni piattaforma social (quindi non solo X) dal sembrare un paradiso sulla terra, fino a un’overdose di contenuti commerciali e ad tossiche, tipicamente per finanziare la piattaforma in perdita finchè, dopo mille tribolazioni, finisce per collassare / perdere interesse.

    Di fatto Musk sembra puntare a rendere X sempre più simile alla board 4chan, una board di utenti anonimi di grande successo, simile a Reddit – ma incentrata per larga parte su contenuti controversi, assenza totale di moderazione e contenuti con un tempo di vita mediamente breve. Finora, tutto sommato, ha funzionato, e gli abbandoni in massa rischiano ancora una volta di renderla esattamente ciò che il suo proprietario vorrebbe: un covo di troll sregolato e piatto, conformista e tragicamente (per loro) autoriferito.

    Come se non bastasse, la scelta di mille piattaforme su cui distribuire gli utenti evoca sempre più la frammentazione del sociale, con miriadi di micro-board, distanziate e difficilmente interfacciabili tra loro, in cui ci saranno sempre più predicatori e sempre meno pensiero razionale e critico.

    A meno che, ovviamente, non si segua il mantra “if I quit, they win“.

    Non sei obbligato a leggere tutto

    Questo è un punto che X non promuove abbastanza, a mio avviso.

    Il fiume di contenuti che arrivano nelle nostre app è tale da mandarci in confusione, ma gli strumenti per evitarlo ci sono: basta cliccare sui tre puntini in alto al post che non ci interessa, e selezionare (neanche a dirlo!) “il post non mi interessa” – alla peggio si può ancora bloccare l’utente sgradito, oppure segnalarlo. Precisiamo: la segnalazione dell’era Musk di X è, per usare un eufemismo, quasi inutile: di circa una ventina segnalazioni che ho fatto, per capirci, solo una o due si sono concluse con il ban dell’utente. In fondo se scorgi qualcosa che ti scandalizza significa che vivi, in fondo, in una società libera.

    Le leggi devono essere violate dalla società per progredire

    Secondo il terzo punto del “manifesto” di Rickard Falkvinge – fondatore del Partito Pirata svedese – sulla società della sorveglianza c’è un aspetto importante da considerare: violare le regole, per quanto suoni sovversivo o criminale, è stato spesso necessario, nella storia, per far progredire la società. È capitato per le leggi dell’apartheid, con le discriminazioni di alcune minoranze e con molte leggi palesemente ingiuste che il progresso ha superato e sconfitto, anche a costo di pagarlo con il carcere o la morte dei suoi promotori.

    Di contro, un social che faccia rispettare ogni regola è, come abbiamo già visto, irrealizzabile.

    Al contrario, uno che non abbia alcuna regola sembra altrettanto utopistico, perchè alla lunga diventa ingestibile e perchè finirebbe per scaricare la colpa sui singoli utenti, al posto di assumersi responsabilità per eventuali mancanze (oltre che essere difficile da monetizzare e poco credibile agli occhi degli investitori).

    Scrive Falkvinge:

    Il progresso sociale impone la necessità assoluta di infrangere le leggi ingiuste, per mettere in discussione i propri valori, al fine di imparare dagli errori e andare avanti.

    Tutto sta nel far apprendere gli errori “giusti” e non quelli errati alla piattaforma, notificandoli e sottolineandoli a dovere. Se al contrario nessuno segnala più che razzismo, cyberbullismo e fascismo sono errori che il sistema non dovrebbe accettare, saranno normalizzati, con conseguenze non prevedibili nel mondo reale.

    Tanto vale, quindi, porsi la domanda in modo diverso: cosa posso fare di utile?

Exit mobile version