TECNOCRAZIA_ (52 articoli)

La tecnocrazia si riferisce a un sistema di governo o di organizzazione sociale in cui il potere decisionale è affidato principalmente a esperti tecnici o specialisti nei rispettivi campi, piuttosto che a politici o rappresentanti eletti.

  • Sull’intelligenza artificiale e le “lettere aperte”

    Sull’intelligenza artificiale e le “lettere aperte”

    Uno dei tratti distintivi del 2023 è stato senza dubbio il tema dell’etica dell’intelligenza artificiale, che si pone in maniera universale forse per la prima volta nella storia. Fa riflettere che le stesse tematiche vengano sollevate dagli esperti da ben prima che si scomodassero dei miliardari per esprimere un parere solo apparentemente più autorevole di quello di altri.

    Ci sono vari aspetti ed è bene procedere per ordine, nella trattazione. La celebre lettera firmata da Wozniak e Musk e diffusa a marzo 2023, per esempio, sollevava vari ordini di preoccupazione e di tecnofobia, paradossale se si pensa a quanto le tecnologie siano state determinanti per mettere alcune (non tutte) di quelle personalità al centro del dibattito. I dubbi etici sollevati all’epoca riguardavano due assunti: non solo quello esplicito di disporre di IA che fossero troppo potenti per essere gestite attualmente (diciamo da GPT-4 in poi), ma anche uno implicito altrettanto profondo. Poco ovvio, per la verità, ma sostanziale: ovvero il fatto che dietro la volontà di frenare le IA ci fosse un qualche tipo di interesse personale.

    Fin quando, infatti, un qualsiasi politico anti-tecnologico e diffidente facesse un’affermazione sulla pericolosità di sottovalutazione delle IA potremmo discuterne, confutare in termini politici. Se invece lo fa un imprenditore o un gruppo di imprecisate personalità del mondo IT ed annessi, si tratta di figure jolly che si adeguano al contesto per definizione (il loro obiettivo chiaro rimane, sempre e comunque, quello di far guadagnare la propria azienda, perchè se non lo facessero perderebbero l’interesse da parte di azionisti ed inserzionisti).

    Sono uscite miriadi di lettere di richiamo in merito: la succitata richiesta di stoppare le IA per 6 mesi si affianca ad esempio ad un condivisibile (parere personale, s’intende) manifesto dell’AI sottoscritto da vari italiani, di circa un anno prima, e che sottolinea tra i punti che “come agiamo, così diventiamo”. Sembra più psicologia che tecnologia, curiosamente, ma le cose non sono scorrelate come potrebbe sembrare: ormai in effetti è chiaro che non esiste più un’informatica che sia avulsa dal contesto e che si limiti a fare i suoi calcoletti nerd. Anzi, le tecnologie dilagano in ogni aspetto quotidiano e ci suggeriscono come vivere, dove lavorare, dove mangiare, dove andare, quando uscire, con chi accoppiarci. Sta al nostro comportamento limitarne l’uso indebito, e non spetta certamente a delle “lettere di richiamo” in cui miliardari di vario ordine e grado decidano paternalisticamente quale debba essere la giusta disciplina da impartire alle macchine artificiali (come sottolineato dall’articolo di Paolo Bory su LMDP di giugno, che evidenzia come siano quasi sempre figure maschili ad essere investite di questo ruolo, per definizione inappellabile).

    Già nel 1950 il genio visionario di Alan Turing, informatico par excellence (tanto per doti quanto per incomprensione da parte del mondo a lui contemporaneo), immaginò tra le altre cose la possibilità di creare una child machine: una vera e propria “macchina bambino”, un prototipo di macchina di apprendimento (espressione del machine learning) che fosse in grado non solo di eseguire diligentemente i compiti che gli venivano assegnati, ma anche di correggere il tiro se sbagliava. Turing stava giocando intellettualmente sul tema del gioco dell’imitazione, ed era probabilmente influenzato dalla scuola comportamentista inaugurata da da Watson nel 1914, la quale si incentrava sui meccanismi di reazione organica agli stimoli e alle logiche tipo “premio e punizione”, poi rigettate dalle scuole pedagogiche modello Maria Montessori. L’idea della macchina bambino era esattamente questa, e si immaginava che una macchina potesse essere letteralmente educata a fare del suo meglio. Oggi sappiamo che il comportamentismo è solo una delle tante scuole pedagogiche, ed è plausibile che una pedagogia-macchina possa un giorno esistere ed essere utilizzata per provare a misurare i risultati.

    Per comprendere i rischi autentici delle IA, che certamente non vanno sminuiti nè sottostimati, serve un approccio che sia corretto metodologicamente, e che non ci esponga allo sciacallaggio del primo imprenditore che passa per strada e che vorrebbe, con la sua lettera aperta, imporre agli altri la propria visione del mondo.

  • Il Test di Turing è superabile?

    Il Test di Turing è superabile?

    Il Test di Turing, proposto nel 1950 da Alan Turing nel suo articolo Computing Machinery and Intelligence, è un esperimento concettuale per valutare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano. Il test si basa su un “gioco dell’imitazione”, in cui un giudice umano interagisce, tramite una comunicazione testuale, con due interlocutori: un essere umano e una macchina. Se il giudice non è in grado di distinguere quale dei due sia la macchina con una probabilità significativamente superiore al caso, si considera che la macchina abbia “passato” il test.

    Il test non definisce un criterio universale per il superamento, né specifica una soglia precisa, sebbene alcuni esperimenti abbiano adottato il 33% come valore convenzionale. Turing non concepì il test come una metrica assoluta di intelligenza, ma piuttosto come un esperimento epistemologico per esplorare il concetto di intelligenza artificiale.

    L’idea che una macchina possa “superare” il Test di Turing è spesso riportata dai media con grande enfasi. Tuttavia, una revisione critica del testo originale di Turing e delle sue interpretazioni successive dimostra che il test non è una misura definitiva dell’intelligenza artificiale e che nessuna IA ha effettivamente superato un criterio scientificamente rigoroso. Questo articolo analizza la natura speculativa del test e le sue ambiguità metodologiche, evidenziando come sia impossibile “superarlo” in senso assoluto.

    Il concetto di intelligenza artificiale è stato spesso valutato attraverso il prisma del Test di Turing, che però non nasce come un esperimento empirico ma come una provocazione filosofica. Questo lavoro analizza le limitazioni intrinseche del test, dimostrando come le affermazioni sul suo superamento siano prive di fondamento scientifico.

    2. Il Test di Turing e le sue Ambiguità

    L’originale proposta di Turing non fornisce specifiche quantitative per determinare se una macchina abbia superato il test. L’idea che il 33% dei giudici debba essere ingannato è un’interpretazione arbitraria derivata da esperimenti successivi. Inoltre, il test non valuta l’intelligenza in senso stretto, ma solo la capacità di ingannare un interlocutore, il che rende il suo valore scientifico limitato.

    3. Analisi Critica delle Presunte Vittorie

    Diversi casi riportati come successi nel superamento del test, come Eugene Goostman nel 2014 e GPT-4 nel 2024, si basano su esperimenti con metodologie discutibili. In molti casi:

    • I giudici avevano un tempo limitato per interagire con i partecipanti.
    • Il contesto delle conversazioni favoriva risposte brevi e ambigue.
    • Le macchine erano programmate per evitare domande complesse e per simulare comportamenti umani con tecniche elusive.

    4. Il Test di Turing è Superabile?

    La formulazione del test implica che qualsiasi macchina che riesca a imitare un comportamento umano potrebbe passarlo, ma la mancanza di una soglia chiara lo rende non falsificabile e quindi non scientifico in senso stretto. Inoltre, il concetto stesso di “ingannare un umano” non è necessariamente correlato all’intelligenza, poiché può essere ottenuto con euristiche e trucchi statistici senza una reale comprensione semantica.

    Il Test di Turing non è mai stato superato perché non è un esperimento scientifico con criteri definiti, ma un’idea filosofica che non può avere un risultato univoco. La narrazione secondo cui IA come ChatGPT o Eugene Goostman avrebbero superato il test è una costruzione mediatica che non resiste a un’analisi rigorosa. Il futuro dell’intelligenza artificiale non dipende dal superamento di un test concettuale, ma dalla capacità di sviluppare sistemi in grado di mostrare comprensione e ragionamento genuino

    Il Test di Turing, proposto nel 1950 da Alan Turing nel suo articolo Computing Machinery and Intelligence, è un esperimento concettuale volto a valutare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano. Il test prevede che un giudice umano interagisca, tramite comunicazione testuale, con due interlocutori nascosti: un essere umano e una macchina. Se il giudice non riesce a distinguere la macchina dall’essere umano con una precisione superiore al caso, si considera che la macchina abbia “superato” il test.

    È importante notare che Turing non ha mai specificato una soglia percentuale precisa per determinare il superamento del test. In alcune interpretazioni successive, è stato suggerito che ingannare il 30% dei giudici possa rappresentare una soglia significativa, ma questa non è una prescrizione originale di Turing. citeturn0search0

    Critiche alle affermazioni di superamento del Test di Turing

    Nel 2014, il programma “Eugene Goostman” ha affermato di aver superato il Test di Turing, convincendo il 33% dei giudici di essere umano. Tuttavia, questa affermazione è stata oggetto di critiche per diversi motivi:

    • Caratterizzazione del chatbot: Eugene Goostman è stato progettato per impersonare un ragazzo ucraino di 13 anni. Questa scelta ha permesso di giustificare eventuali errori linguistici o mancanza di conoscenze, rendendo più facile per il programma evitare domande complesse e ingannare i giudici.
    • Assenza di una soglia definita: Come precedentemente menzionato, la soglia del 30% non è stata stabilita da Turing stesso, rendendo discutibile l’affermazione che il test sia stato superato basandosi su questa percentuale.
    • Strategie evasive: Le risposte del programma spesso evitavano le domande dirette, utilizzando frasi generiche o cambiando argomento, il che non rappresenta una vera comprensione o intelligenza.

    In conclusione, sebbene il Test di Turing sia stato fondamentale nel stimolare la ricerca sull’intelligenza artificiale, le affermazioni riguardanti il suo superamento devono essere valutate con cautela. Le limitazioni intrinseche del test e le ambiguità nelle sue interpretazioni suggeriscono che nessuna macchina ha effettivamente dimostrato una comprensione o intelligenza paragonabile a quella umana attraverso questo metodo.

  • Intelligenza artificiale, perchè?

    Intelligenza artificiale, perchè?

    Viviamo in un’epoca di accelerazione tecnologica, di ottimizzazione sistematica, di digitalizzazione invasiva, di iperconnessione permanente, di automazione progressiva, di machine learning compulsivo, di reti neurali impazienti, di analisi predittiva ipertrofica, di deep learning ossessivo, di bias algoritmici sempre più sofisticati, di personalizzazione al limite dell’inquietante e, soprattutto, di un costante senso di déjà vu digitale, perché ogni volta che apriamo Instagram ci troviamo davanti contenuti che non abbiamo mai visto ma che ci sembrano inevitabilmente familiari.

    Si parla di intelligenza artificiale perché l’umanità, dopo millenni passati a sbagliare da sola, ha deciso che era ora di farsi aiutare da qualcosa che può sbagliare più velocemente. E su scala globale. Perché, diciamocelo, se per secoli abbiamo avuto il dubbio cartesiano (“Cogito, ergo sum”), oggi l’algoritmo ci regala la certezza assoluta (“Scorri, ergo ti conosco”).

    Filosoficamente parlando, l’IA è il nostro tentativo di dare vita a un’intelligenza che non ha dubbi, non ha esitazioni, non ha esitazioni sui propri dubbi e, soprattutto, non si pone domande esistenziali. Se la filosofia umana è stata per millenni un’indagine sulla natura della conoscenza e della realtà, l’intelligenza artificiale è un’enorme operazione di riduzione di tutto ciò che è complesso a semplici click, impressioni, engagement e tempi di permanenza sul post. Platone parlava del mondo delle idee pure, ma poi è arrivato l’algoritmo che ha deciso che la tua idea perfetta è un video di gatti in loop, seguito da una pubblicità di un corso di trading online.

    L’IA finisce per diventare il Super-Io digitale definitivo, quello che non solo osserva ogni nostra azione, ma la prevede, la categorizza e la sfrutta economicamente. Freud si strapperebbe i baffi: se lui scavava nell’inconscio per svelare i nostri veri desideri, l’IA li anticipa, li confeziona e ce li ripropone sotto forma di contenuti sponsorizzati, spesso prima ancora che ci rendiamo conto di averli. L’algoritmo non ha bisogno di interpretare i sogni, perché li conosce già. E te li vende con lo sconto del 10%.

    L’IA è l’ultima creazione dell’essere umano per delegare anche l’errore, dopo aver già delegato il pensiero critico, la memoria e la capacità di fare di conto senza calcolatrice. È la macchina perfetta per dirti cosa vuoi, anche quando non lo vuoi. È come un amico che ti conosce bene, ma con la personalità di un venditore di aspirapolveri porta a porta: sa esattamente quando hai bisogno di qualcosa, ma soprattutto sa quando sei più vulnerabile per fartela comprare.

    E alla fine, cosa abbiamo creato? Un’entità onnisciente che sa tutto di noi, tranne come filtrare i contenuti sensibili di Instagram senza mandare in tilt mezzo mondo. Forse era meglio restare con le vecchie divinità mitologiche: almeno non cercavano di venderci un abbonamento premium.

  • Guida pratica al meme NPC

    Guida pratica al meme NPC

    Il termine “NPC” (Non-Player Character), originariamente utilizzato nel contesto dei videogiochi per indicare personaggi non controllabili dai giocatori, ha acquisito una nuova dimensione nel panorama culturale e filosofico contemporaneo. e alla sua funzione ludica, il meme “NPC” è diventato una metafora per descrivere individui percepiti come privi di pensiero critico o autonomia, paragonandoli a personaggi che seguono schemi predefiniti senza consapevolezza o introspezione. (immagine: By anonymous – https://knowyourmeme.com/memes/npc-wojak, Fair use, https://en.wikipedia.org/w/index.php?curid=64521200)

    Il meme “NPC” è emerso nel 2016 su piattaforme come 4chan, dove un utente anonimo ha suggerito che alcune persone si comportano in modo simile agli NPC dei videogiochi, ripetendo frasi fatte e mostrando una mancanza di profondità nel pensiero. Questppresentazione è stata graficamente associata al meme “Wojak”, che raffigura un volto stilizzato e privo di espressione. Col tempo il meme ha guadagnato ulteriore attenzione, venendo utilizzato in contesti politici per criticare coloro che aderivano a ideologie percepite come conformiste o prive di originalità. Non di rado, il meme è usato in senso spregiativo o di sfottò, per indicare qualcuno che non partecipi attivamente alla socialità oppure non voglia o non sappia esporsi politicamente.

    Nel contesto sociale, il meme PC è stato adottato – a volte in forma offensiva – per criticare individui o gruppi considerati incapaci di formare opinioni autonome, accusati di seguire passivamente le narrative prevalenti senza un’analisi critica. Questa analogia suggerisce unaietà in cui alcune persone operano come automi, reagendo agli stimoli esterni senza una vera comprensione o riflessione. Tuttavia, è importante notare chuso del termine in questo modo può essere percepito come offensivo, poiché implica una svalutazione dell’umanità e dell’individualità dell’altro. (vice.com)

    Se consideriamo gli esseri umani come dotati di coscienza e capacità di introspezione, l’idea di etichettare qualcuno come “NPC” implica una negazione di queste qualità, riducel’individuo a un’entità programmata e prevedibile. Questo porta a riflettere su temi come l’autenticità, l’indivudalità e la complessità dell’esperienza umana. Da una prospettiva filosofica, il meme “NPC” solleva questioni sulla natura della coscienza, dell’autodeterminazione e del libero arbitrio.

    Inoltre, l’uso del meme può essere interpretato come una critica alla società contemporanea, suggerendo che molte persone operano in modalità “automatica”, accettando passivamente infzioni e norme sociali senza un esame critico. Questo fenomeno potrebbe essere visto come una conseguenza della sovrastimolazione informativa e della cultura dei social media, dove la profondità del pensiero è spesso sacrificatafavore di reazionimmediate e superficiali.

     

  • Come hackerare la società

    Come hackerare la società

    Secondo l’esperto di sicurezza Bruce Schneier (autore del libro La mente dell’hacker), il genio riesce sempre ad hackerare il desiderio. Questa massima suggerisce che ogni sistema, per quanto apparentemente solido, nasconde falle che possono essere scoperte e sfruttate da menti ingegnose. Questo principio, nato nel contesto della cybersicurezza, si applica perfettamente alla fantapolitica sociale e all’accelerazionismo, due filoni del pensiero speculativo che esplorano il futuro del potere, della governance e delle strutture sociali.

    Hackerare il potere

    L’accelerazionismo è una corrente filosofica e politica che vede il progresso tecnologico ed economico come un motore inarrestabile, capace di sovvertire le strutture tradizionali della società. Gli accelerazionisti credono che l’unico modo per trasformare il mondo sia spingere al massimo le forze della modernità, fino a un punto di rottura. In questo contesto, “hackerare” il sistema significa trovare falle nei meccanismi del potere e sfruttarle per spingerlo oltre i suoi limiti.

    Esempi di queste strategie speculative includono:

    • Automazione e IA radicale: L’introduzione su larga scala dell’intelligenza artificiale per scardinare l’ordine lavorativo e politico.
    • Criptovalute e decentralizzazione: L’uso di blockchain per svincolare l’economia dal controllo delle istituzioni centralizzate.
    • Memetica e guerra dell’informazione: Strategie di comunicazione virale per influenzare la politica e la società a livello globale.

    Se da un lato queste idee promettono una liberazione dal giogo delle strutture di potere tradizionali, dall’altro pongono interrogativi inquietanti sulla loro sostenibilità e sulle possibili conseguenze negative.

    La fantapolitica sociale esplora scenari futuri in cui la governance viene radicalmente trasformata da nuove tecnologie, ideologie o eventi critici. Romanzi di fantascienza e speculative fiction hanno spesso anticipato sviluppi della società moderna con inquietante precisione. Alcuni degli scenari più discussi possono includere, ad esempio:

    • Governi algoritmici: Stati governati da IA imparziali che ottimizzano risorse e decisioni, eliminando il fattore umano e le sue debolezze.
    • Corporazioni sovrane: Multinazionali che superano gli stati nazionali per imporsi come nuove entità di governo.
    • Post-democrazia e realtà virtuale: L’erosione della politica tradizionale a favore di simulazioni immersive che offrono ai cittadini l’illusione della partecipazione.

    La domanda cruciale è: queste sono visioni di un futuro migliore, o nuovi modi di controllare la società in senso alienante e negativo? Se il futuro è un sistema da hackerare, chi avrà il potere di riscrivere le regole? Le figure emergenti del domani potrebbero essere gli hacker sociali, individui o gruppi capaci di manipolare sistemi economici, politici e tecnologici per indirizzare il cambiamento.

    In un mondo sempre più interconnesso e governato dall’informazione, la lotta per il controllo della realtà si sposta su nuovi fronti:

    • Manipolazione delle narrative: Fake news, deepfake e propaganda algoritmica come strumenti di dominio.
    • Hacking biologico e potenziamento umano: Tecnologie di editing genetico e biohacking per ridefinire i limiti della condizione umana.
    • Esodo digitale e nuove forme di cittadinanza: Popolazioni che abbandonano le nazioni tradizionali per costruire comunità virtuali autonome.

    La metafora dell’hacking applicata alla politica e alla società ci pone di fronte a un bivio: possiamo usare le crepe del sistema per costruire un mondo più giusto e libero, o ci limiteremo a sfruttarle per massimizzare il controllo e la disuguaglianza? Il futuro, come sempre, dipenderà dalle mani che riusciranno a decifrare il codice e riscriverlo secondo la loro visione.