Sull’intelligenza artificiale e le “lettere aperte”
0 (0)

Il nostro voto
Cosa ne pensi?
[Voti: 0 Media: 0]

Uno dei tratti distintivi del 2023 è stato senza dubbio il tema dell’etica dell’intelligenza artificiale, che si pone in maniera universale forse per la prima volta nella storia. Fa riflettere che le stesse tematiche vengano sollevate dagli esperti da ben prima che si scomodassero dei miliardari per esprimere un parere solo apparentemente più autorevole di quello di altri.

Ci sono vari aspetti ed è bene procedere per ordine, nella trattazione. La celebre lettera firmata da Wozniak e Musk e diffusa a marzo 2023, per esempio, sollevava vari ordini di preoccupazione e di tecnofobia, paradossale se si pensa a quanto le tecnologie siano state determinanti per mettere alcune (non tutte) di quelle personalità al centro del dibattito. I dubbi etici sollevati all’epoca riguardavano due assunti: non solo quello esplicito di disporre di IA che fossero troppo potenti per essere gestite attualmente (diciamo da GPT-4 in poi), ma anche uno implicito altrettanto profondo. Poco ovvio, per la verità, ma sostanziale: ovvero il fatto che dietro la volontà di frenare le IA ci fosse un qualche tipo di interesse personale.

Fin quando, infatti, un qualsiasi politico anti-tecnologico e diffidente facesse un’affermazione sulla pericolosità di sottovalutazione delle IA potremmo discuterne, confutare in termini politici. Se invece lo fa un imprenditore o un gruppo di imprecisate personalità del mondo IT ed annessi, si tratta di figure jolly che si adeguano al contesto per definizione (il loro obiettivo chiaro rimane, sempre e comunque, quello di far guadagnare la propria azienda, perchè se non lo facessero perderebbero l’interesse da parte di azionisti ed inserzionisti).

Sono uscite miriadi di lettere di richiamo in merito: la succitata richiesta di stoppare le IA per 6 mesi si affianca ad esempio ad un condivisibile (parere personale, s’intende) manifesto dell’AI sottoscritto da vari italiani, di circa un anno prima, e che sottolinea tra i punti che “come agiamo, così diventiamo”. Sembra più psicologia che tecnologia, curiosamente, ma le cose non sono scorrelate come potrebbe sembrare: ormai in effetti è chiaro che non esiste più un’informatica che sia avulsa dal contesto e che si limiti a fare i suoi calcoletti nerd. Anzi, le tecnologie dilagano in ogni aspetto quotidiano e ci suggeriscono come vivere, dove lavorare, dove mangiare, dove andare, quando uscire, con chi accoppiarci. Sta al nostro comportamento limitarne l’uso indebito, e non spetta certamente a delle “lettere di richiamo” in cui miliardari di vario ordine e grado decidano paternalisticamente quale debba essere la giusta disciplina da impartire alle macchine artificiali (come sottolineato dall’articolo di Paolo Bory su LMDP di giugno, che evidenzia come siano quasi sempre figure maschili ad essere investite di questo ruolo, per definizione inappellabile).

Già nel 1950 il genio visionario di Alan Turing, informatico par excellence (tanto per doti quanto per incomprensione da parte del mondo a lui contemporaneo), immaginò tra le altre cose la possibilità di creare una child machine: una vera e propria “macchina bambino”, un prototipo di macchina di apprendimento (espressione del machine learning) che fosse in grado non solo di eseguire diligentemente i compiti che gli venivano assegnati, ma anche di correggere il tiro se sbagliava. Turing stava giocando intellettualmente sul tema del gioco dell’imitazione, ed era probabilmente influenzato dalla scuola comportamentista inaugurata da da Watson nel 1914, la quale si incentrava sui meccanismi di reazione organica agli stimoli e alle logiche tipo “premio e punizione”, poi rigettate dalle scuole pedagogiche modello Maria Montessori. L’idea della macchina bambino era esattamente questa, e si immaginava che una macchina potesse essere letteralmente educata a fare del suo meglio. Oggi sappiamo che il comportamentismo è solo una delle tante scuole pedagogiche, ed è plausibile che una pedagogia-macchina possa un giorno esistere ed essere utilizzata per provare a misurare i risultati.

Per comprendere i rischi autentici delle IA, che certamente non vanno sminuiti nè sottostimati, serve un approccio che sia corretto metodologicamente, e che non ci esponga allo sciacallaggio del primo imprenditore che passa per strada e che vorrebbe, con la sua lettera aperta, imporre agli altri la propria visione del mondo.

Il nostro voto
Cosa ne pensi?
[Voti: 0 Media: 0]

Lipercubo.it is licensed under Attribution-ShareAlike 4.0 International - Le immagini presenti nel sito sono presentate a solo scopo illustrativo e di ricerca, citando sempre la fonte ove / quando possibile - Questo sito contribuisce alla audience di sè stesso


Il nostro network: Lipercubo.it - Pagare.online - Trovalost.it.