Ti fideresti di un algoritmo che sia in grado di curarti?


La domanda che poniamo oggi è sostanziale quanto, se vogliamo, spaventosa: pensare ad un algoritmo che sia in grado di curare una persona, ricorrendo ad automatismi sostanziali e allo stato dell’arte della medicina sicuramente non lascia indifferenti. Lascia dubbi, perplessità, non ci viene da rispondere in modo netto: certo, se prevale l’anti-tecnologia ci viene da fidarci più di un medico che di un algoritmo, se si tratta della nostra salute. Eppure quel medico, lo stesso per cui idealmente ci troviamo a simpatizzare, diventerebbe oggetto dei peggiori improperi se dovesse sbagliare una diagnosi o una cura.

Nel suo monumentale saggio Pensieri lenti e veloci, il premio nobel Daniel Kanheman evoca l’indice di Apgar come criterio di decisione tra i più usati nelle sale parto: in un mondo in cui la mortalità infantile era molto alta, la dottoressa Virginia Apgar inventa un metodo numerico per assegnare un punteggio o score di vitalità al nascituro.

Tale indice, racconta lo scienzato, consiste nella somma di cinque variabili (frequenza cardiaca, respirazione, riflessi, tono muscolare, colorito) che possono rispettivamente assumere valore intero 0, 1 oppure 2. Se la somma di questi valori supera la soglia di 8 il neonato è considerato in buona salute, altrimenti no. Per fare un esempio più ironico, viene anche riportato l’indice di Dawes di stabilità coniugale, dato dalla differenza tra frequenza del sesso e frequenza dei litigi, che dovrà portare ad un risultato positivo perchè la coppia sia stabile.

Sono esempi che possono sembrare semplicistici, per certi versi, ma danno l’idea (soprattutto il primo) di come il tasso di sopravvivenza ed il numero di persone che riusciamo ad essere presenti sulla terra dipendano, in qualche modo, dalla valutazione di una semplice somma di numeri. Gli studi pioneristici di Paul Meehl nel suo libro di metà anni Cinquanta Clinical vs. Statistical Prediction: A Theoretical Analysis and a Review of the Evidence mostrano un’evidenza inquietante, quanto clamorosa, anche oggi: in determinati ambiti, infatti, una procedura algoritmica produce previsioni più affidabili di una affidata ad un esperto. Non solo: tra i numerosi bias sviscerati dal saggio, uno dei più corposi e completi sull’argomento, emergono circostanze vagamente grottesche, tra cui esperti di un settore che finiscono per contraddirsi clamorosamente su un certo argomento a distanza di poco tempo.

Da qui a dire che un algoritmo possa curare una persona meglio di un medico ovviamente ce ne passa, anche perchè Meehl ragionava sui dati disponibili all’epoca, sia pur in condizioni di tecnologia ben diverse dalle attuali, e si riferiva agli ambiti in cui si debbano effettuare previsioni, non diagnosi o cure specifiche. Previsioni del tempo, del decorso di una malattia e via dicendo: in questi casi gli algoritmi statistici, per il fatto di non essere soggetti a bias di alcun genere, effettuano freddi calcoli che portano a stime molto più performanti di quelle fatte da gruppi di esperti. Kanheman insiste molto su questo aspetto nel suo libro, sottolineando come gli studi successivi abbiano dato ragione all’idea contro-intuitiva e spaventosa di Meehl, con percentuali significative: nel 60% dei casi possono esistere algoritmi più esatti delle previsioni di qualsiasi esperto. Ovvio che bisogno pure specificare che questo vale in ambienti a bassa validità, dove è difficile trarre conclusioni diversamente o, se preferite, dove le circostanze sono estremamente imprevedibili.

Intelligenza artificiale supervisionata

Certa stampa generalista ha da sempre la tendenza a mostruosizzare le applicazioni di intelligenza artificiale, il che è dannoso da almeno due punti di vista: prima di tutto non rende giustizia alla tecnologia in sè, facendola sembrare quello che non è. Ma finisce per per alimentare pregiudizi e stereotipi tecnologici da film di serie B, prefigurando mostruosità e panico morale dove non ce ne sarebbe affatto bisogno, se non per esigenze di clickbait. Le considerazioni sugli algoritmi statistici di cui sopra sembrano calzanti per l’intelligenza artificiale, anche perché il mondo dell’apprendimento macchina deriva dagli studi pioneristici di quel tipo, con l’idea di creare sistemi in grado di auto-correggersi e migliorare gli output proprio sulla base di campioni di dati da usare in addestramento, che siano più numerosi e corposi possibili.

L’importanza delle tecnologie supervisionate – da usarsi sotto la supervisione di un esperto – nell’intelligenza artificiale è lampante, specialmente quando si tratta di applicazioni critiche come la medicina. Le tecnologie supervisionate si basano su dati di addestramento etichettati, il che significa che sono state addestrate su dati in cui le risposte corrette erano note in anticipo, ponendole come “esempio” per valutazioni analoghe future. Questo approccio consentirà di sviluppare algoritmi semp repiù affidabili e precisi, ma come sarà per noi farsi curare, nel prossimo futuro? È molto probabile che l’anti-scienza e le avversioni tecnologiche giochino un ruolo decisivo in questa fase, ma potrebbe anche succedere quello che è capitato con certo luddismo: l’effetto ambivalenza di chi utilizza i social e poi se ne dichiara fermamente contrario, o di chi si preoccupa di IT Alert senza preoccuparsi minimamente delle notifiche delle app di e-commerce o di Tik Tok. Personalmente credo molto al persistere di questa ambivalenza, e immagino che si applicherà anche nell’ambito di cui stiamo parlando.

Nel contesto medico un sistema di intelligenza artificiale supervisionato può essere addestrato su un ampio dataset di casi clinici con diagnosi e risultati noti. Questo potrebbe aiutare a migliorare la capacità dell’algoritmo di diagnosticare malattie o assistere nella pianificazione dei trattamenti. Tuttavia, è importante notare che, anche se l’IA supervisionata può essere estremamente utile, non dovrebbe mai sostituire completamente la supervisione umana e la valutazione clinica.

Pensare ad un’intelligenza artificiale che possa curare le persone assistere nella diagnosi sembra quasi distopico, ma gli studi di affidabilità di cui sopra per quanto su base statistica restano, in buona parte, inoppugnabili. Alcune ragioni per cui l’IA supervisionata è fondamentale – e va spiegato con urgenza anche alla stampa generalista di cui sopra – includono:

  1. Affidabilità: L’IA supervisionata è generalmente più affidabile, perché è stata addestrata su dati con risposte conosciute, il che permette di valutare la sua accuratezza. Vale tuttavia la pena di osservare che ci sono casi di intelligenze artificiali biased o addirittura allucinatorie, che producono risultati grotteschi, poco utili, potenzialmente fuorvianti o inconsistenti.
  2. Controllo: Gli algoritmi supervisionati possono essere monitorati e controllati più facilmente poiché si basano su regole e dati noti.
  3. Trasparenza: È più facile comprendere come un algoritmo supervisionato prende decisioni, poiché il processo di apprendimento è basato su esempi etichettati.
  4. Responsabilità: L’IA supervisionata facilita l’attribuzione di responsabilità in caso di errori o problemi, poiché è possibile tracciare come è stato addestrato l’algoritmo.

Tuttavia, è importante notare che l’IA supervisionata ha limitazioni. Può essere meno adatta a situazioni in cui i dati di addestramento sono scarsamente disponibili o costosi da ottenere e dove è necessario un apprendimento autonomo in tempo reale. In tali casi, l’IA semi-supervisionata o non supervisionata può essere più appropriata.

Il nostro voto

Lipercubo.it is licensed under Attribution-ShareAlike 4.0 International - Le immagini presenti nel sito sono presentate a solo scopo illustrativo e di ricerca, citando sempre la fonte ove / quando possibile - Questo sito contribuisce alla audience di sè stesso


Il nostro network: Lipercubo.it - Pagare.online - Trovalost.it.