Negli Stati Uniti, Elon Musk sta trasformando Grok, il chatbot di intelligenza artificiale di X (ex Twitter), in un possibile medico virtuale. Gli utenti stanno già collaborando, condividendo radiografie, risonanze magnetiche, TAC e altre immagini mediche con la piattaforma. In cambio, Grok fornisce diagnosi basate sulle informazioni ricevute. Secondo Musk, l’IA è in una fase iniziale ma promette di diventare “estremamente valida“.
Il piano di Musk: una strategia su più fronti
L’obiettivo dichiarato è semplice: addestrare Grok affinché diventi sempre più preciso nell’interpretare immagini mediche. Se un numero sufficiente di utenti fornirà scansioni, l’IA migliorerà costantemente. Per Musk, i vantaggi sono molteplici:
- Potenziare l’IA per monetizzarne l’utilizzo in vari settori.
- Incrementare gli abbonamenti a X, che sono indispensabili per accedere a Grok.
- Ampliare il pubblico della piattaforma, raccogliendo dati preziosi per la pubblicità, un settore in crisi per X, che nei primi sei mesi del 2024 ha subito un calo del 24% nei ricavi pubblicitari, pari a una perdita di 238 milioni di dollari.
Ma questa fiducia riposta dagli utenti comporta un prezzo: informazioni personali tra le più sensibili, come i dati medici, vengono condivise con un’entità commerciale.
Privacy sotto la lente: quali sono i rischi?
Sebbene X abbia dichiarato di non vendere i dati degli utenti a terzi, questi possono essere condivisi con società affiliate. Inoltre, nonostante l’azienda affermi di non voler raccogliere dati sanitari sensibili, la richiesta esplicita di immagini mediche per Grok sembra contraddire tale affermazione.
In Europa, le normative più restrittive offrono maggiore tutela: X non può utilizzare i post per addestrare l’IA senza il consenso esplicito degli utenti, a differenza degli Stati Uniti, dove le regole sono più permissive. Per ora, sembra improbabile che agli utenti europei venga richiesto di fornire dati medici per addestrare Grok.
Tuttavia, esperti avvertono che queste informazioni potrebbero essere utilizzate contro gli stessi utenti, ad esempio da datori di lavoro o compagnie assicurative, con il rischio di discriminazione o rincari delle polizze.
Gli errori dell’IA: un problema non trascurabile
Grok non è immune da errori diagnostici. Alcuni utenti hanno già segnalato casi di diagnosi errate, come una clavicola rotta interpretata come una spalla lussata. Tali errori possono generare falsi positivi o negativi, portando a esami inutili o, peggio, al mancato riconoscimento di condizioni critiche.
Questa problematica non riguarda solo Grok: altri chatbot, come ChatGPT, possono essere utilizzati per analisi mediche, ma senza un “Elon Musk” che ne promuova l’uso su larga scala.
Diagnosi mediche: l’IA è pronta?
Sebbene l’IA stia migliorando nella formulazione di diagnosi e terapie, il consenso medico è chiaro: questi strumenti non dovrebbero mai essere utilizzati in autonomia dai pazienti. Diagnosi e trattamenti richiedono la valutazione diretta di personale qualificato, che può utilizzare l’IA come supporto.
Musk, tuttavia, sembra concentrato esclusivamente sull’obiettivo, ignorando le implicazioni etiche e sociali. La domanda resta: siamo pronti a sacrificare la privacy e la sicurezza per una diagnosi più veloce?
Scopri come l’intelligenza artificiale può aiutare anche la tua attività cliccando qui.