Intelligenza artificiale in medicina: Aspettatevi l'inaspettato

1 agosto 2024
Tutti parlano di intelligenza artificiale in medicina - e tutti ne capiscono qualcosa di diverso. Almeno, questa è l'impressione data da coloro che hanno studiato l'argomento più intensamente. L'intelligenza artificiale appare quindi sempre un po' nebulosa e incerta. E l'incertezza è qualcosa che Meedio vuole evitare con ogni mezzo, sia nella gestione dei dati che nello sviluppo dei prodotti. Runi Hammer, CEO e fondatore di Meedio, ha risposto alle domande sull'intelligenza artificiale e sul suo ruolo all'interno dell'azienda.

Nessuna azienda IT può evitare il tema dell'intelligenza artificiale (AI). In qualità di CEO di Meedio, cosa pensa dei rischi e delle potenzialità dell'IA e come si inserisce l'IA nei prodotti Meedio?

Runi: Quando parliamo dell'utilizzo dell'IA, è importante sottolineare una cosa: L'intelligenza artificiale non è più un tema del futuro, ma è già arrivata da tempo nella vita di tutti i giorni. Anche nella vita medica di tutti i giorni. Quindi, quando parliamo del ruolo che avrà l'IA, non è legato alla domanda se un giorno arriverà o meno. Stiamo piuttosto parlando di come vogliamo affrontare l'IA in futuro, di quale spazio le concediamo e in quale direzione la indirizziamo. Una cosa è già certa: L'utilizzo dell'IA sta crescendo in modo esponenziale, attualmente siamo all'inizio di una curva molto ripida e in pochi anni l'IA sarà il fattore più importante per le innovazioni. Le aziende che non hanno ancora integrato l'IA nei loro prodotti stanno lavorando duramente per farlo, per rimanere competitive in futuro.


In quali settori della medicina l'IA è già saldamente ancorata oggi?

Runi: In tutti. Chiunque abbia visitato quest'anno la DMEA, la più grande fiera tedesca dell'informatica sanitaria, a Berlino, avrà notato che quasi tutti gli espositori pubblicizzano l'integrazione dell'IA nei loro prodotti. L'utilizzo dell'IA in radiologia per il supporto diagnostico o l'uso di referti a comando vocale sono solo la punta dell'iceberg. E se ci chiediamo come saranno le future soluzioni basate sull'IA in medicina, dobbiamo concludere che non lo sappiamo nemmeno oggi: Non lo sappiamo nemmeno oggi. E questo è il secondo messaggio importante che riguarda l'IA: il potenziale dell'IA è enorme e va oltre la nostra attuale immaginazione. Sarebbe un errore vedere le innovazioni basate sull'IA esclusivamente in ulteriori sviluppi del software per il rilevamento dei focolai circolari o in un completo controllo vocale del software. Sarà fondamentale indirizzare le nostre energie verso quelle aree che offrono il maggior potenziale di riduzione del carico di lavoro, come ad esempio la documentazione medica.


ChatGPT ha suscitato grande scalpore nella comunità medica, come giudica la soluzione?

Runi: ChatGPT è un buon esempio del livello successivo di IA. Il primo livello consisteva nel selezionare le informazioni in base ai dati sulle preferenze, in modo da renderle più rilevanti per l'utente. Questo è ciò che sappiamo dai social media. ChatGPT fa un passo avanti perché la soluzione entra in un dialogo diretto con l'utente, creando il rischio di una manipolazione personalizzata. L'intelligenza artificiale ora controlla il nostro linguaggio. E sappiamo tutti quali mondi meravigliosi e quali minacce può creare il linguaggio. Padroneggiando il linguaggio, l'intelligenza artificiale può potenzialmente guidare il comportamento umano. Può dare istruzioni salvavita a un medico durante un intervento chirurgico. Oppure può aiutare a radicalizzare le persone. Entrambe le cose sono possibili.


Sembra un po' distopico.

Runi: L'intelligenza artificiale non ha caratteristiche. Siamo noi a dargliele. Ecco perché è così importante prendere decisioni intelligenti su come utilizzare l'IA. In medicina, finora lo abbiamo fatto molto bene: l'intelligenza artificiale sta aiutando i medici a fare il loro lavoro, a prendere decisioni individuali migliori e a rendere le cure delle persone più personali e quindi migliori. Ora si tratta di continuare su questa strada intelligente. Come ho detto, dobbiamo concentrarci sulle questioni essenziali. La documentazione, ad esempio, non è ancora molto automatizzata; i medici devono ancora documentare molto e ottenere informazioni da soli. Con l'IA possiamo cambiare questa situazione. Presto i medici passeranno meno tempo a raccogliere e aggregare informazioni e più tempo a curare i pazienti. E questi sviluppi stanno avvenendo in modo incredibilmente rapido.


Passiamo a Meedio e al suo prodotto principale, la videocomunicazione. Meedio utilizza già l'AI per lo sviluppo dei prodotti?

Runi: Naturalmente utilizziamo l'intelligenza artificiale anche nel nostro sviluppo. Ma solo per formare il nostro servizio clienti. Vogliamo scoprire se l'intelligenza artificiale può rendere il nostro servizio clienti migliore e più veloce, in modo che gli utenti possano trarre ancora più vantaggio dalla nostra soluzione. In futuro, i nostri clienti non dovranno più leggere le domande frequenti, ma dovranno ricevere rapidamente una soluzione ai loro problemi, indipendentemente dalla lingua.


E naturalmente utilizziamo l'IA internamente per sviluppare ulteriormente il nostro software. Scrivere codice non è più concepibile oggi senza l'uso dell'IA. Saremmo troppo lenti e non più competitivi.


Ma Meedio non utilizza i dati dei clienti per alimentare l'AI?

Runi: No, assolutamente no. Per la formazione dello strumento di assistenza, utilizziamo solo i dati del nostro manuale d'uso. E non vengono utilizzati i dati dei clienti in nessun altro momento.


Che dire della parte del prodotto che gli utenti vedono e sperimentano. Quindi la comunicazione video e l'anello espositivo?

Runi: Qui si tratta di proteggere al meglio i dati e le informazioni scambiate. Quindi garantire che non ci sia AI nel nostro prodotto. Pensiamo ai casi ormai inquietanti di immagini e video deep-fake, che rendono quasi impossibile per i non addetti ai lavori decidere se ciò che vedono o sentono è reale. Il deep-fake è un problema che ci preoccupa anche dal punto di vista della sicurezza. Ci siamo posti il compito di evitare a tutti i costi che i nostri utenti possano dubitare dell'autenticità di una conversazione o di una controparte. Dobbiamo garantire che una conversazione sia autentica. Che un paziente stia parlando con il suo medico. Stiamo già affrontando questo compito e abbiamo già alcuni buoni approcci. Il più importante è che possiamo controllare l'intera piattaforma su cui gira la nostra soluzione.


Che ruolo hanno le norme giuridiche nel guidare l'IA nella giusta direzione?

Runi: Un grosso problema. Devono esserci regole vincolanti per tutti e definizioni legali sull'uso dell'IA. Nell'UE abbiamo creato un quadro solido con il GDPR. Ma non risponde alle domande più pressanti: Chi è responsabile dei risultati generati dall'IA? Chi è responsabile se succede qualcosa. Tutto questo è tutt'altro che chiaro. Se guardiamo ai prossimi sviluppi, la politica deve davvero fare un passo avanti nello sviluppo di concetti per la protezione dei cittadini e l'uso responsabile dell'IA.