ChatGPT non sostituirà i pediatri: l’intelligenza artificiale ha scarsa precisione nelle diagnosi pediatriche

ChatGPT non sostituirà i pediatri: l’intelligenza artificiale ha scarsa precisione nelle diagnosi pediatriche

Gli specialisti sottolineano che, nonostante i progressi dell’intelligenza artificiale, l’esperienza clinica dei pediatri è necessaria a causa della scarsa efficacia dei chatbot nella diagnosi dei minori. (informazioni sull'immagine)

Un recente studio pubblicato su JAMA Pediatria Sottolinea che l'uso di chatbot di intelligenza artificiale, come ChatGPTper diagnosticare condizioni mediche nei bambini, è inaffidabile.

La ricerca ha dimostrato che questo sistema di intelligenza artificiale aveva solo il 17% di precisione nella diagnosi delle malattie infantili, un numero piuttosto basso.

Secondo la ricerca, ciò dimostra che la competenza dei pediatri rimane insostituibile e sottolinea l’importanza della loro conoscenza clinica. Nonostante ciò, molti professionisti sanitari si rendono conto di questa integrazione Amnesty International In Medicare potrebbe essere imminente.

IL intelligenza artificiale Nel settore sanitario sta avanzando rapidamente e viene utilizzato per una vasta gamma di applicazioni.

I ricercatori sottolineano che le risposte di ChatGPT sono spesso troppo generiche e falliscono in casi specifici di malattie pediatriche. (Occhio aperto)

Ciò include l’analisi di grandi quantità di dati medici per identificare modelli che aiutano a prevenire e curare le malattie, lo sviluppo di algoritmi per diagnosi più accurate, la personalizzazione dei trattamenti per i pazienti e l’automazione delle attività amministrative per migliorare l’efficienza dei servizi sanitari.

Tuttavia, il recente studio condotto in Centro medico pediatrico Cohen In New York Ho scoperto che l'ultima versione di ChatGPT Non è ancora pronto per diagnosticare le malattie nei bambini. I bambini sono diversi dagli adulti perché cambiano così tanto quando invecchiano che non riescono nemmeno a dire cosa sta realmente accadendo loro.

In esperienza con ChatGPTGli scienziati hanno utilizzato le trascrizioni di 100 condizioni di salute di bambini nella vita reale e hanno chiesto al sistema di cercare di capire quale malattia avessero. Due medici specialisti hanno poi verificato se le risposte dell'IA erano buone, cattive o meno.

Un medico specialista fornisce assistenza medica al bambino in ospedale, dove cure specialistiche, sanitarie e pediatriche si intrecciano per garantire il benessere dei più piccoli. (informazioni sull'immagine)

A volte, ChatGPT Si è detto che esiste una malattia ad esso correlata, ma non è valido perché è molto generale. Per esempio, ChatGPT Si pensava che il bambino avesse una specie di massa sul collo, ma in realtà aveva una malattia genetica che colpisce anche le orecchie e i reni e può portare alla comparsa di queste masse.

READ  Cosa fare se si hanno sintomi da Covid ma il test è negativo

Dei 100 casi esaminati, ChatGPT Ha commesso errori solo in 17 casi. In 11 casi non ha ottenuto la risposta completa e in 72 casi si è sbagliato completamente. Inoltre delle 83 volte in cui non ha risposto correttamente, in 47 occasioni ha detto che la malattia andava curata dalla parte giusta del corpo, ma nonostante ciò la diagnosi era sbagliata.

I ricercatori lo hanno notato Amnesty International Non era molto brava a percepire cose che i medici esperti sapevano. Ad esempio, un bambino autistico non potrebbe avere lo scorbuto perché non assume abbastanza vitamina C.

Ciò può accadere perché le persone con autismo a volte mangiano alcune cose diverse e mancano di vitamine. I medici sanno che è necessario prestare attenzione ai problemi vitaminici dei bambini nei paesi in cui mangiano bene. Ma chatbot Non se ne accorse e pensò che il bambino soffrisse di un'altra malattia meno comune.

Gli errori comuni di ChatGPT includono diagnosi eccessivamente generiche e una mancanza di connessione tra sintomi e condizioni mediche. (informazioni sull'immagine)

Il chatbot non ha funzionato bene in questo test, ma i ricercatori hanno affermato che potrebbe migliorare se fosse meglio addestrato utilizzando libri di medicina specializzati piuttosto che informazioni talvolta false da Internet.

Hanno aggiunto che se il chatbot potesse utilizzare dati medici aggiornati, ciò porterebbe a diagnosi migliori. Lo chiamano “modificare“Il sistema funziona molto meglio.

“Ciò rappresenta un'opportunità per i ricercatori di verificare se la formazione specifica e l'adattamento ai dati medici migliorano l'accuratezza diagnostica dei chatbot basati su ampi modelli linguistici”, hanno concluso gli autori medici dell'articolo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top