Search Dental Tribune

I chatbot di intelligenza artificiale mostrano promettenti risultati come supporto didattico in endodonzia

Uno studio recente ha riportato che due chatbot di intelligenza artificiale, GPT-4o e Gemini 2.5 Pro, potrebbero essere utili come strumenti di apprendimento complementari nella formazione in endodonzia (Immagine: Garun Studios/Adobe Stock).

DALLAS, USA: Con l’aumento dell’esplorazione degli strumenti di intelligenza artificiale (IA) nella formazione odontoiatrica e nell’apprendimento clinico, rimangono aperti interrogativi su quanto possano effettivamente supportare in modo affidabile lo sviluppo delle capacità di ragionamento diagnostico e di pianificazione del trattamento. Un recente studio ha rilevato che due chatbot di IA, GPT-4o e Gemini 2.5 Pro, potrebbero costituire un utile supporto didattico nella formazione clinica, in particolare per lo sviluppo delle capacità decisionali in endodonzia da parte di studenti e specializzandi.

«L’intelligenza artificiale, e in particolare i modelli linguistici di grandi dimensioni (LLM), sono già ampiamente utilizzati da studenti e docenti. Volevamo capire non solo se siano in grado di rispondere alle domande, ma anche quanto siano accurati e affidabili in un contesto clinicamente rilevante», ha dichiarato a Dental Tribune International il primo autore, il dott. Poorya Jalali, professore associato clinico e direttore del programma di specializzazione in endodonzia presso il Texas A&M College of Dentistry.

Il dott. Poorya Jalali, endodontista certificato e docente, ritiene che, se utilizzati in modo appropriato e sotto supervisione umana, i chatbot di intelligenza artificiale possano supportare l’apprendimento interattivo, aiutare gli studenti nella preparazione agli esami e favorire un maggiore coinvolgimento critico con gli scenari clinici (Immagine: dott. Poorya Jalali).

Secondo il dott. Jalali, molti studi precedenti sui LLM in endodonzia hanno utilizzato domande a scelta multipla, che valutano principalmente la memoria. L’esame orale dell’American Board of Endodontics (ABE), tuttavia, è progettato per valutare il ragionamento clinico, il processo decisionale e la capacità di giustificare le scelte cliniche facendo riferimento alla letteratura scientifica - competenze che rispecchiano più da vicino la pratica clinica. Per questo motivo, i ricercatori hanno cercato di testare i sistemi in un contesto che rispecchiasse meglio il modo in cui gli endodontisti affrontano la diagnosi e la pianificazione del trattamento.

Nello studio, GPT-4o e Gemini 2.5 Pro sono stati valutati in un esame orale simulato dell’American Board of Endodontics (ABE), su tre casi clinici che coprivano diversi scenari endodontici, sviluppati da due endodontisti certificati. Per ciascun caso, ai modelli è stato fornito un profilo clinico dettagliato del paziente e sono state poste 20 domande a risposta aperta. Le risposte sono state valutate in modo indipendente dagli stessi due esaminatori, considerando la validità clinica delle risposte e l’accuratezza e pertinenza delle fonti bibliografiche a supporto. A ciascuna risposta è stato inoltre assegnato un punteggio complessivo di performance.

Entrambi i chatbot hanno ottenuto buoni risultati e la maggior parte delle risposte è stata valutata da accettabile a eccellente. Su una scala da 0 a 3, Gemini 2.5 Pro ha raggiunto un punteggio medio complessivo di 2,83, mentre GPT-4o ha ottenuto 2,73. L’analisi statistica, che ha tenuto conto delle differenze tra i casi clinici, le singole domande e gli esaminatori, non ha evidenziato differenze significative tra i due modelli né nella validità clinica delle risposte né nella performance complessiva. Tuttavia, GPT-4o ha mostrato una maggiore variabilità in base al tipo di caso, mentre Gemini 2.5 Pro si è dimostrato più costante nelle tre diverse situazioni cliniche.

«Questo suggerisce che i modelli attuali possono dimostrare un ragionamento clinico strutturato e rispondere a domande in stile esame orale a un livello paragonabile a quello di specializzandi avanzati» ha affermato il dott. Jalali. Tuttavia, ha avvertito che i risultati non devono essere sovrainterpretati. Sebbene entrambi i chatbot abbiano mostrato un forte potenziale, ciò non significa che sarebbero in grado di superare in modo affidabile un vero esame orale dell’ABE, che prevede interazioni dal vivo e a tempo con gli esaminatori e l’interpretazione autonoma delle immagini radiografiche. In questo studio, infatti, i chatbot hanno risposto a domande scritte e sono stati forniti loro anche i dettagli relativi ai reperti radiografici.

«Questi sistemi non possono formulare diagnosi né pianificare trattamenti in modo autonomo. Non sono in grado di eseguire test clinici, visitare il paziente o interpretare radiografie in un contesto clinico reale. Sono LLM e le loro prestazioni dipendono dalle informazioni che vengono loro fornite», ha spiegato.

I risultati suggeriscono che i chatbot di intelligenza artificiale potrebbero fungere da strumenti didattici di supporto in endodonzia, piuttosto che sostituire l’esperienza umana. Potrebbero, come suggerisce il dott. Jalali, aiutare studenti e specializzandi a esercitarsi nel rispondere a quesiti clinici, a verificare le proprie conoscenze e a confrontare il proprio ragionamento con risposte modello. In questo modo, la tecnologia potrebbe offrire un ambiente di apprendimento interattivo in grado di integrare l’insegnamento tradizionale, soprattutto nella preparazione agli esami in stile board.

Il lavoro fa parte di una più ampia linea di indagine. In uno studio precedente, i ricercatori avevano valutato i LLM utilizzando domande scritte in stile esame di abilitazione. Secondo il dott. Jalali, il passo successivo sarà verificare se questi strumenti possano contribuire alla progettazione di domande d’esame di alta qualità e i risultati preliminari in questo ambito sono stati incoraggianti.

Lo studio, intitolato “Artificial intelligence chatbots taking American Board of Endodontics simulated oral board examination”, è stato pubblicato online il 26 febbraio 2026 sul Journal of Endodontics, in anteprima rispetto alla sua inclusione in un fascicolo della rivista.

 

Tag:
To post a reply please login or register
advertisement
advertisement