Search Dental Tribune

Une étude révèle que ChatGPT est limité dans ses réponses aux questions complexes sur la santé bucco-dentaire

Les patients consultent de plus en plus de ressources en ligne pour obtenir des informations sur la santé bucco-dentaire, y compris sur des sujets liés au tabac. (Image: Rawpixel.com/Adobe Stock)

jeu. 21 août 2025

Enregistrer

AMMAN, Jordanie : Alors que l’intelligence artificielle continue d’étendre son rôle dans le domaine de la santé, les modèles de langage tels que ChatGPT sont de plus en plus utilisés, pour rechercher des informations liées à la santé. En dentisterie, où l’éducation des patients est essentielle et où la désinformation en ligne est en hausse, il est particulièrement important d’évaluer la fiabilité de ces outils. Étant donné l’impact bien établi de la consommation de tabac sur la santé bucco-dentaire — y compris son lien avec les maladies parodontales, la perte de dents, le cancer de la bouche et la cicatrisation altérée — une nouvelle étude a évalué dans quelle mesure ChatGPT répond efficacement aux questions du public sur ce sujet important.

Les chercheurs — de l’Université de Jordanie et du ministère de la Santé du Koweït à Sulaibikhat — ont élaboré une série de questions fréquemment posées à l’aide d’outils en ligne. Ces questions, souvent adressées à des chatbots et moteurs de recherche, portaient sur des domaines tels que les affections parodontales, les dents et la santé bucco-dentaire générale, la santé des tissus mous, la chirurgie buccale, ainsi que les préoccupations liées à l’hygiène bucco-dentaire et à la mauvaise haleine. Le tout a été réduit à 119 questions. Les réponses ont été générées par ChatGPT 3.5 et évaluées par les chercheurs selon les critères suivants : utilité, lisibilité, qualité, fiabilité et applicabilité.

La majorité des réponses ont été jugées très utiles (36,1 %) ou utiles (42,0 %), et de qualité modérée (41,2 %) à bonne (37,0 %). Toutefois, seules 23,5 % des réponses ont obtenu un score élevé en termes d’applicabilité concrète, et 35,3 % ont été considérées comme seulement modérément faciles à lire.

Lorsque les réponses ont été comparées selon les différents thèmes, les scores de l’outil se sont révélés variables. Les réponses aux questions portant sur des sujets spécialisés étaient moins utiles, notamment celles concernant les effets du tabac sur les tissus mous buccaux et sur les interventions chirurgicales orales.

En commentant des études précédentes ayant montré que ChatGPT excelle dans des sujets spécialisés et est même capable de réussir des examens en odontologie, les chercheurs ont souligné que le format des questions posées influence la qualité et la fiabilité des réponses. « Cette divergence peut être due aux différences de formats des questions, car nos demandes générales diffèrent de la nature structurée et académique des questions d’examen », ont-ils expliqué.

La technologie s’est révélée performante pour répondre à des questions générales, mais moins efficace pour les questions plus détaillées et/ou les sujets spécialisés. « Par exemple, ChatGPT n’a pas réussi à fournir de manière constante des réponses précises et complètes à la majorité des questions centrées sur les patients en oncologie radiothérapeutique, en particulier pour les cancers rares et face à des questions de “contrôle négatif” intégrant des hypothèses incorrectes », ont écrit les auteurs. Soulignant que l’utilité des informations de santé destinées au public dépend de leur lisibilité et de leur compréhensibilité, les chercheurs ont insisté sur la nécessité, pour les outils d’intelligence artificielle, de trouver un équilibre efficace entre qualité et simplicité dans leurs réponses.

En résumé, les auteurs ont conclu que ChatGPT est un outil précieux pour fournir des informations générales sur les effets du tabac sur la santé bucco-dentaire, mais qu’il rencontre des difficultés en matière de lisibilité, d’applicabilité constante et de qualité des réponses sur des sujets spécialisés. « Bien que ChatGPT puisse compléter efficacement l’éducation en santé, il ne doit pas se substituer aux conseils d’un professionnel dentaire », ont-ils conclu.

L'étude, intitulée « Assessing ChatGPT’s suitability in responding to the public’s inquiries on the effects of smoking on oral health »,  été publiée en ligne le 19 juillet 2025 dans BMC Oral Health.

Mots-clés:
To post a reply please login or register
advertisement