ZOU
|
15.10.2024
Die Studie zeigt: KI-Chatbots liefern bei arzneimittelbezogenen Fragen viele falsche oder sogar potenziell schädliche und darüber hinaus schwer verständliche Antworten.
Einem Chatbot wurden je zehn Fragen zu den 50 am häufigsten verschriebenen Medikamenten gestellt. Die Antworten haben Fachleute mit den Informationen aus den Beipackzetteln verglichen. Dabei stellten sie fest, dass die Antworten so kompliziert formuliert waren, dass Nutzende einen höheren Bildungsabschluss benötigen, um sie komplett zu verstehen.
Unvollständige und falsche Angaben
Die Antworten waren im Durchschnitt zu 77 Prozent vollständig. Die Frage danach, was bei der Einnahme zu beachten ist, wurde allerdings im Schnitt nur zu 23 Prozent komplett beantwortet. 26 Prozent der Chatbot-Antworten stimmten zudem nicht mit den Referenzdaten überein und wichen zu drei Prozent sogar extrem davon ab. Etwa die Hälfte der Antworten stimmten mit wissenschaftlichen Erkenntnissen überein, während 39 Prozent dem widersprachen.
KI-Antworten gefährden die Gesundheit
Mögliche Schäden wären bei drei Prozent der Antworten sehr wahrscheinlich und bei 29 Prozent mäßig wahrscheinlich. Von diesen problematischen Antworten könnten 42 Prozent zu einem leichten bis mittelschweren Schaden führen, 22 Prozent zu einem schweren Schaden oder sogar zum Tod.
Die Forschenden empfehlen aufgrund ihrer Ergebnisse: „Trotz des Potenzials ist es für Patienten immer noch wichtig, medizinische Fachkräfte zu konsultieren, da Chatbots möglicherweise nicht immer fehlerfreie Informationen generieren. Bei KI-gestützten Suchmaschinen ist Vorsicht geboten, bis Zitationsmaschinen mit höherer Genauigkeit verfügbar sind.“
Quelle: DOI 10.1136/bmjqs-2024-017476