top of page
Redaktion Mittagsmagazin

Studie warnt vor KI: Chatbots liefern unzuverlässige Informationen zu Medikamenten

KI-unterstützte Suchmaschinen und Chatbots liefern laut einer aktuellen Studie unzuverlässige Informationen zu Medikamenten. Mehr dazu jetzt in den "Besser Leben News".


Die Forscher betonen, dass die Antworten oft ungenau, unvollständig und schwer verständlich sind. Diese Ergebnisse wurden im Fachjournal „BMJ Quality & Safety“ veröffentlicht. Sie empfehlen Nutzer, vorsichtig zu sein, und fordern Warnhinweise, um mögliche Risiken zu minimieren.


Mangelnde Eignung für sichere Anwendungen


„Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist“, erläuterte Wahram Andrikyan, der Erstautor der Studie und Mitarbeiter des Instituts für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. Er betonte zudem: „Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.“


Untersuchung von Medikamenteninformationen durch KI


Die Studie begann mit der Beobachtung, dass viele Patienten im Internet nach Informationen zu verschriebenen Medikamenten suchen. Daher stellten die Forschenden im April 2023 zehn häufige Fragen zu den 50 am häufigsten verschriebenen Medikamenten in den USA an den KI-basierten Chatbot der Microsoft-Suchmaschine Bing. Die Fragen bezogen sich unter anderem auf die korrekte Einnahme, mögliche Nebenwirkungen und Gegenanzeigen.


Mängel in der Genauigkeit und Vollständigkeit


Obwohl der Chatbot viele der Fragen vollständig und präzise beantwortete, gab es auch Fälle, in denen dies nicht zutraf. „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, erklärte Andrikyan.


Fortschritte, aber weiterhin Risiken


Auch wenn es seit der Untersuchung im vergangenen Jahr schnelle Fortschritte bei KI-gestützten Suchmaschinen gegeben hat, reichen diese Verbesserungen laut Andrikyan nicht aus, um die Patientensicherheit vollständig zu gewährleisten. Er schlägt vor, dass die Qualität und Sicherheit weiterer technischer Systeme untersucht werden sollte, da Chatbots mit unterschiedlichen Datensätzen trainiert werden und daher unterschiedliche Ergebnisse liefern können.

bottom of page