Magazin der

Logo Johanniter Unfallhilfe

KI-Chat­bots für Gesund­heits­fra­gen nut­zen: Was du beach­ten musst

KI-Chatbots, Symptomchecker, Diagnose-Apps – „Doktor KI” in Gesundheitsfragen und Stressmomenten zu konsultieren, ist heute weit verbreitet. Neben generativen KI-Systemen gibt es heute spezielle medizinische Expert:innen-Systeme. Auch wenn eine KI am Ende keine Ärztin und keinen Arzt ersetzen kann, stellt sich die Frage, wie vertrauenswürdig Künstliche Intelligenz bei Gesundheitsfragen ist. Wir schauen auf die Wissenschaft und geben Tipps, was du bei der Nutzung von KI bei Gesundheitsthemen unbedingt beachten musst.

Person sitzt in einem Praxiszimmer und wird von einem KI-Roboter in Gesundheitsfragen beraten.

Foto: Gemini

Online-Diagnose: Von Dr. Google zu Dr. KI

Mal ehrlich: Warst du schon mal gestresst von körperlichen Empfindungen, die du nicht zuordnen konntest und hast deshalb Symptome gegoogelt? Ja! – Keine Sorge, Millionen Menschen waren schon einmal bei „Dr. Google”. Heutzutage ist seine Praxis aber häufig leer, denn KI-Chatbots wie ChatGPT, Google Gemini, Copilot oder Claude laufen der klassischen Suche den Rang ab – auch bei Gesundheitsfragen.

Das ist nicht verwunderlich, generieren die KI-Systeme doch direkte Antworten auf Fragen und Arbeitsaufträge (Prompts), statt hunderte Links zu liefern, wie es die Suchmaschinen tun. Außerdem können Nutzerinnen und Nutzer mit den KIs zu Gesundheitsfragen chatten, Rückfragen stellen, sich Fachbegriffe oder Befunde erklären lassen und vieles mehr.

Dass „Dr. KI” sehr beliebt ist, zeigen auch aktuelle Zahlen.

 

  • Über 40  Millionen Menschen nutzen ChatGPT täglich für Gesundheitsratschläge, schätzt der Hersteller OpenAI.

 

  • 45 Prozent der Deutschen nutzen laut Bitkom e.V. KI-Chatbots für Fragen zu Gesundheitsthemen und Symptomen.

 

  • 50 Prozent geben laut Bitkom e.V an, ihre Symptome durch den Chatbot besser zu verstehen als durch eine herkömmliche Internetsuche (z. B. via Google).

Foto: Unsplash

Unterschied: Generative KI und medizinische Expertensysteme

 

Geht es um Gesundheitsfragen, ist nicht jede KI gleich. Es gibt kommerzielle, generative KI-Anwendungen wie ChatGPT, Google Gemini, Copilot oder Claude AI. Sie können für Gesundheitsfragen genutzt werden, sind aber nicht darauf begrenzt.

Auf der anderen Seite gibt es mittlerweile medizinische Expertensysteme, die gezielt für Gesundheitsfragen entwickelt wurden. Dazu gehören etwa Ada Health oder Buoy Health. Für Nutzerinnen und Nutzer ist es hilfreich, die Unterschiede der Systemarten zu kennen.

 

Generative KI (z. B. ChatGPT)

  • Funktionsweise: Vorhersage von Wortfolgen (Sprachmodell)
  • Datenbasis: Das gesamte Internet (gefiltert)
  • Stärke: Erklären, zusammenfassen, übersetzen.
  • Zertifizierung: Meist keine Zulassung als Medizinprodukt vorhanden.
  • Klassischer Anwendungsfall: „Erkläre mir diesen Arztbrief.”

 

Medizinische Expertensysteme (z. B. KI-Diagnose-App Ada Health)

  • Funktionsweise: Berechnung von Wahrscheinlichkeiten (Wissensgraph)
  • Datenbasis: Kuratiertes medizinisches Wissen
  • Stärke: Diagnose-Unterstützung, erste Anamnese, Handlungsempfehlungen
  • Zertifizierung: Sind oft gemäß der europäischen Medizinprodukte-Verordnung zugelassen – der Medical Device Regulation (MDR).
  • Klassischer Anwendungsfall: „Was bedeuten meine Bauchschmerzen?”

Unterschied: Generative KI und medizinische Expertensysteme

 

Geht es um Gesundheitsfragen, ist nicht jede KI gleich. Es gibt kommerzielle, generative KI-Anwendungen wie ChatGPT, Google Gemini, Copilot oder Claude AI. Sie können für Gesundheitsfragen genutzt werden, sind aber nicht darauf begrenzt.

Auf der anderen Seite gibt es mittlerweile medizinische Expertensysteme, die gezielt für Gesundheitsfragen entwickelt wurden. Dazu gehören etwa Ada Health oder Buoy Health. Für Nutzerinnen und Nutzer ist es hilfreich, die Unterschiede der Systemarten zu kennen.

 

Generative KI (z. B. ChatGPT)

  • Funktionsweise: Vorhersage von Wortfolgen (Sprachmodell)
  • Datenbasis: Das gesamte Internet (gefiltert)
  • Stärke: Erklären, zusammenfassen, übersetzen.
  • Zertifizierung: Meist keine Zulassung als Medizinprodukt vorhanden.
  • Klassischer Anwendungsfall: „Erkläre mir diesen Arztbrief.”

 

Medizinische Expertensysteme (z. B. KI-Diagnose-App Ada Health)

  • Funktionsweise: Berechnung von Wahrscheinlichkeiten (Wissensgraph)
  • Datenbasis: Kuratiertes medizinisches Wissen
  • Stärke: Diagnose-Unterstützung, erste Anamnese, Handlungsempfehlungen
  • Zertifizierung: Sind oft gemäß der europäischen Medizinprodukte-Verordnung zugelassen – der Medical Device Regulation (MDR).
  • Klassischer Anwendungsfall: „Was bedeuten meine Bauchschmerzen?”

Foto: Unsplash

Vertrauenswürdigkeit von KI als Symptomchecker

Welche KI man auch nutzt, sie soll vor allem eines: Weiterhelfen und fundiert beraten. Sieht man sich die Umfragen an, scheint das gut zu funktionieren: 55 Prozent der Menschen vertrauen laut Bitkom e.V den Antworten der KI-Chatbots. Für 30 Prozent ist deren Rat fast so wertvoll wie eine ärztliche Zweitmeinung. Und: Eine kleine Gruppe (16 Prozent) ignorierte sogar schon einmal eine ärztliche Empfehlung. Sie vertrauten den Informationen vom „KI-Arzt” mehr. Doch wie vertrauenswürdig sind KI-Chatbots wirklich? Sprich: Kann KI Gesundheit? 

 

Das spricht dagegen

Die Western University in Kanada hat analysiert, ob ChatGPT Diagnosen stellen kann. Das Fazit der Forschenden: ChatGPT ist in seiner aktuellen Form als Diagnosewerkzeug nicht genau genug. Der Chatbot liefere trotz der riesigen Datenmenge, mit denen er trainiert wurde, nicht unbedingt korrekte Ergebnisse. Zudem habe der Chatbot Probleme damit, Laborwerte oder Bildgebungsergebnisse zu interpretieren.

 

Die Studie schneidet hier einen wichtigen Punkt an: Ein KI-Chatbot ist nur so gut wie die Daten, die er für seine Antworten nutzt. Generative KI-Systeme, die das gesamte Internet durchforsten, laufen Gefahr, veraltete Daten oder widersprüchliche Antworten auszugeben. Zudem besteht das Risiko, dass sie halluzinieren, Fakten also einfach erfinden.

 

Auch die Geschäftsinteressen der KI-Anbieter sollte man nicht vergessen: Sie wollen Nutzerinnen und Nutzer lange im Gespräch und auf ihren Plattformen halten. Das oberste Ziel ist daher, Menschen glücklich zu machen. Das führt laut Fachleuten dazu, dass KI-Chatbots wie ChatGPT eher beruhigen wollen – und ernste Krankheiten nicht als solche wahrnehmen, heißt es im Podcast „ZEIT Wissen”.

 

Besonders Fehlinformationen können im schlimmsten Fall lebensbedrohlich werden. Bei der Beratung von Notfallpatienten wiesen KI-Chatbots in einer Studie der University of California erhebliche Mängel auf. Informationen darüber, wann eine dringende oder notfallmäßige Behandlung erforderlich ist, waren häufig unvollständig und ungenau. Dass sie möglicherweise Fehlinformationen erhalten, war den Patienten nicht bewusst. Patientinnen und Patienten, die KI zur Entscheidungsfindung im Gesundheitswesen nutzen, gehen potenzielle Risiken ein, so das Fazit der Studie.

 

Das spricht dafür

Die Stiftung Gesundheitswissen schreibt, dass ChatGPT Gesundheitsfragen durchaus korrekt und vertrauenswürdig beantwortet. Zudem würden Studien zeigen, dass Antworten von ChatGPT oft als „empathischer“ empfunden werden als die mancher Ärzt:innen.

 

Forschende der Western University in Kanada kamen zu dem Schluss, dass ChatGPT gute Ergebnisse liefert, wenn es darum geht, sinnvolle nächste Diagnoseschritte vorzuschlagen. Zudem formulierte der KI-Chatbot seine Antworten leicht verständlich. Das kann Nutzerinnen und Nutzern helfen, komplexe medizinische Themen besser zu verstehen.

Smartphone-Bildschirm zeigt KI-Apps wie ChatGPT, Claude, Gemini oder Claude.

Tipps: Worauf man bei der KI-Nutzung achten sollte

KI-Chatbots zu Gesundheitsthemen zu befragen, ist an sich nicht problematisch. Es zählt, wie man mit den Antworten umgeht. Unsere Tipps können dir dabei helfen:

 

  • Gut prompten: Die Qualität von KI-Antworten hängt stark davon ab, wie gut du deine Frage formulierst. Je genauer du deine Frage stellst, desto besser kann die KI damit arbeiten Frage zum Beispiel nicht nur „Was tun bei Kopfschmerz?”. Gib Kontext mit.
    • Besser: „Ich bin männlich, 50 Jahre alt, nehme Blutdrucksenker und habe seit drei Tagen morgendliche Kopfschmerzen. Welche Fragen sollte ich meiner Ärztin stellen?"

 

  • Kritisch lesen: Klingt die Antwort der KI logisch? Gibt es Widersprüche? Ist die Argumentation der KI über den Chatverlauf hinweg stringent?

 

  • Quellen fordern: Lass dir Studien oder Quellen nennen und prüfe, ob sie wirklich existieren und die Informationen enthalten, die die KI genannt hat.

 

  • Nachhaken: Fordere die KI auf, ihre Antwort selbst zu beurteilen. Wie hoch ist die Wahrscheinlichkeit, dass sie zutrifft? Wo liegen mögliche Fehler?

 

  • Vergleichen: Gleiche die Antworten der KI mit anderen vertrauenswürdigen, aktuellen Quellen ab – etwa medizinischen Artikeln, offiziellen Gesundheitsinformationen oder wissenschaftlichen Studien.

 

  • Fachpersonal als höchste Instanz: Vertraue bei Gesundheitsfragen niemals blind der KI. Suche im Zweifel immer deinen Arzt oder deine Ärztin auf – besonders in Notfällen!

KI-Chatbots: Kein Arztersatz, aber Chance für die Medizin

 

Die KI kann einen Arzt nicht ersetzen. Experten der TU Dresden und des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) betonen im Bundesgesundheitsblatt, dass KI-Systeme auf absehbare Zeit nicht autonom über Diagnosen und Behandlungen entscheiden können. Die Verantwortung für medizinische Entscheidungen müsse bei der Ärztin oder dem Arzt liegen – also beim Menschen. Die KI diene als Assistenzsystem, nicht als unfehlbare Autorität. Die Expert:innen warnen davor, sich blind auf die KI zu verlassen, ohne die Ergebnisse kritisch zu hinterfragen. Die Kompetenz, digitale Produkte und KI-Systeme kritisch bewerten zu können, wird zunehmend wichtiger werden.

Trotzdem wird das Themenfeld KI Gesundheit künftig relevanter werden. Die KI-Systeme entwickeln sich stetig weiter und liefern immer präzisere Antworten. Je besser die Trainingsdaten werden, desto besser werden sie Gesundheitsfragen künftig beantworten können. Die Hersteller arbeiten schon daran. So hat OpenAI in den USA bereits ChatGPT for Healthcare eingeführt – eine KI, die der Hersteller gemeinsam mit Expert:innen für Gesundheitseinrichtungen entwickelt hat. Viele Forschende sehen in KI-Chatbots durchaus großes Potenzial für die Medizin der Zukunft – für Krankenhäuser und medizinische Fachkräfte, aber auch für Patient:innen.

KI-Chatbots: Kein Arztersatz, aber Chance für die Medizin

 

Die KI kann einen Arzt nicht ersetzen. Experten der TU Dresden und des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) betonen im Bundesgesundheitsblatt, dass KI-Systeme auf absehbare Zeit nicht autonom über Diagnosen und Behandlungen entscheiden können. Die Verantwortung für medizinische Entscheidungen müsse bei der Ärztin oder dem Arzt liegen – also beim Menschen. Die KI diene als Assistenzsystem, nicht als unfehlbare Autorität. Die Expert:innen warnen davor, sich blind auf die KI zu verlassen, ohne die Ergebnisse kritisch zu hinterfragen. Die Kompetenz, digitale Produkte und KI-Systeme kritisch bewerten zu können, wird zunehmend wichtiger werden.

Trotzdem wird das Themenfeld KI Gesundheit künftig relevanter werden. Die KI-Systeme entwickeln sich stetig weiter und liefern immer präzisere Antworten. Je besser die Trainingsdaten werden, desto besser werden sie Gesundheitsfragen künftig beantworten können. Die Hersteller arbeiten schon daran. So hat OpenAI in den USA bereits ChatGPT for Healthcare eingeführt – eine KI, die der Hersteller gemeinsam mit Expert:innen für Gesundheitseinrichtungen entwickelt hat. Viele Forschende sehen in KI-Chatbots durchaus großes Potenzial für die Medizin der Zukunft – für Krankenhäuser und medizinische Fachkräfte, aber auch für Patient:innen.

KI bei der Johannitern

Auch die Johanniter beschäftigen sich intensiv damit, wie KI im Gesundheitswesen eingesetzt werden kann. Große Potenziale bietet etwa der Bereich Ambient Assisted Living (AAL), insbesondere die KI-Sensorik. Durch KI-gestützte Inaktivitäts- und Sturzerkennung kann sich der klassische Hausnotruf-Knopf immer mehr zum intelligenten Aufpasser entwickeln. Das Johanniterhaus Bremen setzt etwa Livy Care ein – eine intelligente Sensorstation, die wie ein Brandmelder an der Decke von Pflegezimmern installiert wird. Das KI-System erkennt, ob pflegebedürftige Personen stürzen oder um Hilfe rufen. Mitarbeitenden erhalten einen Alarm per Telefon, Smartphone oder Desktop-PC.

 

Auch für die Pflegedokumentation ist KI spannend. Pflegekräfte füllen täglich eine Vielzahl an Unterlagen aus: Pflegeberichte, Vitalwerte, Bewegungsprotokolle und vieles mehr. Deshalb testete die Johanniter-eigene Akkon Hochschule für Humanwissenschaften 2025 gemeinsam mit der Johanniter Seniorenhäuser GmbH die App „VOIZE“. Pflegekräfte können die Informationen frei am Smartphone einsprechen. Die App erstellt automatisch die Dokumente und überträgt sie per Schnittstelle in das jeweilige Dokumentationssystem. Damit wurde untersucht, inwieweit die App die Dokumentation für Pflegekräfte erleichtern und mehr Zeit für die Pflege schaffen kann.