Geschrieben von Whitebird am 11.08.2025 um 16:26:
Mann vergiftet sich auf Rat von ChatGPT
Mann vergiftet sich auf Rat von ChatGPT
Wie ein Mann ChatGPT um Ernährungsberatung bat und sich so eine längst in Vergessenheit geratene Krankheit einhandelte.
Mike Faust
11. August 2025, 13:00 Uhr
Dass man sich nicht ungeprüft auf Ratschläge von Chatbots verlassen sollte, kann man offenbar nicht oft genug sagen, wie der Fall eines 60-Jährigen zeigt, den drei Mediziner aufbereitet und in den
Annals of Internal Medicine veröffentlicht haben. Der Mann zog sich Bromismus zu, nachdem er Ernährungsratschläge bei ChatGPT eingeholt hatte.
Er hatte ChatGPT danach gefragt, wie er Natriumchlorid (Kochsalz) ersetzen könne. Laut den Autoren des Fallberichts war Bromismus ein bis in die 1980er-Jahre anerkanntes Krankheitsbild, geriet aber in Vergessenheit, nachdem die Verwendung von Bromidsalzen in Medikamenten streng reguliert worden war.
Mann verdächtigt Nachbar
Dem Bericht nach stellte sich der Mann in der Notaufnahme eines Krankenhauses vor und äußerte die Vermutung, dass sein Nachbar ihn vergifte. Bei einer Blutuntersuchung des sonst körperlich fitten Mannes wurde ein als Anionenlücke bezeichneter Stoffwechselparameter weit außerhalb des Sollbereichs festgestellt.
Der Patient gab außerdem an, dass er sich an verschiedene Ernährungseinschränkungen halte und nur sein eigens Wasser zu Hause trinke. Auf ihm angebotenes Wasser soll er sehr paranoid und ablehnend reagiert haben. Wegen des Verdachts auf eine Schwermetallvergiftung kontaktierten die behandelnden Ärzte die Giftkontrollabteilung, wo der Verdacht auf Bromismus aufkam.
Visuelle und auditive Halluzinationen
In den ersten 24 Stunden nach der Aufnahme soll der Mann noch mit intensiver Paranoia sowie auditiven und visuellen Halluzinationen gekämpft haben, die zu einem Fluchtversuch und einer darauffolgenden psychiatrischen Festnahme führten.
Nach einer Behandlung stabilisierte sich der Zustand des Patienten. Daraufhin konnte er berichten, dass er von den negativen Auswirkungen von Kochsalz auf die Ernährung gelesen hatte. Überrascht habe er festgestellt, dass sich in der Literatur nur Berichte über die Reduzierung von Natrium, nicht aber von Chlorid, fänden.
Um einen Ersatz für Chlorid zu finden, konsultierte er ChatGPT und erhielt die Antwort, dass man Chlorid mit Bromid tauschen könne. Dies gilt laut dem Fallbericht aber nur für bestimmte Anwendungen, zum Beispiel bei Reinigungsmitteln.
Es kommt auf den Kontext an
Die Folgen seiner dreimonatigen Einnahme von Natriumbromid normalisierten sich nach einer dreiwöchigen Behandlung. Die Ärzte stellten eine ähnliche Anfrage an ChatGPT nach und erhielten ebenfalls die Aussage, dass sich Chlorid durch Bromid ersetzen lasse. Die Antwort des Chatbots besagte zwar auch, dass es auf den Kontext ankomme. Eine Gesundheitswarnung wurde allerdings nicht ausgesprochen. Die Autoren weisen nun darauf hin, dass Mediziner immer auch berücksichtigen sollten, woher ihre Patienten Gesundheitsinformationen erhalten.
KI biete zwar viel Potenzial, berge aber auch immer das Risiko, dekontextualisierte Informationen auszugeben und somit Krankheitsbilder zu erzeugen, die längst in Vergessenheit geraten sind. Auch in anderen Berufen erregt die KI mit falschen Informationen Aufsehen.
quelle: golem.de