purzelbaum
unsere besten emails

Satclub-Thueringen

RSS feed for this site
Registrierung Suche Zur Startseite

Satclub-Thueringen » Allgemeines » Off - Topic » Mann vergiftet sich auf Rat von ChatGPT » Hallo Gast [[Anmelden]|Registrieren]
Letzter Beitrag | Erster ungelesener Beitrag Druckvorschau | An Freund senden | Thema zu Favoriten hinzufügen
Neues Thema erstellen Antwort erstellen
Zum Ende der Seite springen Mann vergiftet sich auf Rat von ChatGPT
Autor
Beitrag « Vorheriges Thema | Nächstes Thema »

Whitebird   Zeige Whitebird auf Karte Whitebird ist männlich Steckbrief
Moderator


images/avatars/avatar-299.gif

Dabei seit: 31.03.2009
Beiträge: 3.382
Herkunft: Aus dem Nichts, Nordsee/Ecke Ossiland!!!




Zunge raus! Mann vergiftet sich auf Rat von ChatGPT Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden       Zum Anfang der Seite springen

Mann vergiftet sich auf Rat von ChatGPT
Wie ein Mann ChatGPT um Ernährungsberatung bat und sich so eine längst in Vergessenheit geratene Krankheit einhandelte.

Mike Faust
11. August 2025, 13:00 Uhr


Dass man sich nicht ungeprüft auf Ratschläge von Chatbots verlassen sollte, kann man offenbar nicht oft genug sagen, wie der Fall eines 60-Jährigen zeigt, den drei Mediziner aufbereitet und in den Annals of Internal Medicine veröffentlicht haben. Der Mann zog sich Bromismus zu, nachdem er Ernährungsratschläge bei ChatGPT eingeholt hatte.

Er hatte ChatGPT danach gefragt, wie er Natriumchlorid (Kochsalz) ersetzen könne. Laut den Autoren des Fallberichts war Bromismus ein bis in die 1980er-Jahre anerkanntes Krankheitsbild, geriet aber in Vergessenheit, nachdem die Verwendung von Bromidsalzen in Medikamenten streng reguliert worden war.


Mann verdächtigt Nachbar

Dem Bericht nach stellte sich der Mann in der Notaufnahme eines Krankenhauses vor und äußerte die Vermutung, dass sein Nachbar ihn vergifte. Bei einer Blutuntersuchung des sonst körperlich fitten Mannes wurde ein als Anionenlücke bezeichneter Stoffwechselparameter weit außerhalb des Sollbereichs festgestellt.

Der Patient gab außerdem an, dass er sich an verschiedene Ernährungseinschränkungen halte und nur sein eigens Wasser zu Hause trinke. Auf ihm angebotenes Wasser soll er sehr paranoid und ablehnend reagiert haben. Wegen des Verdachts auf eine Schwermetallvergiftung kontaktierten die behandelnden Ärzte die Giftkontrollabteilung, wo der Verdacht auf Bromismus aufkam.


Visuelle und auditive Halluzinationen

In den ersten 24 Stunden nach der Aufnahme soll der Mann noch mit intensiver Paranoia sowie auditiven und visuellen Halluzinationen gekämpft haben, die zu einem Fluchtversuch und einer darauffolgenden psychiatrischen Festnahme führten.

Nach einer Behandlung stabilisierte sich der Zustand des Patienten. Daraufhin konnte er berichten, dass er von den negativen Auswirkungen von Kochsalz auf die Ernährung gelesen hatte. Überrascht habe er festgestellt, dass sich in der Literatur nur Berichte über die Reduzierung von Natrium, nicht aber von Chlorid, fänden.

Um einen Ersatz für Chlorid zu finden, konsultierte er ChatGPT und erhielt die Antwort, dass man Chlorid mit Bromid tauschen könne. Dies gilt laut dem Fallbericht aber nur für bestimmte Anwendungen, zum Beispiel bei Reinigungsmitteln.


Es kommt auf den Kontext an

Die Folgen seiner dreimonatigen Einnahme von Natriumbromid normalisierten sich nach einer dreiwöchigen Behandlung. Die Ärzte stellten eine ähnliche Anfrage an ChatGPT nach und erhielten ebenfalls die Aussage, dass sich Chlorid durch Bromid ersetzen lasse. Die Antwort des Chatbots besagte zwar auch, dass es auf den Kontext ankomme. Eine Gesundheitswarnung wurde allerdings nicht ausgesprochen. Die Autoren weisen nun darauf hin, dass Mediziner immer auch berücksichtigen sollten, woher ihre Patienten Gesundheitsinformationen erhalten.

KI biete zwar viel Potenzial, berge aber auch immer das Risiko, dekontextualisierte Informationen auszugeben und somit Krankheitsbilder zu erzeugen, die längst in Vergessenheit geraten sind. Auch in anderen Berufen erregt die KI mit falschen Informationen Aufsehen.

quelle: golem.de

__________________
Der frühe Vogel trinkt 'n Korn??? verwirrt


Grüße von Whitebird
11.08.2025 16:26 Whitebird ist online E-Mail an Whitebird senden Beiträge von Whitebird suchen Nehmen Sie Whitebird in Ihre Freundesliste auf Fügen Sie Whitebird in Ihre Kontaktliste ein

Neues Thema erstellen Antwort erstellen
Satclub-Thueringen » Allgemeines » Off - Topic » Mann vergiftet sich auf Rat von ChatGPT Baumstruktur | Brettstruktur

Views heute: 12.270 | Views gestern: 226.439 | Views gesamt: 386.915.962


Satclub Thüringen seit 01.07.1992 = Online seit Tage

  Forensoftware: Burning Board 2.3.6, entwickelt von WoltLab GmbH .: Impressum :.