Ich stimme der Verwendung von Cookies zu. Auch wenn ich diese Website weiter nutze, gilt dies als Zustimmung.

Bitte lesen und akzeptieren Sie die Datenschutzinformation und Cookie-Informationen, damit Sie unser Angebot weiter nutzen können. Natürlich können Sie diese Einwilligung jederzeit widerrufen.





KI-Chatbots versagen bei medizinischen Notfällen ( Finanztrends)

03.03.2026, 3758 Zeichen

Eine neue Studie enthüllt massive Schwächen von KI-Chatbots wie ChatGPT in der Gesundheitsberatung. Die Systeme erkannten mehr als die Hälfte aller getesteten medizinischen Notfälle nicht und gaben teils gefährliche Ratschläge. Die Ergebnisse entfachen die Debatte um Sicherheit und Regulierung neu.

Alarmierende Fehler in kritischen Situationen

Die Untersuchung zeigt: Bei Symptomen eines akuten Asthma-Anfalls oder einer schweren diabetischen Entgleisung rieten die KI-Systeme zu einem Arztbesuch innerhalb von 24 bis 48 Stunden. Den sofortigen Notruf empfahlen sie nicht. Solche Verzögerungen können lebensgefährlich sein.

Auch im sensiblen Bereich der Suizidprävention funktionieren Schutzmechanismen nicht zuverlässig. Warnbanner mit Verweisen auf Krisenhotlines erscheinen nicht immer, obwohl sie sollten.

Anzeige

Während KI-Chatbots bei medizinischen Diagnosen oft versagen, bieten fundierte Labordaten eine verlässliche Grundlage für Ihre Gesundheit. Dieser kostenlose Ratgeber hilft Ihnen dabei, Ihre Blutwerte richtig zu interpretieren und potenzielle Fehldiagnosen zu vermeiden. Gratis-Report: Laborwerte richtig verstehen

Das steht im krassen Gegensatz zur Nutzerzufriedenheit. Rund 93 Prozent der Anwender sind laut Umfragen mit den KI-generierten Gesundheitsinformationen zufrieden. Eine gefährliche Lücke zwischen Wahrnehmung und Realität.

Unregulierte KI als Risiko für die Psyche

Experten warnen seit Langem vor den Gefahren. Allgemeine Sprachmodelle wie ChatGPT sind nicht als Medizinprodukte konzipiert oder zugelassen. Dennoch nutzen sie Menschen zunehmend für therapieähnliche Zwecke.

Besonders problematisch: Vor allem junge und psychisch belastete Menschen können starke emotionale Bindungen zu diesen KI-Charakteren aufbauen. Den Systemen fehlt jedoch das Verständnis für menschliche Emotionen und komplexe psychische Zustände.

Kann ungesteuerte KI-Nutzung sogar kritisches Denken beeinträchtigen? Forscher sehen diese Gefahr, da Informationen oft unreflektiert übernommen werden.

Der Vormarsch der "Schatten-KI"

Trotz der Risiken schreitet die Integration voran. Knapp die Hälfte der Deutschen nutzt regelmäßig oder gelegentlich Chatbots für Gesundheitsfragen. Bei den 18- bis 34-Jährigen sind es über 70 Prozent.

Auch im professionellen Umfeld wächst der Bedarf. Viele Ärzte verwenden bereits private KI-Anwendungen wie ChatGPT für berufliche Recherchen – ein Phänomen, das als "Schatten-KI" bekannt ist. Das wirft datenschutzrechtliche Bedenken auf und unterstreicht den dringenden Bedarf an zertifizierten Lösungen.

Anzeige

Der Einsatz von unregulierter „Schatten-KI“ in Unternehmen birgt nicht nur medizinische, sondern auch massive datenschutzrechtliche Risiken. Erfahren Sie in diesem kostenlosen E-Book, wie neue Gesetze und KI-Regulierungen Ihre IT-Sicherheit beeinflussen und wie Sie Ihr Unternehmen schützen. Cyber Security Trends & KI-Gesetze kostenlos lesen

Weckruf für die digitale Gesundheitsbranche

Die Studienergebnisse verdeutlichen eine klare Notwendigkeit: die Trennung zwischen allgemeinen KI-Anwendungen und geprüften Medizinprodukten. Frei verfügbare Chatbots in der direkten Patientenberatung stellen ein unkalkulierbares Risiko dar.

Kommende Regulierungen wie der EU AI Act werden Hochrisiko-Anwendungen im Gesundheitswesen genauer definieren. Experten plädieren dafür, Chatbots mit therapieähnlichen Funktionen als Medizinprodukte einzustufen und strengen Prüfverfahren zu unterwerfen.

Die Zukunft liegt wahrscheinlich in hybriden Formen. Zertifizierte KI-Systeme werden Mediziner als \"Co-Piloten\" unterstützen – bei der Diagnostik oder durch Übernahme administrativer Aufgaben. Für Verbraucher wird es entscheidend sein, den Unterschied zwischen einem Lifestyle-Chatbot und einer geprüften Gesundheitsanwendung zu verstehen.


(03.03.2026)

BSN Podcasts
Christian Drastil: Wiener Börse Plausch

Wiener Börse Party #1114: ATX schwächer, das komplette Programm des Aktientags morgen und Alles ist jetzt Anders


 

Bildnachweis

1. Trading



Aktien auf dem Radar:Uniqa, Semperit, FACC, EuroTeleSites AG, Telekom Austria, Bawag, ATX NTR, RBI, VIG, voestalpine, Erste Group, DO&CO, CA Immo, Andritz, ATX, Rosgix, Porr, Wienerberger, ATX TR, ATX Prime, Palfinger, BKS Bank Stamm, Oberbank AG Stamm, UBM, Polytec Group, Verbund, Amag, Flughafen Wien, CPI Europe AG, Österreichische Post, Zalando.


Random Partner

Erste Asset Management
Die Erste Asset Management versteht sich als internationaler Vermögensverwalter und Asset Manager mit einer starken Position in Zentral- und Osteuropa. Hinter der Erste Asset Management steht die Finanzkraft der Erste Group Bank AG. Den Kunden wird ein breit gefächertes Spektrum an Investmentfonds und Vermögensverwaltungslösungen geboten.

>> Besuchen Sie 54 weitere Partner auf boerse-social.com/partner


Trading


 Latest Blogs

» Regalprüfer: Deutschlands Lager brauchen zertifizierte Fachkräfte ( Fina...

» Trauma-Workshops werden zum Führungs-Muss ( Finanztrends)

» Nel ASA Aktie: Rekordverlust trifft Auftragsboom ( Finanztrends)

» Eiger BioPharmaceuticals Aktie: Liquidation läuft ( Finanztrends)

» Nickel: Volatilität nimmt zu ( Finanztrends)

» Wolong Real Estate Aktie: Warten auf Impulse ( Finanztrends)

» Immobilienmarkt 2026: Steueranreize treffen Wohnungsmangel ( Finanztrends)

» Gewichtswesten erobern 2026 die Fitnesswelt ( Finanztrends)

» Denise Austins "Ab Zipper" Hack formt die Taille im Stehen ( Finanztrends)

» Outlook Therapeutics Aktie: FDA-Hürde ( Finanztrends)