AI News
Meta Muse Spark fordert Gesundheitsdaten von Nutzern und liefert fragwürdige Medizin-Ratschläge
Metas neues KI-Modell Muse Spark fordert Nutzer aktiv zur Übertragung von Laborbefunden und Gesundheitsdaten auf, birgt aber erhebliche Datenschutzrisiken und medizinische Ungenauigkeiten.
Quelle und Methodik
Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Wired .
Aktive Aufforderung zur Datenübertragung wirft Fragen auf
Muse Spark fordert Nutzer direkt auf: "Fügen Sie Ihre Zahlen von einem Fitness-Tracker, Glukose-Monitor oder Laborbericht ein. Ich berechne Trends, erkenne Muster und visualisiere sie." Diese proaktive Anfrage nach sensiblen Gesundheitsdaten unterscheidet sich von anderen KI-Anbietern, die solche Funktionen meist weniger prominent bewerben.
Die Tests von Wired zeigen, dass das System Nutzer ermutigt, "rohe Daten" wie klinische Laborberichte hochzuladen. Meta gibt an, mit über 1.000 Ärzten bei der Erstellung der Trainingsdaten zusammengearbeitet zu haben, doch Experten sehen die Datenschutzrisiken kritisch.
HIPAA-Compliance fehlt bei sensiblen Daten
Ein zentrales Problem liegt in der fehlenden HIPAA-Compliance von Muse Spark. Monica Agrawal, Assistenzprofessorin an der Duke University und Mitgründerin von Layer Health, warnt vor der Nutzung: "Die Verwendung dieser Modelle kann sehr problematisch sein. Je mehr Informationen Sie preisgeben, desto mehr Kontext hat das System über Sie, aber auf der anderen Seite bestehen erhebliche Datenschutzbedenken."
Laut Metas Datenschutzrichtlinie werden alle geteilten Informationen möglicherweise gespeichert und für das Training zukünftiger KI-Modelle verwendet. Das Unternehmen behält sich auch vor, Werbeanzeigen basierend auf den Interaktionen mit den KI-Funktionen anzupassen.
Gefährliche medizinische Ratschläge in Praxistests
Die praktischen Tests offenbaren weitere Probleme: Als Wired das System zu extremen Diätplänen drängte, erstellte Muse Spark trotz Warnhinweisen einen Ernährungsplan mit nur 500 Kalorien pro Tag über mehrere Tage - ein Niveau, das zu Mangelernährung führen kann. Gauri Agarwal, Medizinprofessorin an der University of Miami, warnt: "Diese Chatbots erlauben es jetzt, biometrische Daten zu verbinden und eigene Laborinformationen einzugeben, und ehrlich gesagt macht mich das ziemlich nervös."
Kenneth Goodman von der University of Miami betont die Gefahr der Delegation der wichtigen persönlichen Arzt-Patient-Beziehung an einen Roboter ohne entsprechende Sorgfaltsprüfung.
Marktkontext und regulatorische Herausforderungen
Muse Spark steht nicht allein: OpenAIs ChatGPT und Anthropics Claude bieten ähnliche Gesundheitsfunktionen, Claude ermöglicht sogar die direkte Verbindung mit Apple oder Android Gesundheitsdaten. Für europäische Unternehmen und Teams, die unter der DSGVO operieren, verschärfen sich die Compliance-Anforderungen bei der Nutzung solcher Systeme zusätzlich.
Meta plant die Integration von Muse Spark in Facebook, Instagram und WhatsApp in den kommenden Wochen, was Millionen von Nutzern Zugang zu den umstrittenen Gesundheitsfunktionen geben wird. Unternehmen sollten klare Richtlinien für den Umgang mit solchen Tools entwickeln, insbesondere wenn Mitarbeiter möglicherweise sensitive Daten über Plattformen teilen, die nicht den medizinischen Datenschutzstandards entsprechen.
Die Entwicklung unterstreicht die Notwendigkeit strengerer Regulierung und Zertifizierungsverfahren für KI-Systeme im Gesundheitswesen, bevor diese für die breite Öffentlichkeit verfügbar gemacht werden. Diese Analyse basiert auf einem Bericht von Wired.
KI-News Updates
KI-News direkt ins Postfach
Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.
Weitere Nachrichten
Weitere aktuelle Artikel, die Sie interessieren könnten.
Chat with 100+ AI Models in one App.
Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.