Die Food and Drug Administration hat am 6. Januar klargestellt, dass sie bestimmte Tools und Wearables mit künstlicher Intelligenz (KI) nicht regulieren wird.
In einem Leitfaden hat die Food and Drug Administration (FDA), Werkzeuge, die zur Unterstützung klinischer Entscheidungen eingesetzt werden von der Aufsicht durch die FDA ausgenommen, beispielsweise solche, die nicht zur Analyse medizinischer Bilder bestimmt sind.
In einem zweiten Dokument: Es regelt keine „Produkte mit geringem Risiko, die einen gesunden Lebensstil fördern“, darunter „allgemeine Wellness-Produkte mit geringem Risiko“ wie Trainingsgeräte und Softwareprogramme.
Offiziell begründet die Behörde diesen Schritt mit Innovationsförderung. In neuen Leitlinien erklärte die FDA, dass sie bei vielen digitalen Entscheidungshilfen „als Regulierungsbehörde aus dem Weg gehen“ müsse. Produkte, die keine medizinischen Bilder analysieren oder keine klinischen Diagnosen stellen, fielen demnach oft nicht unter ihre Aufsicht. Auch KI-Tools, die lediglich Informationen bereitstellen, sollen unbehelligt bleiben.
FDA-Kommissar Marty Makary formulierte die Linie ungewöhnlich offen: Man wolle künstliche Intelligenz fördern, nicht bremsen. Wenn ein Tool wie ChatGPT oder eine Suchmaschine lediglich Informationen liefere, sei es nicht Aufgabe der FDA, einzugreifen oder Inhalte zu „zensieren“. Auf Sicherheitsbedenken angesprochen, sagte Makary wörtlich: „Wir glauben nicht an Zensur.“
Die Grenze zieht die Behörde dort, wo Produkte ausdrücklich medizinische Qualität beanspruchen – etwa bei klinisch validen Messungen oder Therapieempfehlungen. Screening-Instrumente, Schätzungen physiologischer Werte oder Lifestyle-Analysen hingegen sollen frei bleiben, selbst wenn sie von Nutzern faktisch zur Gesundheitsentscheidung herangezogen werden.
Biometrische Daten ohne Aufsicht
Kritiker sehen darin ein erhebliches Risiko. Viele dieser Wearables und KI-Tools sammeln kontinuierlich hochsensible biometrische Daten – Herzfrequenz, Schlafmuster, Bewegungsprofile, Stressindikatoren – und speichern sie in zentralen Datenbanken. Genau hier setzt die Kritik an: Während klassische Medizinprodukte streng reguliert sind, entsteht parallel ein kaum kontrollierter Datenmarkt, der sowohl für Tech-Konzerne als auch für staatliche Stellen hochattraktiv ist.
Die offizielle Lesart lautet: geringe Gefahr, hoher Nutzen. Die inoffizielle Folge könnte jedoch sein, dass sich ein umfassendes Ökosystem der Gesundheitsüberwachung etabliert, ohne klare Zuständigkeiten, Transparenz oder Haftung.
Politischer Rückenwind für Wearables
Zusätzliche Brisanz erhält die FDA-Position durch die politische Großwetterlage in Washington. Gesundheitsminister Robert F. Kennedy Jr. hat sich wiederholt für den flächendeckenden Einsatz von Wearables ausgesprochen. Seine Vision: Innerhalb weniger Jahre solle jeder US-Bürger ein solches Gerät tragen, um Krankheiten frühzeitig zu erkennen und Gesundheitskosten zu senken.
Kennedy argumentiert wirtschaftlich: Ein günstiges Wearable könne teure Medikamente ersetzen und die Bevölkerung insgesamt gesünder machen. Kritiker hingegen verweisen auf Interessenkonflikte – insbesondere, da prominente Akteure der aktuellen Regierung in Unternehmen investieren, die genau solche KI-gestützten Wearables entwickeln.
Innovation oder Kontrollverlust?
Die FDA betont, sie wolle Innovation ermöglichen und gleichzeitig vor „großen Sicherheitsbedenken“ schützen. Doch die aktuelle Linie bedeutet faktisch: Je weniger ein Produkt offiziell als Medizin gilt, desto weniger wird es überwacht – selbst wenn es tief in das Gesundheits- und Alltagsverhalten von Millionen Menschen eingreift.
Damit verschiebt sich die Grenze zwischen Medizin, Technologie und Überwachung weiter. Was früher ärztlicher Diagnostik unterlag, wird zunehmend zu einer privaten Datenangelegenheit – gesammelt von Konzernen, ausgewertet von Algorithmen und politisch ausdrücklich gewollt.
Die entscheidende Frage bleibt offen: Wer kontrolliert die Kontrolleure, wenn Gesundheitsüberwachung zur Wellness erklärt wird – und Regulierung zur freiwilligen Option?