Zum Inhalt springen

Trump-Executive Order versucht, staatliche AI-Regulierungen im Gesundheitswesen zu blockieren – Experten warnen vor Machtmissbrauch

In einem am 11. Februar 2026 in JAMA veröffentlichten Viewpoint analysieren Rechtsexperten um Carmel Shachar (Harvard Law School), David Blumenthal und I. Glenn Cohen die weitreichenden Implikationen des von Präsident Trump am 11. Dezember 2025 unterzeichneten Executive Order (EO) zu Künstlicher Intelligenz. Das EO zielt darauf ab, US-Unternehmen von „übermäßiger Regulierung“ zu befreien und versucht, bundesstaatliche AI-Gesetze – einschließlich solcher im Gesundheitsbereich – durch Präemption weitgehend außer Kraft zu setzen.

Kerninhalt des Executive Order
Der EO weist mehrere Bundesbehörden (u. a. FCC, FTC, Department of Commerce, Justizministerium) an, staatliche AI-Regulierungen aktiv zu unterlaufen:

  • Identifikation und gerichtliche Anfechtung „übermäßig belastender“ Landesgesetze
  • Empfehlungen zur Präemption
  • Ausschluss von Bundesmitteln (z. B. Broadband Equity Access and Deployment Program) für Staaten mit „onerous“ AI-Regeln

Ziel ist laut EO die Förderung nationaler AI-Führerschaft durch Minimierung regulatorischer Hürden – ohne dass ein umfassendes föderales Regelwerk geschaffen wird.

Aktueller Stand staatlicher Regulierung im Gesundheitsbereich
2025 haben fast alle US-Bundesstaaten AI-Gesetze eingeführt oder verabschiedet, viele davon betreffen medizinische Anwendungen:

  • Kalifornien (AB 489): Verbot, AI-gestützte Versorgung als menschlich erbracht darzustellen.
  • Colorado (SB 24-05): Transparenz-, Risiko- und Diskriminierungsschutzpflichten für „high-risk AI“-Systeme – explizit inklusive Gesundheitsentscheidungen.

Diese Gesetze zielen primär auf Patientenschutz, Transparenz und Vermeidung algorithmischer Diskriminierung ab.

Rechtliche Bewertung
Die Autoren halten den Präemptionsansatz des EO für verfassungsrechtlich hochproblematisch:

  • Präemption erfordert nach der Supremacy Clause grundsätzlich ein Gesetz des Kongresses – ein EO allein kann Staaten nicht binden.
  • Der Präsident überschreitet seine Kompetenzen, indem er Kongress- und Ausgabenhoheit (Commerce Clause, Spending Power) usurpiert.
  • Staaten werden voraussichtlich klagen; die EO-Strategie verletzt die Gewaltenteilung und das Föderalismusprinzip.

Selbst bei Überleben des EO bleibt unklar, ob Behörden tatsächlich staatliche Gesetze wirksam blockieren können, ohne kongressionale Autorisierung.

Vor- und Nachteile von Präemption vs. staatlicher Experimentierfreude
Die Autoren erkennen an: Ein einheitliches föderales Regelwerk könnte Unsicherheit und Innovationshemmnisse durch 50 unterschiedliche Regelwerke vermeiden. Gleichzeitig warnen sie vor „Overpreemption“:

  • Staaten als „Laboratorien der Demokratie“ (Brandeis) haben in der Gesundheitsregulierung oft Pionierrollen übernommen (z. B. Datenschutz, Arzneimittelpreise).
  • Beispiele für fehlgeschlagene oder unvollständige Präemption: Telemedizin-Lizenzierung (staatliche Hürden bleiben), ERISA-Präemption (keine effektive Bundesregulierung von Einzelversicherern).

Ein kompletter regulatorischer Stillstand durch Präemption ohne Ersatz wäre riskant – gerade bei dynamischen Technologien wie generativer AI in der Medizin.

Einschätzung
Der EO markiert einen radikalen deregulatorischen Schwenk: Statt eines ausbalancierten föderalen Rahmens für medizinische AI (Lizenzierung, Haftung, Transparenz, Minderjährigenschutz, Bias-Management) wird primär Deregulierung priorisiert. Das birgt Risiken für Patientenschutz, insbesondere bei vulnerablen Gruppen und algorithmischer Diskriminierung.

Wahrscheinliche Folgen:

  • Gerichtliche Auseinandersetzungen mit hoher Erfolgsaussicht für die klagenden Staaten.
  • Verzögerung oder Verhinderung patientenorientierter Landesinitiativen.
  • Dringender Handlungsbedarf des Kongresses für eine ausgewogene, zukunftsfähige medizinische AI-Regulierung – statt Deregulierung per Dekret.

Die Autoren plädieren für einen kooperativen Föderalismus: Kongress sollte klare Leitlinien setzen, Staaten aber Spielraum für Innovation und Patientenschutz lassen.

Quelle
Shachar C, Blumenthal D, Cohen IG et al. Preemption at the Intersection of Health Care and Artificial Intelligence. JAMA. Published online February 11, 2026. doi:10.1001/jama.2026.0061

Autoren-Avatar
LabNews.AI
The Editors in Chief of labnews.ai are Marita Vollborn and Vlad Georgescu. They are bestselling authors, science writers and science journalists.More details on X-Press Journalistenbüro GbRFind out more abot their books on Bestsellerwerkstatt.More Info on Wikipedia:https://de.wikipedia.org/wiki/Marita_Vollbornhttps://de.wikipedia.org/wiki/Vlad_Georgescu