Europäische KI-Verordnung: Neue Regeln für die Medizin

von Miriam Mirza
Seit August 2024 ist der europäische AI Act in Kraft. Er gilt als weltweit erstes umfassendes Regelwerk für künstliche Intelligenz und bringt weitreichende Konsequenzen für die Medizin. Fast alle klinischen Anwendungen gelten als Hochrisikosysteme und unterliegen damit strengen Auflagen. Ärzte müssen sich fragen, wie sich ihr Alltag dadurch verändert.
Der AI Act markiert einen Meilenstein. Er teilt KI-Systeme in vier Risikoklassen ein, von minimalem über begrenztes bis zu hohem Risiko. Systeme mit unannehmbarem Risiko, etwa manipulative KI oder Social Scoring, sind seit Februar 2025 verboten.
Für die Medizin relevant ist fast ausschließlich die Hochrisiko-Klasse. Hierzu zählen Diagnose-Tools, Systeme zur Therapieplanung oder digitale Anwendungen für das Monitoring. Ab August 2026 greifen die entsprechenden Pflichten: Hersteller müssen technische Dokumentationen vorlegen, Risiko- und Qualitätsmanagement betreiben, eine kontinuierliche Überwachung garantieren und Transparenz sicherstellen. Ärzte, die diese Systeme nutzen, sind gefordert, sich mit CE-Zertifizierung, zulässigen Einsatzbereichen und Dokumentationspflichten auseinanderzusetzen. Die EU will damit Standards setzen, die weltweit Maßstäbe schaffen. Während die USA stärker auf Marktmechanismen und freiwillige Leitlinien setzen und China zentrale Steuerung betreibt, positioniert sich Europa mit einem rechtsverbindlichen Rahmen, der Sicherheit und Ethik betont.
Zahlen die den Alltag greifbar machen
Der AI Act trifft auf eine Realität, in die KI längst Einzug gehalten hat. In der Radiologie sind bereits zahlreiche Systeme im Einsatz. Laut der US-amerikanischen Behörde FDA (Food and Drug Administration) sind bereits 950 KI- bzw. Machine-Learning-gestützte Geräte zugelassen (Stand: 7. August 2024). Über drei Viertel davon betreffen bildgebende Verfahren wie Computertomographie (CT) und Magnetresonanztomographie (MRT), etwa zehn Prozent den kardiovaskulären Bereich. Auch in der EU sind entsprechende Produkte verfügbar: Das Health AI Register listet mindestens 219 CE-zertifizierte KI-Systeme in der Radiologie (Stand: 28. Januar 2025). Darüber hinaus wird KI in weiteren Feldern eingesetzt, etwa in der Orthopädie zur Unterstützung bei der Implantation von Hüft- und Knieprothesen (Publikation 2022), sowie vereinzelt in Neurologie, Ophthalmologie, klinischer Chemie, Mikrobiologie und Pathologie.
Diese Bandbreite verdeutlicht: Ärzte müssen sich zunehmend damit auseinandersetzen, welches System sie nutzen, ob es für die jeweilige Indikation zugelassen ist und wie sie dessen Ergebnisse dokumentieren. Ein Beispiel: Eine KI erkennt Lungenrundherde im CT. Die Software liefert ein Ergebnis, doch die Verantwortung liegt beim Radiologen. Der AI Act macht klar, dass die Verantwortung nicht auf ein System übertragen werden kann.
„Fast alle klinischen Anwendungen gelten als Hochrisikosysteme.“
Was Ärzte konkret beachten müssen
Für Ärzte könnten sich aus dem AI Act mehrere Pflichten ergeben. So dürfte der Einsatz eines KI-Systems künftig nachvollziehbar dokumentiert werden müssen: Welche Software wurde genutzt, welche Daten lagen zugrunde und wie wurde das Ergebnis in die Diagnose einbezogen? Auch die Aufklärung der Patienten könnte stärker in den Fokus rücken. Sie müssten dann erfahren, dass KI eingesetzt wurde – damit das Vertrauen in die ärztliche Entscheidung nicht leidet. Hinzu kommt die Haftung. Fehlerhafte KI-Entscheidungen entbinden nicht von der ärztlichen Verantwortung. Wer eine Diagnose stellt, bleibt auch dann haftbar, wenn die Maschine beteiligt war. Und schließlich entsteht Druck auf Weiterbildung. Der AI Act legt nahe, dass Fachkräfte geschult sein müssen, um Systeme korrekt zu nutzen. Das betrifft sowohl die technischen Grundlagen als auch das Wissen um mögliche Fehlerarten oder Verzerrungen.
Konkrete Pflichten im Praxisalltag
Für niedergelassene Ärzte sind die neuen Vorgaben besonders dort spürbar, wo KI direkt in die tägliche Arbeit einzieht. Schon heute nutzen einige Praxen digitale Systeme mit KI-Funktionen – von der Befunddokumentation über Bildauswertung zu Abrechnungshilfen. Der AI Act verlangt, dass der Einsatz solcher Systeme nachvollziehbar dokumentiert wird. Wird etwa eine Hautscreening-App genutzt, muss klar sein, dass die Software beteiligt war und wie das Ergebnis in die ärztliche Diagnose eingeflossen ist. Auch Patienten sollen wissen, wenn KI im Einsatz ist. Das bedeutet: Aufklärungsgespräche bekommen eine neue Facette.
Ein Beispiel aus der Hausarztpraxis: Ein KI-gestütztes Anamnesetool strukturiert Patientendaten und schlägt mögliche Differenzialdiagnosen vor. Ärzte können diese Vorschläge nutzen, sind aber verpflichtet, sie kritisch zu prüfen. Ein Hinweis im Dokumentationssystem, dass die KI genutzt wurde, könnte künftig Standard werden. Ähnlich sieht es bei administrativen Prozessen aus. Wenn eine Praxissoftware automatisch Kodierungen vorschlägt, müssen diese überprüft und gegebenenfalls korrigiert werden. Hier gilt: Der KI-Vorschlag ist Hilfsmittel, nicht Ersatz für die ärztliche Entscheidung.

Zwischen Recht und Geschwindigkeit
Der AI Act gilt als Vorzeigemodell, doch er verdeutlicht auch ein Grundproblem. KI entwickelt sich in einem Tempo, das kaum in Verordnungen zu fassen ist. Der Vergleich mit einem Pferd, dem man im Galopp neue Hufeisen anlegt, passt: Die Regulierung läuft nebenher und versucht, Schritt zu halten.
Für Ärzte bedeutet das, dass auch in Zukunft nicht jede Situation durch Paragrafen abgesichert sein wird. Es wird immer Lücken geben, in denen klinisches Urteilsvermögen gefordert ist. Das Gesetz schafft Leitplanken, ersetzt aber nicht die ärztliche Entscheidung in der konkreten Situation.
Ethische Leitplanken des Ärztetags
Dass Regulierung allein nicht reicht, betonte der Deutsche Ärztetag im Mai 2025. In ihrem Beschluss „Von ärztlicher Kunst mit Künstlicher Intelligenz“ formulierte die Bundesärztekammer klare Akzente. So heißt es dort: „Diagnostik, Indikationsstellung und Therapie sind stets ärztliche Aufgabe und dürfen nicht an ein KI-System abgetreten werden.“
Die BÄK stellt außerdem klar, dass das Vertrauensverhältnis zwischen Ärzten und ihren Patienten auch beim Einsatz von KI gewahrt bleiben muss. Der Schutz sensibler Gesundheitsdaten sei zwingend, und externe Anbieter hätten die ärztliche Schweigepflicht ebenso zu respektieren wie alle im Gesundheitssystem Tätigen. Darüber hinaus fordert die BÄK in der Stellungnahme „Künstliche Intelligenz in der Medizin“ vom 14. Januar 2025, dass Ärzte Kompetenzen im Umgang mit KI in Aus-, Fort- und Weiterbildung erwerben. „Um Ärztinnen und Ärzte auf den Einsatz von KI vorzubereiten und Verständnis für damit verbundene Risiken und Chancen zu schaffen, ist eine verstärkte Vermittlung digitaler Kompetenzen in der ärztlichen Aus-, Weiter- und Fortbildung von zentraler Bedeutung“, heißt es im Vorwort. Diese Forderung zeigt, dass es nicht nur um Technik geht, sondern um die Fähigkeit, sie kritisch einzuordnen.
Interview: „Künstliche Intelligenz is und bleibt ein Hilfsmittel“
Mit dem EU AI Act steht das Gesundheitswesen vor einer neuen Ära der Regulierung. Was kommt auf niedergelassene Ärzte konkret zu? Prof. Dr. iur. Alexandra Jorzig, Fachanwältin für Medizinrecht, erläutert im Interview die praktischen und rechtlichen Folgen, Chancen und Risiken der KI-Nutzung in Arztpraxen.
KI-Agenten zwischen Patient und Arzt
Eine weitere Herausforderung zeichnet sich bereits ab. KI-Agenten beginnen, sowohl auf Patientenseite als auch in ärztlichen Praxen eine Rolle zu spielen. Patienten nutzen Chatbots oder Apps, die Symptome analysieren und Empfehlungen geben. Damit entsteht eine dritte Stimme im Arztgespräch. Die Gefahr: Patienten vertrauen mehr auf die KI als auf das ärztliche Urteil oder kommen mit vorgefertigten Diagnosen in die Praxis.
Auch Ärzte greifen zunehmend auf Agenten zurück, die Anamnesen strukturieren, Dokumentationen vorbereiten oder Befunde sortieren. Das klingt entlastend, birgt aber Risiken. Was, wenn eine wichtige Information übersehen wird, weil sie nicht korrekt erfasst oder gewichtet wurde? Der Beschluss des Ärztetags erinnert daran, dass Diagnostik, Indikationsstellung und Therapie stets ärztliche Aufgabe sind. Der AI Act adressiert diese Entwicklungen nur am Rande. Er reguliert die Systeme, nicht die Interaktion, die daraus entsteht. Doch gerade dieses Zusammenspiel wird über die nächsten Jahre zu einer der drängendsten Fragen werden, und zwar im juristischen, ethischen und praktischen Sinn.
Wachsamkeit als ärztliche Aufgabe
Mit dem AI Act werden verbindliche Regeln geschaffen, die den Einsatz von KI in der Medizin sicherer machen sollen. Doch kein Paragraf kann verhindern, dass Ärzte selbst in Versuchung geraten, sich unbemerkt auf eine Maschine zu verlassen. Genau hier beginnt die eigentliche Verantwortung: im persönlichen Umgang mit KI im Alltag. Es braucht die bewusste Frage: Treffe ich diese Entscheidung gerade selbst oder folge ich nur dem, was der Algorithmus vorschlägt? Wer diese Reflexion zur Routine macht, bleibt handlungsfähig. Unwissen ist dagegen die größte Gefahr. Wer die Grenzen eines Systems nicht kennt, läuft Gefahr, in sie hineinzutappen. Diese Wachsamkeit lässt sich nicht allein individuell einüben. Sie muss im Team geteilt werden. Mitarbeiter sollten verstehen, wie KI-Systeme arbeiten, welche blinden Flecken sie haben und warum jedes Ergebnis gegengeprüft werden muss. Nur so entsteht eine Kultur, die nicht in den Sog der Technik gerät, sondern sie kritisch nutzt.
Am Ende geht es um Haltung. KI darf Werkzeuge bereitstellen, aber sie darf nie den ärztlichen Kompass ersetzen. Die bewusste Auseinandersetzung ist vielleicht die wichtigste Schutzmaßnahme. Wer sich der Fragen bewusst ist, entwickelt automatisch eine Sensibilität für die Fallen.
Aus- und Weiterbildung
Die Bundesärztekammer hat in ihrem Beschluss betont, dass der Umgang mit KI auch Teil von Aus- und Weiterbildung sein muss. Für niedergelassene Praxen bedeutet das: Sie müssen nicht nur die Technik im Blick behalten, sondern auch die eigene Lernkurve.
Fortbildungen werden künftig verstärkt auf Fragen eingehen müssen wie: Welche Systeme sind CE-zertifiziert? Wie erkenne ich Bias in den Daten? Und wie erkläre ich Patienten verständlich, welche Rolle KI in der Behandlung spielt? Nicht zu unterschätzen ist das Praxispersonal. Medizinische Fachangestellte sind häufig die Ersten, die mit Software und digitalen Abläufen arbeiten. Wenn sie verstehen, wie KI-Systeme funktionieren, können sie Ärzte entlasten und Patienten zugleich besser begleiten. Damit wird klar: KI verlangt nicht nur juristische Klarheit, sondern auch eine neue Kultur des Lernens in den Praxen. Wer die eigene Kompetenz ausbaut, schafft Vertrauen – im Team und bei den Patienten.
Mehr als ein technisches Regelwerk
Der AI Act bringt für das Gesundheitswesen eine neue Ära der Regulierung. Er verpflichtet Hersteller zu mehr Transparenz und Sicherheit, er verschafft Anwendern Orientierung. Für Ärzte bringt er aber auch neue Aufgaben. Sie müssen prüfen, dokumentieren, aufklären und sich fortbilden. Gleichzeitig bleibt klar: Kein Gesetz kann die ärztliche Verantwortung ersetzen. KI kann den Weg weisen, doch sie darf nie die Entscheidung treffen. Die Kunst bleibt, Technik sinnvoll zu nutzen, ohne die Menschlichkeit aus den Augen zu verlieren.
Miriam Mirza
So macht es medatixx
Seit Juli 2025 begleitet der medatixx-Copilot die Nutzer der Praxisprogramme von medatixx. Bis Ende November beantwortete die KI-Assistenz bereits über 44 000 Anfragen – beispielsweise zu Themen wie Patientenstammdaten, Abrechnung, Telematikinfrastruktur oder der ePA. Nur etwa 1 300 Tickets mussten an den Support weitergeleitet
werden, was den hohen Nutzen verdeutlicht. Der medatixx-Copilot liefert Antworten rund um die Uhr und ist ohne Zusatzkosten in der Praxissoftware enthalten. Parallel baut medatixx sein KI-Portfolio aus: Mit x.scribe wird bald ein Tool zur Echtzeit-Transkription von Arzt-Patienten-Gesprächen verfügbar sein. Geplant ist außerdem eine Anbindung an KI-basierte klinische Entscheidungsunterstützungssysteme (CDSS).
Der Artikel erschien erstmals am 18. Dezember 2025 im x.press 26.1.