Europäische KI-Verordnung: Neue Regeln für die Medizin

Der Einsatz von Künstlicher Intelligenz (KI) im Gesundheitswesen wird die Arbeitsweise der Ärzte verändern. Die europäische KI-Verordnung (AI Act) bildet dabei den rechtlichen Rahmen. Da die Entwicklung der KI rasant verläuft, müssen die Gesetze dauernd angepasst werden. Auch die Ärzteschaft muss sich dieser Entwicklung stellen.

Zahlen die den Alltag greifbar machen

Der AI Act trifft auf eine Realität, in die KI längst Einzug gehalten hat. In der Radiologie sind bereits zahlreiche Systeme im Einsatz. Laut der US-amerikanischen Behörde FDA (Food and Drug Administration) sind bereits 950 KI- bzw. Machine-Learning-gestützte Geräte zugelassen (Stand: 7. August 2024). Über drei Viertel davon betreffen bildgebende Verfahren wie Computertomographie (CT) und Magnetresonanztomographie (MRT), etwa zehn Prozent den kardiovaskulären Bereich. Auch in der EU sind entsprechende Produkte verfügbar: Das Health AI Register listet mindestens 219 CE-zertifizierte KI-Systeme in der Radiologie (Stand: 28. Januar 2025). Darüber hinaus wird KI in weiteren Feldern eingesetzt, etwa in der Orthopädie zur Unterstützung bei der Implantation von Hüft- und Knieprothesen (Publikation 2022), sowie vereinzelt in Neurologie, Ophthalmologie, klinischer Chemie, Mikrobiologie und Pathologie.

Diese Bandbreite verdeutlicht: Ärzte müssen sich zunehmend damit auseinandersetzen, welches System sie nutzen, ob es für die jeweilige Indikation zugelassen ist und wie sie dessen Ergebnisse dokumentieren. Ein Beispiel: Eine KI erkennt Lungenrundherde im CT. Die Software liefert ein Ergebnis, doch die Verantwortung liegt beim Radiologen. Der AI Act macht klar, dass die Verantwortung nicht auf ein System übertragen werden kann.

„Fast alle klinischen Anwendungen gelten als Hochrisikosysteme.“

Konkrete Pflichten im Praxisalltag

Für niedergelassene Ärzte sind die neuen Vorgaben besonders dort spürbar, wo KI direkt in die tägliche Arbeit einzieht. Schon heute nutzen einige Praxen digitale Systeme mit KI-Funktionen – von der Befunddokumentation über Bildauswertung zu Abrechnungshilfen. Der AI Act verlangt, dass der Einsatz solcher Systeme nachvollziehbar dokumentiert wird. Wird etwa eine Hautscreening-App genutzt, muss klar sein, dass die Software beteiligt war und wie das Ergebnis in die ärztliche Diagnose eingeflossen ist. Auch Patienten sollen wissen, wenn KI im Einsatz ist. Das bedeutet: Aufklärungsgespräche bekommen eine neue Facette.

Ein Beispiel aus der Hausarztpraxis: Ein KI-gestütztes Anamnesetool strukturiert Patientendaten und schlägt mögliche Differenzialdiagnosen vor. Ärzte können diese Vorschläge nutzen, sind aber verpflichtet, sie kritisch zu prüfen. Ein Hinweis im ­Dokumentationssystem, dass die KI genutzt wurde, könnte künftig Standard werden. Ähnlich sieht es bei administrativen Prozessen aus. Wenn eine Praxissoftware automatisch Kodierungen vorschlägt, müssen diese überprüft und gegebenenfalls korrigiert werden. Hier gilt: Der KI-Vorschlag ist Hilfsmittel, nicht Ersatz für die ärztliche Entscheidung.

Zwischen Recht und Geschwindigkeit

Der AI Act gilt als Vorzeigemodell, doch er verdeutlicht auch ein Grundproblem. KI entwickelt sich in einem Tempo, das kaum in Verordnungen zu fassen ist. Der Vergleich mit einem Pferd, dem man im Galopp neue Hufeisen anlegt, passt: Die Regulierung läuft nebenher und versucht, Schritt zu halten.

Für Ärzte bedeutet das, dass auch in Zukunft nicht jede Situation durch Paragrafen abgesichert sein wird. Es wird immer Lücken geben, in denen klinisches Urteilsvermögen gefordert ist. Das Gesetz schafft Leitplanken, ersetzt aber nicht die ärztliche Entscheidung in der konkreten Situation.
 

Ethische Leitplanken des Ärztetags

Dass Regulierung allein nicht reicht, betonte der Deutsche Ärztetag im Mai 2025. In ihrem Beschluss „Von ärztlicher Kunst mit Künstlicher Intelligenz“ formulierte die Bundesärztekammer klare Akzente. So heißt es dort: „Diagnostik, Indikationsstellung und Therapie sind stets ärztliche Aufgabe und dürfen nicht an ein KI-System abgetreten werden.“

Die BÄK stellt außerdem klar, dass das Vertrauensverhältnis zwischen Ärzten und ihren Patienten auch beim Einsatz von KI gewahrt bleiben muss. Der Schutz sensibler Gesundheitsdaten sei zwingend, und externe Anbieter hätten die ärztliche Schweigepflicht ebenso zu respektieren wie alle im Gesundheitssystem Tätigen. Darüber hinaus fordert die BÄK in der Stellungnahme „Künstliche Intelligenz in der Medizin“ vom 14. Januar 2025, dass Ärzte Kompetenzen im Umgang mit KI in Aus-, Fort- und Weiterbildung erwerben. „Um Ärztinnen und Ärzte auf den Einsatz von KI vorzubereiten und Verständnis für damit verbundene Risiken und Chancen zu schaffen, ist eine verstärkte Vermittlung digitaler Kompetenzen in der ärztlichen Aus-, Weiter- und Fortbildung von zentraler Bedeutung“, heißt es im Vorwort. Diese Forderung zeigt, dass es nicht nur um Technik geht, sondern um die Fähigkeit, sie kritisch einzuordnen.
 

Interview: „Künstliche Intelligenz is und bleibt ein Hilfsmittel“

Mit dem EU AI Act steht das Gesundheitswesen vor einer neuen Ära der Regulierung. Was kommt auf niedergelassene Ärzte konkret zu? Prof. Dr. iur. Alexandra Jorzig, Fachanwältin für Medizinrecht, erläutert im Interview die praktischen und rechtlichen Folgen, Chancen und Risiken der KI-Nutzung in Arztpraxen.

Hier geht's zum Interview.

KI-Agenten zwischen Patient und Arzt

Eine weitere Herausforderung zeichnet sich bereits ab. KI-Agenten beginnen, sowohl auf Patientenseite als auch in ärztlichen Praxen eine Rolle zu spielen. Patienten nutzen Chatbots oder Apps, die Symptome analysieren und Empfehlungen geben. Damit entsteht eine dritte Stimme im Arztgespräch. Die Gefahr: Patienten vertrauen mehr auf die KI als auf das ärztliche Urteil oder kommen mit vorgefertigten Diagnosen in die Praxis.
Auch Ärzte greifen zunehmend auf Agenten zurück, die Anamnesen strukturieren, Dokumentationen vorbereiten oder Befunde sortieren. Das klingt entlastend, birgt aber Risiken. Was, wenn eine wichtige Information übersehen wird, weil sie nicht korrekt erfasst oder gewichtet wurde? Der Beschluss des Ärztetags erinnert daran, dass Diagnostik, Indikationsstellung und Therapie stets ärztliche Aufgabe sind. Der AI Act adressiert diese Entwicklungen nur am Rande. Er reguliert die Systeme, nicht die Interaktion, die daraus entsteht. Doch gerade dieses Zusammenspiel wird über die nächsten Jahre zu einer der drängendsten Fragen werden, und zwar im juristischen, ethischen und praktischen Sinn.

Wachsamkeit als ärztliche Aufgabe

Mit dem AI Act werden verbindliche Regeln geschaffen, die den Einsatz von KI in der Medizin sicherer machen sollen. Doch kein Paragraf kann verhindern, dass Ärzte selbst in Versuchung geraten, sich unbemerkt auf eine Maschine zu verlassen. Genau hier beginnt die eigentliche Verantwortung: im persönlichen Umgang mit KI im Alltag. Es braucht die bewusste Frage: Treffe ich diese Entscheidung gerade selbst oder folge ich nur dem, was der Algorithmus vorschlägt? Wer diese Reflexion zur Routine macht, bleibt handlungsfähig. Unwissen ist dagegen die größte Gefahr. Wer die Grenzen eines Systems nicht kennt, läuft Gefahr, in sie hineinzutappen. Diese Wachsamkeit lässt sich nicht allein individuell einüben. Sie muss im Team geteilt werden. Mitarbeiter sollten verstehen, wie KI-Systeme arbeiten, welche blinden Flecken sie haben und warum jedes Ergebnis gegengeprüft werden muss. Nur so entsteht eine Kultur, die nicht in den Sog der Technik gerät, sondern sie kritisch nutzt.

Am Ende geht es um Haltung. KI darf Werkzeuge bereitstellen, aber sie darf nie den ärztlichen Kompass ersetzen. Die bewusste Auseinandersetzung ist vielleicht die wichtigste Schutzmaßnahme. Wer sich der Fragen bewusst ist, entwickelt automatisch eine Sensibilität für die Fallen.

Aus- und Weiterbildung

Die Bundesärztekammer hat in ihrem Beschluss betont, dass der Umgang mit KI auch Teil von Aus- und Weiterbildung sein muss. Für niedergelassene Praxen bedeutet das: Sie müssen nicht nur die Technik im Blick behalten, sondern auch die eigene Lernkurve.

Fortbildungen werden künftig verstärkt auf Fragen eingehen müssen wie: Welche Systeme sind CE-zertifiziert? Wie erkenne ich Bias in den Daten? Und wie erkläre ich Patienten verständlich, welche Rolle KI in der Behandlung spielt? Nicht zu unterschätzen ist das Praxispersonal. Medizinische Fachangestellte sind häufig die Ersten, die mit Software und digitalen Abläufen arbeiten. Wenn sie verstehen, wie KI-Systeme funktionieren, können sie Ärzte entlasten und Patienten zugleich besser begleiten. Damit wird klar: KI verlangt nicht nur juristische Klarheit, sondern auch eine neue Kultur des Lernens in den Praxen. Wer die eigene Kompetenz ausbaut, schafft Vertrauen – im Team und bei den Patienten.

Mehr als ein technisches Regelwerk

Der AI Act bringt für das Gesundheitswesen eine neue Ära der Regulierung. Er verpflichtet Hersteller zu mehr Transparenz und Sicherheit, er verschafft Anwendern Orientierung. Für Ärzte bringt er aber auch neue Aufgaben. Sie müssen prüfen, dokumentieren, aufklären und sich fortbilden. Gleichzeitig bleibt klar: Kein Gesetz kann die ärztliche Verantwortung ersetzen. KI kann den Weg weisen, doch sie darf nie die Entscheidung treffen. Die Kunst bleibt, Technik sinnvoll zu nutzen, ohne die Menschlichkeit aus den Augen zu verlieren.

Miriam Mirza


Der Artikel erschien erstmals am 18. Dezember 2025 im x.press 26.1. 

Hier können Sie sich die gesamte Ausgabe herunterladen.