FeedbackAbschluss-Umfrage

(Zahn-)ArzthaftungWann haften Zahnärzte beim Einsatz von KI? Diese beiden Szenarien sind möglich

Abo-Inhalt11.07.2025139 Min. LesedauerVon RA, FA MedR, Dr. Rainer Hellweg, Hannover

| Wenn künstliche Intelligenz (KI) etwa in der Diagnostik in der Praxis eingesetzt wird, wirft dies haftungsrechtliche Fragen auf für den Fall einer fehlerhaften Behandlung. Für die Patientenaufklärung gelten beim Einsatz KI-gestützter Anwendungen strengere Anforderungen als bei herkömmlichen Eingriffen (ZP 06/2025, Seite 3). Doch wer haftet eigentlich unter welchen Voraussetzungen, wenn der Behandler bei der Anwendung von KI – oder wenn die KI selbst einen Fehler macht? |

Der behandelnde Zahnarzt macht einen Fehler

Angenommen, der behandelnde Zahnarzt macht bei der Anwendung der KI einen Fehler, etwa durch Nichtbeachtung der Gebrauchsanweisung oder falsche Eingabe von Daten. In diesem Fall gelten erst einmal die „normalen“ rechtlichen Vorgaben zum Behandlungsfehler: Der (Zahn-)Arzt hat bei sämtlichen Behandlungsmaßnahmen die zum Zeitpunkt der Behandlung bestehenden, allgemein anerkannten fachlichen Standards zu befolgen. Verstößt er hiergegen und bleibt die Behandlung hinter diesem Standard zurück, begeht er einen Behandlungsfehler. Wenn dem Patienten hieraus ein Schaden entsteht, hat der behandelnde (Zahn-)Arzt hierfür zu haften.

Ein grober Behandlungsfehler kehrt die Beweislast um

Wenn der Zahnarzt einen derart eklatanten Fehler begeht, der aus objektiver Sicht nicht mehr verständlich erscheint, weil er einem Zahnarzt schlechterdings nicht unterlaufen darf, nehmen die Gerichte sogar einen sogenannten groben Behandlungsfehler an. Dies hat die für die Behandlerseite negative beweisrechtliche Konsequenz, dass die Ursächlichkeit des groben Behandlungsfehlers für die Schädigung des Patienten vermutet wird; der Zahnarzt müsste das Gegenteil beweisen.

Diese Grundpflichten hat der Zahnarzt beim Einsatz von KI

Die Grundpflichten beim Einsatz von KI liegen zum einen in der Kenntnis der KI-Technik und deren Anwendung sowie zum anderen im Bewusstsein über KI-spezifische Risiken wie Intransparenz, Cyberrisiken oder Datenqualität. Hieraus folgt der vom Behandler zu erwartende Standard im Umgang mit KI. Unterschreitet der Zahnarzt diesen, etwa, indem er die KI falsch oder entgegen der Gebrauchsanweisung anwendet, falsche Daten eingibt oder diagnostische Ergebnisse der KI falsch auswertet, wäre dies als Behandlungsfehler zu werten.

Merke | Ergebnisse der KI dürfen nicht blind übernommen werden, sondern sollten kritisch hinterfragt werden. Ferner muss das technische System regelmäßig überprüft werden – wie auch bei anderen technischen medizinischen Geräten.

Bei Verwendung von KI als Medizinprodukt gilt die KI-Verordnung der EU

Wird KI als Medizinprodukt eingesetzt, gelten neben den sonstigen Pflichten beim Einsatz von Medizinprodukten auch die Pflichten aus der KI-Verordnung der EU (KI-VO). Dort finden sich u. a. folgende Regelungen:

Zahnärzte können als Betreiber i. S. d. KI-VO gelten

Aufgrund seiner hervorgehobenen Stellung als medizinisch Gesamtverantwortlicher seiner Praxis ist der Zahnarzt Betreiber im Sinne der KI-VO. Daraus folgend liegt etwa die hinreichende Ausbildung und Fortbildung der Mitarbeiter für die Handhabung des KI-Systems in seiner rechtlichen Verantwortlichkeit. Dies sollte der Zahnarzt sicherstellen.

  • Medizinprodukte dürften regelmäßig als sog. Hochrisiko-KI-Systeme gemäß Art. 6 KI-VO gelten.
  • Daraus folgen besondere Verpflichtungen, etwa die dauernde menschliche Beaufsichtigung der KI durch eine Person, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügt (Art. 26 KI-VO).
  • Gemäß Art. 5. 4 KI-VO haben nicht nur die Anbieter, sondern auch die Betreiber von KI-Systemen Maßnahmen zu ergreifen, um nach besten Kräften sicherzustellen, dass das Personal über ein ausreichendes Maß an KI-Kompetenz verfügt. Als Betreiber in diesem Sinne gilt gemäß Artikel 3 Nr. 4 KI-VO diejenige Institution oder natürliche Person, die das KI-System in eigener Verantwortung verwendet.

Die KI macht einen Fehler, der Patient wird geschädigt

Hier stellt sich die juristisch interessante Frage, ob der Fehler der KI genauso zurechenbar sein könnte wie menschliches Fehlverhalten. Der sich menschlicher Hilfspersonen bedienende (Zahn-)Arzt hat für deren Verhalten und Verschulden nach den allgemeinen rechtlichen Regelungen einzustehen. Aber gilt das auch für die KI gleich einer menschlichen Hilfsperson? Dass Gerichte dies auf Grundlage der aktuellen Gesetzeslage gleichstellen könnten, erscheint nicht ausgeschlossen, ist zurzeit aber eher unwahrscheinlich. Denn momentan werden KI-gestützte Anwendungen nur unterstützend eingesetzt (vgl. ZP 06/2025, Seite 3). Gerichtsurteile hierzu gibt es noch nicht; diese wären abzuwarten.

Vertrauensgrundsatz bei horizontaler Arbeitsteilung mit KI?

Ein (Zahn-)Arzt kann sich darauf verlassen, dass ein bei der Behandlung hinzugezogener Kollege eines anderen Fachgebiets seine Aufgaben sorgfaltsgemäß erfüllt, sofern nicht offensichtliche Qualifikationsmängel oder Fehlleistungen erkennbar sind oder werden.

Wenn ein Konsil einer anderen Fachrichtung veranlasst wird, darf der behandelnde Zahnarzt somit grundsätzlich auf die Richtigkeit der Beurteilung des konsiliarisch hinzugezogenen Kollegen innerhalb dessen Fachgebietes vertrauen – etwa wenn es um radiologische Abklärungen, kieferorthopädische oder sonstige Konsile geht. Diese rechtliche Privilegierung folgt aus dem Vertrauensgrundsatz bei horizontaler Arbeitsteilung.

Aber greift diese Privilegierung auch, wenn der mitarbeitende Kollege kein Mensch, sondern die KI z. B. im Rahmen diagnostischer Maßnahmen ist? Dafür würde sprechen, dass bei Begrenzung auf bestimmte umgrenzte Tätigkeitsfelder die KI statistisch durchaus bessere Ergebnisse liefern kann als menschliche (Zahn-)Ärzte. Trotzdem dürfte es nach jetzigem Stand unwahrscheinlich und eher noch Zukunftsmusik sein, dass Gerichte die Privilegierung des Vertrauensgrundsatzes bei horizontaler Arbeitsteilung auch auf die KI anwenden. Daraus folgt die Empfehlung, dass (Zahn-)Ärzte die Ergebnisse etwa einer Diagnostik der KI im konkreten Fall noch kritischer auf Plausibilität und Richtigkeit der Schlussfolgerung prüfen sollten als bei einem menschlichen hinzugezogenen Kollegen.

KI als „voll beherrschbares Risiko“?

Im Arzthaftungsprozess wird ein Behandlungsfehler vermutet, wenn sich ein allgemeines Behandlungsrisiko verwirklicht hat, das für den Behandelnden voll beherrschbar war und das zur Schädigung des Patienten geführt hat. Als voll beherrschbare Risiken in diesem Sinne werden insbesondere die bei einer medizinischen Behandlung eingesetzten Geräte angesehen. Hier müsste dann im Streitfalle vor Gericht nicht der Patient beweisen, dass der Schaden durch eine Fehlfunktion des Gerätes herbeigeführt wurde und worin genau diese bestand – weil ihm dies gerade bei Gerätefehlern häufig nur schwerlich möglich ist. Vielmehr wäre es dann an der Behandlerseite zu beweisen, dass beim Geräteeinsatz die gebotene Sorgfalt eingehalten wurde betreffend Wartung, Überprüfung, Einweisung der Mitarbeiter etc.

Aber würden Gerichte diese Beweislastregel zugunsten der Patientenseite auch anwenden, wenn KI im Spiel war? Dies ist schwierig vorherzusagen. Unter Medizinrechtlern wird dies zum Teil verneint mit dem Argument, dass KI eher ein „Intelligenzrisiko“ darstellt – und gerade kein durch die Behandlerseite zumindest theoretisch in vollem Umfang beherrschbares Risiko wie ein medizinisches Gerät. Auch hierzu bleiben erste höherinstanzliche Gerichtsurteile abzuwarten, sobald Streitfälle hierzu bei den Gerichten vermehrt anhängig werden sollten.

Sorgfältiger Umgang des Zahnarztes und Erkennbarkeit des Fehlers dürften juristisch entscheidend sein

Soweit dies nach jetzigem Gesetzesstand überhaupt vorhersagbar ist, kann unter dem Strich festgehalten werden: Im Arzthaftungsverfahren dürfte es entscheidend darauf ankommen, ob der Behandler die erforderlichen Sorgfaltspflichten eingehalten hat und ob er den jeweiligen Fehler der KI hätte erkennen können und hätte eingreifen müssen.

Praxistipp | Zahnärzte können sich im Streitfall nicht mit dem Schutzargument Erfolg versprechend verteidigen: „Das war ich nicht. Das war die KI.“ Für den Fall eines Gerichtsprozesses sollte jederzeit darlegbar sein, dass

  • im konkreten Behandlungsfall das Zutun der KI auf Plausibilität und Richtigkeit überprüft wurde,
  • generell Herstelleranweisungen, Wartung und Überprüfung eingehalten werden sowie die
  • Schulung des Personals in adäquaten Zeitabständen sichergestellt ist.

AUSGABE: ZP 7/2025, S. 2 · ID: 50385254

Favorit
Teilen
Drucken
Zitieren

Beitrag teilen

Hinweis: Abo oder Tagespass benötigt

Link
E-Mail
X
LinkedIn
Xing
Loading...
Loading...
Loading...
Heft-Reader
2025

Bildrechte