ZWISCHEN BIG DATA UND PATIENTENSCHUTZ

DER EINSATZ VON KÜNSTLICHER INTELLIGENZ IN DER MEDIZIN WIRFT RECHTLICHE FRAGEN AUF.

„Die größte Herausforderung für künstliche Intelligenz im Gesundheitsbereich ist, an große Datenmengen heranzukommen, die für das Training von KI notwendig sind“, sagt Lukas Feiler, IT-Recht-Experte und Partner der Kanzlei Baker McKenzie. „Da es sich bei Patientendaten um sensible, personenbezogene Daten handelt, ist für deren Verwendung eine explizite Einwilligung der betroffenen Personen nötig. Das ist zwar theoretisch machbar, es müssen aber die Krankenhäuser mitspielen, weil sie von Patienten die Einwilligung für den KI-Entwickler einholen müssen“, sagt Feiler.

Problem der sensiblen Daten

Der Jurist und Softwareentwickler Sebastian Reimer hält das Forschungsorganisationsgesetz für eine hinreichende Rechtsgrundlage zur Verarbeitung von Patientendaten in einer KI ohne Einwilligung. Dieses ermöglicht, personenbezogene Daten aus Registern – etwa von der Sozialversicherung – in pseudonymisierter Form ohne Einwilligung der Betroffenen für Forschungszwecke zu nutzen.

Feiler ist hier hingegen skeptisch: „Das Forschungsorganisationsgesetz gibt keine Rechtssicherheit, ob personenbezogene Daten ohne Einwilligung auch zum Zweck der Entwicklung von KI verwendet werden dürfen. Krankenhäuser sind deshalb sehr zurückhaltend bei der Weitergabe von Patientendaten. Es wäre eine explizite Klarstellung im Gesetz notwendig, um Bedenken aus dem Weg zu räumen und den Datentransfer zur Entwicklung von KI zu fördern“, sagt der Rechtsanwalt.

Gänzlich neue Gesetze für den Einsatz von KI im Gesundheitsbereich hält aber auch Feiler nicht für notwendig. Der Schutz von Patientendaten sei durch die Datenschutzgrundverordnung ( DSGVO) hinreichend gewährleistet. Er kritisiert jedoch, dass die bestehenden Regulierungen in der Praxis nicht angewendet werden: „Auch wenn die DSGVO nicht ausdrücklich den Begriff der künstlichen Intelligenz enthält, umfasst sie diese trotzdem. Das Gesetz schützt zum Beispiel Personen vor voll automatisierten Entscheidungen, die rechtliche oder ähnlich starke Wirkungen nach sich ziehen.

Wenn also jemand von einer Versicherung abgelehnt wird, weil eine KI aufgrund seiner Gesundheitsdaten zum Ergebnis kommt, dass er nicht versicherbar ist, kann er sich dagegen wehren. Die Institutionen, die mit der Durchsetzung des Datenschutzes betraut sind, wenden das Gesetz jedoch nicht in vollem Maße an.“ Den Grund dafür ortet Feiler in einer Überlastung der Behörden: „Die Datenschutzinstitutionen kämpfen mit den raschen technologischen und wirtschaftlichen Entwicklungen von KI. Um diese zu bewältigen, benötigen sie sowohl juristische als auch technische Expertise“, so der Anwalt.

Haftung bei fehlerhafter KI

Eine weitere juristische Herausforderung im Zusammenhang mit KI im Gesundheitswesen stellt die Haftung dar. Laut Reimer ist auch diese durch die bestehenden Gesetze geregelt: „Sowohl die Wahrung der Persönlichkeitsrechte als auch Schadenersatzfragen sind durch die aktuelle Rechtslage abgedeckt.“ Bei einer fehlerhaften KI-Software würde der Hersteller ähnlich der Haftung für ein fehlerhaftes Produkt haften. Wendet ein Arzt eine KI zur Diagnose oder Therapie an und entsteht in der Folge dadurch ein Schaden, so können Arzt und Softwarehersteller haftbar sein.

Ein „systemimmanentes“ Problem, so Reimer, bestehe, wenn die KI eigenständig Entscheidungen trifft. „Es ist bei Big Data nicht nachvollziehbar, was da genau passiert. Das ist ein technisches Problem.“ Reimer hält es für denkbar, die Haftung bei einer fehlerhaften Entscheidung durch KI ähnlich dem Sorgfaltsmaßstab im Schadenersatzrecht zu lösen: „Wenn die KI beispielsweise in Tests weniger fehleranfällig als Ärzte in diesem Spezialgebiet ist, wäre ihr Einsatz sorgfältig und folglich eine Haftung wohl auszuschließen. Wenn die KI hingegen eine hohe Fehleranfälligkeit hat, würde es grober Fahrlässigkeit oder Vorsatz gleichkommen und eine Haftung begründen“, sagt der Experte für IT-Recht.

Absicherung im Vorfeld

Einen anderen Ansatz zur Haftung bei Fehlern von KI liefert die Verhaltensökonomin Julia Puaschunder, die an der Columbia University angewandte Sozialforschung betreibt: „Um den Markteintritt von KI zu forcieren, könnte man das antike römische Recht hernehmen. Um Marktaktivitäten von Sklaven zu versichern, mussten deren Herren sofort alles dem Sklaven überlassene Geld aus der privaten Buchhaltung ausbuchen. Geschädigte waren dadurch präventiv abgesichert, weil ihnen implizit zugesagt wurde, dass der Herr durch Sklaven im Marktgeschehen genutztes Geld theoretisch bereits beim Anvertrauen an den Sklaven ausgegeben hatte. Ähnlich könnte man auch eine Vorversicherung von KI einplanen: Mit Markteintritt sollten Hersteller vorab Geld für Schadensbegrenzung ausbuchen – und nicht erst zahlen, wenn der Schaden eingetreten ist und das Unternehmen sich durch Konkurs aus der Verantwortung ziehen könnte“, schildert die Wissenschafterin.

Eine weitere Option wäre, durch KI geschädigte Bevölkerungsgruppen über die Folgen einer fehlerhaften KI mitentscheiden zu lassen. „Beispielsweise könnten geschädigte Gruppen darüber entscheiden, ob und wie die KI weiterentwickelt werden soll. Das könnte zu einem evolutionären Regulationsprozess von KI und quasi demokratisch gewählten neuen Technologieentwicklungsprozessen führen“, sagt Puaschunder. Aufholbedarf gibt es laut der KI-Expertin bei der ethischen Regulierung von KI im Gesundheitswesen: Hier brauche es transnationale und internationale Institutionen, die globale Standards definieren.

Datenfreiheit

Puaschunder plädiert für eine fünfte Grundfreiheit in der Europäischen Union: die Datenfreiheit. „KI eingesetzt zur Verbesserung von ethisch geprüfter Präventivmedizin könnte dabei aus Massendaten steuerfreie Informationsgewinne erzielen, im Gegensatz zu den USA, wo dieses Marktverhalten eher im allgemeinen Konsumbereich vorherrscht. Eine Datenfreiheit innerhalb der EU sollte positive Marktanreize für das Teilen von Information ebenso wie legale Mittel zur Bekämpfung von Diskriminierung und Menschenrechtsverletzungen umfassen.“ Denn aus Massendaten gewonnene Erkenntnisse würden laut Puaschunder ein großes Diskriminierungspotenzial bergen – zum Beispiel, wenn am Arbeitsmarkt bei der Entscheidung über die Einstellung einer Person Gesundheitsprävalenzen bestimmter Bevölkerungsgruppen oder Wohngebiete herangezogen werden. Puaschunder fordert daher, „aus Massendaten gewonnene Erkenntnisse im Gesundheitswesen nur punktuell und nicht aggregiert darzustellen.“

Reimer hält das Spannungsverhältnis zwischen Menschen- und Grundrechtsschutz auf der einen und dem technologischen Fortschritt auf der anderen Seite für das eigentliche Problem von KI im Gesundheitsbereich. „KI wird leider auch von jenen Staaten maßgeblich entwickelt, die keine hohen Menschen- und Grundrechtsstandards haben. Staaten mit hohen Standards, wie in Europa, müssen aufpassen, technologisch nicht ins Hintertreffen zu geraten, weil sie dann ihre hohen Datenschutzstandards nicht durchsetzen können“, erklärt Reimer.

Neue Regeln für Preisgestaltung

Rechtliche Änderungen könnte es in naher Zukunft bei der Preisgestaltung von gesundheitsrelevanter KI, konkret von Gesundheits- Apps geben, die als Medizinprodukte qualifiziert sind. Das ist davon abhängig, ob die neue Verordnung der EU, die das Health Technology Assessment (HTA) – also die Nutzenbewertung von neuen Gesundheitstechnologien – vereinheitlicht, in Kraft tritt.

„Bis jetzt gibt es in jedem EU-Land ein eigenes Bewertungsverfahren. Sollte die HTA-Verordnung in Kraft treten, wird es für Softwareprodukte unter bestimmten Voraussetzungen eine einheitliche Nutzenbewertung auf EU-Ebene geben. Auch wenn die Preisgestaltung sowie Erstattungsfragen weiterhin ausschließlich in der Kompetenz der Mitgliedstaaten bleiben, ist davon auszugehen, dass die Mitgliedstaaten auf die europäische Nutzenbewertung Rücksicht nehmen und diese einbeziehen“, erklärt Universitätsassistentin Gisela Ernst vom Institut für Staats- und Verwaltungsrecht der Universität Wien, Expertin für Preisgestaltung von Medizinprodukten auf europäischer Ebene. Eine einheitliche Nutzenbewertung wäre nur für solche Software vorgesehen, die ein gewisses Risiko für die Patientensicherheit mit sich bringt – wenn die Software zum Beispiel in der Diagnose oder Therapie als Unterstützung für Entscheidungen herangezogen wird, die zu einer irreversiblen oder schwerwiegenden Verschlechterung des Gesundheitszustands führen können.

Letzte Aktualisierung: 19.08.2020