Datenschutzkonforme KI-Anwendung?

Hallo alle zusammen,

ich habe aus einer Gesundheitseinrichtung eine Anfrage zu einer KI-Anwendung.

Nun bin ich mir nicht sicher, ob ich mich verrannt habe und alles viel zu kompliziert sehe. Über Hilfe und Denkanstöße wäre ich dankbar.

Der Anbieter der KI stellt seine KI selbst als eine KI-Lösung vor, die es ermöglicht andere LLMs datenschutzkonform zu nutzen. Die Eingabe von Anfragen mit personenbezogenen Daten sollen problemlos erfolgen können, da die KI vor dem eigentlich genutzten LLM geschaltet wird. Vor der Weitergabe der Anfrage an die LLM identifiziert die KI personenbezogene Daten und maskiert bzw. anonymisiert diese.

Der Anbieter erklärt, dass die Daten nicht zum Training genutzt werden und die Verarbeitung auf europäischen Servern stattfindet. Ein Auftragsverarbeitungsvertrag ist vorhanden.

Positiv finde ich, dass mit dieser KI verhindert werden kann, dass personenbezogene Daten durch Beschäftigte „versehentlich“ in LLMs eingegeben werden.

Ich sehe aber die Probleme nur verlagert.

Selbst wenn eine Anonymisierung vorliegt (was ich bezweifle), muss der Verantwortliche die Verarbeitung personenbezogener Daten durch die vorgeschaltete KI rechtfertigen.

Neben den üblichen Schwierigkeiten beim KI-Einsatz wie die Erfüllung der Informationspflichten und die Wahrung der Betroffenen-Rechten sehe ich keine tragbare Rechtsgrundlage für die Eingabe von Patientendaten. Die grundsätzliche Rechtsgrundlage ist in der Regel die Interessenabwägung gemäß Art. 6 Abs. 1 Lit. f) DSGVO. Diese bekanntlich für Gesundheitsdaten nicht aus.

Der Behandlungsvertrag gemäß Art. 9 Abs. 2 Lit. h) DSGVO i.V.m. §22 Abs.1 Uabs. 1 Lit. b) BDSG greift meines Erachtens nicht, da der Einsatz der KI für die Vertragserfüllung nicht erforderlich ist.

Eine ausdrückliche Einwilligung der betroffenen Personen gemäß Art. 9 Abs.2 Lit. a) DSGVO wäre möglich, stößt aber bei der praktischen Umsetzung an Grenzen.

Ich würde daher den für datenschutzkonform Einsatz für möglich halten, wenn Eingabe von besonderen Arten von Daten ausgeschlossen ist.

Wie sehen Sie das?

Vorab vielen Dank für Hinweise und fürs Mitdenken.

Beste Grüße

Gehe nochmal einen Schritt “zurück”: Wofür soll die KI-Anwendung genutzt werden? Diese Fragestellung fehlt mir immer wieder bei den meisten Diskussionen dieser Art. Es gibt keine Rechtsgrundlagen für “Software”, sondern für “Datenverarbeitungen” zu einem festgelegten Zweck.

So wird natürlich Diagnosestellung und Behandlung durch einen Behandlungsvertrag abgedeckt, und wenn die Diagnosefindung mithilfe eines KI-Tools erfolgt, dann ist trotzdem die Rechtsgrundlage für diesen Zweck vorhanden. Da ist es (erstmal) egal, mit welcher Software ich arbeite. Erst im zweiten Schritt schaue ich mir dann die Prozess-Abläufe und Datenströme an, inwiefern die Software (hier also die KI-Anwendung) datenschutzkonform eingesetzt werden kann. ( Interne KI oder eben Online-Verarbeitung anonymisierter Daten, keine Verarbeitung der KI-Anbieter zu eigenen Zwecken usw.)

Ich kenne es tatsächlich aus der Praxis, dass in den KI-Richtlinien häufig die Verarbeitung personenbezogener Daten verboten wird. Nur leider ist diese organisatorische Maßnahme sehr anfällig dafür, von den Beschäftigten nicht eingehalten zu werden. Als Aufsichtsbehörde wurden uns in diesem Zusammenhang schon mehrfach Datenpannen gemeldet…

2 „Gefällt mir“

Vielen Dank für den Hinweis, hilft mir weiter… :slightly_smiling_face:

Das braucht zusätzlich zum Erlaubnistatbestand für den Verarbeitungszweck (und der wäre?) in Art. 6 Abs. 1 eine konkrete Ausnahme vom Verarbeitungsverbot für Gesudnehtsdaten in Art. 9 Abs. 2 (nämlich?). Ggf. mit weiteren Pflichten wie Information bei Zweckänderung (Art. 6 Abs. 4, Art. 13 Abs. 3, Art. 14 Abs. 4)

“Ohne Gesundheitsdaten” würde bedeuten, dass man Datensätze, die ursprünglich Gesundheitsdaten enthalten anonymisiert, bzw. den Gesundheitsteil wegsortiert. Doch das Selektieren der Nicht-Gesundheits-Felder bzw. das Anonymisieren ist ebenfalls eine Verarbeitungstägigkeit, die eine Art.-6-Rechtsgrundlage und (im Fall von ursprünglichen Gesundheitsdaten) eine Art.-9-Ausnahme benötigt.

Im Ergebnis personenbezogene Daten wie “Lieschem Müller” bleiben Gesundheitsdaten, wenn sie immer noch im Zusammenhang mit der Gesundheitseinrichtung stehen; z. B. “Lieschen Müller war in der Reha /hat mit ((Facharztrichtung)) zu tun /nahm Medikament…”

D., der bei solchen Vorhaben immer gespannt ist, wie das argumentiert werden soll. Wer “datenschutzkonform” behauptet, muss die Zulässigkeit für den konkreten Einsatzzweck vorturnen.

Wo erfolgt die Anonymisierung/Maskierung von personenbezogenen Daten? In “der Wolke“ wo dieser KI-Anbieter seinen Anonymisierungsservice hostet oder OnPremise bei der Gesundheitseinrichtung?

Ja, tatsächlich In der “Wolke”. Daher auch meine Überlegung, dass sich die Probelme nur Verlagern.

Ich würde auch gerne einen Schritt zurückgehen. Die Gesundheitseinrichtung ist Data Controller, verwaltet vermutlich Patientendaten. Darf die Gesundheitseinrichtung personenbezogene Daten an irgendeinen Data Processor weiterreichen? Ich vermute, ja. Unter welchen Voraussetzungen?

Ja, eine Gesundheitseinrichtung darf Behandlungsdaten an einen Auftragsverarbeiter zur angewiesenen Datenverarbeitung weitergeben. An “irgendeinen” Auftragsverarbeiter jedoch nicht. Der Verantwortliche muss sich vor Vergabe der Dienstleistung davon überzeugen, dass der Datenverarbeiter entsprechende Schutzvorsorgen getroffen hat. Hierzu schließt der Verantwortliche einen AV-Vertrag mit dem Datenverarbeiter ab. Essenzeller Bestandteil sind dem Schutzniveau entsprechende TOM’s sowie eine Information über weitere Subauftragnehmer beim Dienstleister.
Weiter muss der Verantwortliche sicherstellen, dass der Dienstleister seine Mitarbeiter auf das Datengeheimnis und das Berufsgeheimnis verpflichtet.
Sind diese Bedingungen erfüllt, darf die Gesundheitseinrichtung Daten zu Verarbeitung weiterreichen.

Gut.

Hier im Thread haben wir mit folgendem potenziellen Auftragsverarbeiter zu tun:

Der Anbieter der KI stellt seine KI selbst als eine KI-Lösung vor, die es ermöglicht andere LLMs datenschutzkonform zu nutzen

Dann wäre noch die Frage zu klären ob dieser Anbieter die genannten Voraussetzungen erfüllt. Kann der Thread-Initiator diese Frage beantworten?

“andere LLMs nutzen” ist ein wichtiger Hinweis darauf, dass es mit sehr hoher Wahrscheinlichkeit um Spracherkennung geht. KI-gestützte Spracherkennung beim Diktieren von Arztbriefen, Befunden, OP-Berichte usw. käme in Verbindung mit einer Gesundheitseinrichtung spontan in den Sinn. Die Nutzung von KI im Allgemeinen wie ChatGPT usw. wäre jedoch ein weiteres denkbares Szenario. Diese kann jedoch nur der Thread-Initiator selbst beantworten.

KI-gestützte Spracherkennung zur Erstellung von Arztbriefen, OP-Berichten usw. halte ich jedoch nicht für unmöglich. Wenn die Diktatsoftware aus dem KIS heraus fallbezogen gestartet wird und personenbezogene Daten durch das KIS automatisch in das Dokument übernommen werden, bleibt das Risiko überschaubar.

Die voranschreitende Digitalisierung mit dem Ziel Behandlungsvorgänge zu beschleunigen, kann Art. 9 Abs. 2 lit. h) DSGVO als Erlaubnistatbestand herangezogen werden.

Dem Beschäftigtendatenschutz kommt bei KI-Spracherkennung deutlich mehr Bedeutung zu Teil. Hier gilt es ebenfalls einen Erlaubnistatbestand zu finden. Das kann eigentlich nur die Einwilligung sein. Moderne Spracherkennungssystem halten anwenderbezogen Sprachprofile vor, die die Erkennungsrate deutlich steigern.

@GJG: Was ist den der konkret vorgesehene Anwendungsfall?

Pauschal “datenschutzkonform” oder “100 % GDPR/DSGVO” gibts nicht. Neben dem, was das System des Dienstleisters machen würde kommt es immer auf das Szenario des Verantwortlichen an.

Schön, wenn sich der Dienstleister dazwischenklemmt. Doch schließt er so wirklich aus, dass personenbezogene Daten des Verantwortlichen in Systeme von Dritten gelangen, bzw. dass die Drittlandproblematik noch geklärt werden muss?

Das ließe sich realisieren, indem der Dienst in seinem sicheren Bereich anonymisiert; oder personenbeziehbare Daten in solchen Häppchen durchreicht, dass dahinter liegende Dienste sie nicht auf eine Person beziehen können.

D., der bei solchen Angeboten immer schöne Proxy-Ideen hätte. Doch oft stellt sich bei genauerem Hinschauen heraus, dass die Daten nicht wirklich unter Kontrolle des Verantwortlichen bleiben, so dass man sie (bitte nicht!) auch gleich dem problematischen Dritten geben könnte.

Vielen Dank für die Antworten!

Zum jetzigen Stand sollen Recherchen zu bestimmten Fällen erflogen, die Praxiskommunikation durch den Einsatz von KI effizienter gestaltet und ggf. Patientenberichte verfasst werden.

Bei den Recherchen sehe ich keine Erforderlichkeit p.b. Daten einzugeben, wo mit für mich hierfür auch keine Rechtsgrundlage besteht. Wenn ein Fall so spezell ist, dass aus der Fallbeschreibung alleine ein Personenbezug hergestellt werden kann, sehe ich aber auch kaum eine Möglichkeit den Personenbezug zu “maskieren” ohne den Fall entscheidend zu verfremden. Damit wären die Recherchergebnisse fragwürdig.

Bei der Kommunikation haben wir in Gesundheitseinrichtungen schnell den Fall, dass der Name im Zusammenhang mit der Gesundheitseinrichtung ein Gesunheitsdatum ist. Also brauchen wir hier schon die Ausnahme nach Art. 9 Abs. 2 Lit h) DSGVO ebenso bei dem Verfassen von Patientenberichten, was der Behandlungsvertrasg sein kann.

Was die Verpflichtung auf das Berufsgeheimnis betrifft, ist der Anbieter bereit zusätzlich zum AVV eine Vereinbarung zu treffen.

In der Theorie sehe ich schon einen Unterschied zwischen dem

Fall1, Daten werden zu den “beliebigen LLMs“ geschickt

und

Fall2, Daten werden zum Dienstleister/”Anbieter der Anonymisierung” geschickt, dort anonymisiert und dann an “die LLMs” weitergeleitet.

In der Praxis kommt es darauf an

  • was für eine Vereinbarung der ”Anbieter der Anonymisierung” genau unterschreibt, was er garantieren kann
  • wo stehen die Server des Anbieters (Deutschland? EU?)
  • hat man als Kunde eine Möglichkeit des Audits an den Servern des “Anbieters“
  • gibt es unabhängige Audits/Zertifikate, die der “Anbieter“ vorweisen kann

Natürlich kommt es in der Praxis auch darauf an, wie sehr die Daten beim Anonymisieren “verhunzt“/verändert werden, ob dann eine Weiterleitung an die LLMs noch sinnvolle Responses bringt

Das ist nicht von einer Bereitschaft abhängig, wenn ein Anbieter sich hierbei verweigern würde, ist der raus aus dem Rennen.

Ein weitere Vereinbarung halte ich nicht für erforderlich. Von den Berufsverbänden für Datenschutzbeauftragte BvD und GDD wurde gemeinsam mit der Deutschen Krankenhausgesellschaft und weiteren Fachgruppe Datenschutz im Gesundheitswesen ein Muster AV-Vertrag entwickelt, der eine solide Grundlage für den Einsatz im Gesundheitswesen darstellt.

Muster-AV-Vertrag Gesundheitswesen angepasst | BvD

1 „Gefällt mir“

Vielen Dank für den Link zum Muster AVV für das Gesundheitswesen :slight_smile: .

“… ist der Anbieter bereit zusätzlich zum AVV eine Vereinbarung zu treffen.

Das ist nicht von einer Bereitschaft abhängig, wenn ein Anbieter sich hierbei verweigern würde, ist der raus aus dem Rennen.”

Das sehe ich genau so, allerdings hat ein Anbieter im Rahmen der Vertragsfreiheit auch das Recht sein Produkt nicht an Gesundheitseinrichtungen zu verkaufen.

wer hat das wie festgestellt?

  1. Ich frage mich, welche Art von Anonymisierung hier angewendet werden soll. Löschung,. Aggregation, Verfälschung?
  2. Weiterhin frage ich mich, was mit dem KI-Ergebnis geschieht? Muss dies möglicherweise nochmal bearbeitet werden, damit es für den konkreten personenbezogenen Fall nutzbar ist? Wo geschieht diese Anpassung, bei dem Nutzer oder bei dem Anbieter der zwischengeschalteten KI? Liegt hier möglicherweise garkeine Anonymisierung, sondern vielmehr eine Pseudonymisierung vor, damit das Ergebnis der nachfolgenden KI für die Ausgangsfrage nutzbar gemacht werden kann?
1 „Gefällt mir“