Machine Learning – Rahmenbedingungen und wo muss das Recht helfen?

Von   Dr. Alexander Duisberg   |  Partner   |  Bird & Bird
29. Mai 2018

Chancen und Anforderungen an eine exponentielle Veränderung

Machine Learning – der etwas konkretere Begriff für „künstliche Intelligenz“ – wird die kommenden Jahre wie kein anderes Technologie-Thema prägen. Digitale Assistenten wie Amazon Alexa, Google Assistant, selbstlernende und selbstausführende Spiele wie AlphaGo, autonome Systeme wie selbstfahrende Fahrzeuge und Transportdrohnen sind die unmittelbar sichtbaren Zukunftsbilder. Diese Beispiele sind aber nur ein Anfang. Schon jetzt sind exponentiell ansteigende Veränderungen zu erkennen, wie wir kommunizieren, arbeiten und unser Leben gestalten.

Alle Szenarien beruhen maßgeblich auf der Ansammlung und Auswertung großer Datenmengen (Big Data und Korrelation). Sie können ihre enorme Durchschlagkraft durch Skalierung entfalten, wenn sie möglichst schnell – nicht nur im Verbraucherumfeld – eine hohe Kunden- und Nutzerakzeptanz erzielen. Die Einbettung in verlässliche rechtliche Rahmenbedingungen ist dafür unverzichtbar.

Die folgenden Themen sind dazu eng miteinander verknüpft: (i) Datensouveränität (einschließlich vertraglicher Regelwerke zum Datenaustausch) und der Schutz von Betriebs- und Geschäftsgeheimnissen; (ii) Datenschutz und die Nutzung pseudonymisierter Daten im Einklang mit der DSGVO; (iii) Datensicherheit und der Schutz vor Cyberrisiken; sowie (iv) die Haftung der Betreiber selbstlernender Systeme und die Versicherbarkeit der Ausfall- und Fehlsteuerungsrisiken. Der folgende Beitrag kann die diese Aspekte nur skizzieren – die eigentliche Diskussion geht viel tiefer und steht in vielen Fragen überhaupt erst am Anfang.

1. Big Data, Datensouveränität und Geschäftsgeheimnisse – Axiome des Machine Learning

Wenn jedes Machine Learning auf der laufenden Verbesserung der eingesetzten Algorithmen beruht, geht dies nur durch Zuführung großer Datenmengen. Das Erfassen, Verdichten und Auswerten steht im Fokus. Die Diskussion darüber, „wem die Daten gehören“ – also die Frage nach einem ausschließlichen Zuweisungsgehalt an Daten – ist inzwischen weitgehend überwunden. Das Ergebnis: Es gibt kein zivilrechtliches „Dateneigentum“ (Daten sind keine bewegliche Sache, wie für §§ 90, 903 BGB erforderlich) und es ist nicht sinnvoll, eine Zuweisung von Ausschließlichkeitsrechten in die eine oder andere Richtung (beim Datenproduzenten oder anderen Akteuren) gesetzlich festzulegen.

Vielmehr ist Datensouveränität über die Vertragsgestaltung zwischen den am Datenaustausch Beteiligten zu realisieren. Die EU Kommission sieht dabei, dass der Datenzugang zum Teil erst eröffnet werden muss, um die „Data Economy“ in Gang zu setzen. Aus der Wettbewerbssicht verfolgt sie aber keinen vorschnellen regulatorischen Ansatz. Bisher geht es ihr um das Postulat des „Free Flow of Data“ einschließlich eines Abbaus des Geo-Blocking, sowie Grundüberlegungen zur Datenportabilität. Möglicherweise treten noch Musterverträge über Datenaustausch hinzu, um bei Marktungleichgewichten behilflich zu sein („fair contract terms“) – neben den Vorgaben zu Open Data der öffentlichen Hand.

Die andere Hürde für den unternehmensübergreifenden Datenaustausch liegt in der Sorge der Unternehmen, das „Innerste nach außen zu kehren“ und auslesbar zu werden. Hier steht mit der Umsetzung der Trade Secrets Richtlinie (EU 2016/943) eine gewichtige Veränderung gegenüber dem bisherigen Schutz der Betriebs und Geschäftsgeheimnisse (§17 UWG) bevor. Nach derzeitigem Stand eines Referentenentwurfs ist ein Spezialgesetz vorgesehen: Schutzgegenstand sind Informationen von wirtschaftlichem Wert, weil sie geheim sind (was Rohdaten als solchen nicht unbedingt „anzusehen“ ist), und die der Geheimnisträger durch besondere Schutzvorkehrungen geheim gehalten hat. Für Machine Learning dürfte daraus folgen, dass der wirtschaftliche Wert aus der Geheimhaltung der relevanten Datenmengen vorab existieren und diese Geheimhaltungsbedürftigkeit durch besondere Schutzvorkehrungen abgesichert sein muss. Das Ergebnis des Machine-Learning kann dann – sowohl was die verarbeiteten Datenmengen als auch den Algorithmus selber betrifft – selber wieder dem Geheimnisschutz unterliegen, wenn die Schutzvoraussetzungen erfüllt werden. Wichtig ist zu wissen: Anders als bei der DSGVO könnte es erhebliche nationale Unterschieden in der Umsetzung der Richtlinie geben.

2. Datenschutz und Pseudonyme Datennutzung – Lösungsansätze nach der DSGVO

Auch wenn Machine Learning in vielen Fällen ohne personenbezogene Daten auskommt, gilt spätestens seit der DSGVO: Keine Datenverarbeitung ohne Prüfung des Datenschutzes! Allein bei anonymisierten Daten findet die DSGVO keine Anwendung. Dafür ist der irreversible Entzug aller Identifikationsmerkmale erforderlich, woran die Art. 29 Gruppe schon 2014 hohe Anforderungen gestellt hat. Außerdem gilt in Zeiten von Big Data: Was heute anonym ist, kann schon morgen durch Korrelationen den Personenbezug aufweisen.

Aufgrund des weiten Begriffs personenbezogener Daten (der auch die IP Adresse des Nutzers erfassen kann) unterliegt der Verantwortliche – also das die Daten erhebende und verarbeitende Unternehmen – einer Vielzahl von Pflichten: Er muss seine Verarbeitung dokumentieren und ggf. die Folgen abschätzen, die Betroffenen informieren, für technische Datensicherheit sorgen, sowie bei Sicherheitspannen die Behörden und ggf. auch die betroffenen Personen informieren.

Eine erhebliche Herausforderung stellt die Zweckbindung dar: Änderungen der Datennutzung sind nur in engen Grenzen zulässig, so dass die Verknüpfung unterschiedlicher Datenquellen beim Machine Larning an Grenzen stößt. Die DSGVO bietet mit der Pseudonymisierung immerhin eine interessante Erleichterung. Zwar hängt viel an der weiteren Konkretisierung durch die Datenschutzbehörden und den europäischen Datenschutzausschuss – beispielsweise auch in Zusammenhang mit Verhaltensrichtlinien (Codes of Conduct). Schon jetzt ist aber abzusehen, dass pseudonyme Datenverarbeitung – einschließlich zugehöriger Verschlüsselungstechniken – größere Flexibilität für das Machine Learning schafft.

Klar ist, dass der hohe Bußgeldrahmen der DSGVO (bis zu 4% des Jahresumsatzes des Verantwortlichen, ggf. auch als Konzernumsatz) es zwingend erfordert, Machine Learning datenschutzkonform zu planen.

3. Datensicherheit und Schutz vor Cyber-Risiken

Die Datensicherheit ist ein kritischer Faktor des Machine Learning. Jedes Unternehmen muss die Sicherheit personenbezogener Daten durch geeignete technische und organisatorische Maßnahmen gewährleisten. Die Vertraulichkeit, Integrität, Verfügbarkeit und Belastbarkeit sind wesentliche Zielvorgaben der DSGVO – bis hin zur datenschutzkonformen Technikgestaltung („privacy by design“), wie sie gerade beim Machine Learning um Tragen kommen kann.

Kommt es zu Datenpannen, muss der Verantwortliche die Aufsichtsbehörde anders als bisher nicht nur bei bestimmten Datenkategorien (wie etwa Konto- oder Gesundheitsdaten), sondern grundsätzlich über jede Datenpanne informieren, die ein Risiko für die Rechte der Betroffenen begründet – und zwar innerhalb von 72 Stunden nach Kenntnis! Allein daraus folgen erhebliche Anforderungen an die die entsprechenden Prozesse bis hin zur Schulung des Management, mit den Reputationsrisiken umzugehen.

Bei etlichen Sicherheitspannen greifen neben der DSGVO auch Benachrichtigungspflichten an das Bundesamt für Sicherheit in der Informationstechnik (BSI) nach dem IT-Sicherheitsgesetz (ITSiG). Adressaten sind die Betreiber kritischer Infrastrukturen (KRITIS). Wer zu den KRITIS Unternehmen gehört, ist in Rechtsverordnungen näher beschrieben. Dazu gehören u.a. auch Betreiber von Digitaldiensten. Zudem können die Zulieferer (also z.B. nachgelagerte IT Dienstleister der KRITIS Unternehmen) von den Anforderungen betroffen sein. Wer also im Machine Learning unterwegs ist, muss sorgsam mit seinem Rohmaterial umgehen und darauf vorbereitet sein, dass es zu Sicherheitspannen kommen kann.

4. Haftungsrisiken für autonome Systeme und Versicherung?

Während die Haftung für IT Risiken sogar ein Thema unmittelbar für den Vorstand bzw. die Geschäftsführung darstellen kann (soweit es um Risiken für den Fortbestand des Unternehmens geht, § 91 Abs. 2 AktG)), steht die Diskussion über die zivilrechtliche Haftung für die Ergebnisse des Machine Learning noch am Anfang.

Die Maßstäbe der Produzentenhaftung und Produkthaftung (einschließlich entsprechender Produktbeobachtungspflichten) geben zwar hilfreiche Orientierung, wenn maschinen-steuernde Algorithmen sich selbständig weiterentwickeln und unvorhergesehene Ergebnisse erzeugen. Über die Anforderung an das sorgfältige Testen von autonomen Systemen, die auf Machine Learning beruhen, stößt man aber schnell auf ungeklärte Fragen: Ab wann muss der Betreiber eingreifen, wenn der Algorithmus genau wie vorgesehen funktioniert, aber zu den „falschen Ergebnissen“ führt, die sich in Rechtsverletzungen niederschlagen? Wie lässt sich produkthaftungsrechtlich der maßgebliche Stand der Technik beschreiben, wenn die Ergebnisse des Machine Learning erst nach Inverkehrbringen entstehen und per Definition nicht oder nur zum Teil vorhersehbar sind? Wie muss ein autonomes System konstruiert werden, dass es sich bei Gefährdungen anderer von selber abstellt bzw. diese Gefährdungen erkennt? Bei einem autonomen Fahrzeug mag die Antwort noch relativ leicht zu finden sein – bei vernetzten Robotern anderer Art nicht mehr ohne Weiteres. Dabei steht der Zielkonflikt im Raum zwischen dem unverzichtbaren Schutz von Rechtsgütern Dritter und der Vermeidung innovationshemmender Überregulierung.

Bislang ist es eine Wunschvorstellung, dass man über Versicherungslösungen leicht helfen könnte. Denn auch die Versicherer müssen die Risiken zunächst bewerten und stehen derzeit vor denselben Fragen. Ob für bestimmte Konstellationen des Machine Learning eine Verlagerung von der Verursacherhaftung hin zu einer Gefährdungshaftung sinnvoll sein könnte (ähnlich der Haftung des Fahrzeughalters), ist noch zu diskutieren und ggf. zu regeln. Bis dahin kann man haftungsseitig nur empfehlen, Machine Learning in gut abgrenzbaren Bereichen einzusetzen, sorgfältig zu erproben und seine Auswirkungen und möglichen Gefährdungspotenziale laufend zu beobachten.

Fazit

Machine Learning verspricht enormes Innovationspotenzial und führt zu grundlegender Veränderung, wie wir kommunizieren, arbeiten und Neues entwickeln. Neben vertraglichen Regelungen über die Datennutzung und den Schutz von Geschäftsgeheimnissen sind die datenschutzrechtlichen Herausforderungen beachtlich und am ehesten über die Verwendung anonymer oder pseudonymisierter Datenmengen in den Griff zu bekommen. Aber auch die Cyber-Risiken und daraus folgenden Compliance-Anforderungen sind nicht zu unterschätzen. Für die eigentlichen Haftungsfragen, wie man mit den Ergebnissen des Machine Learning und etwaigen Gefahren für Dritte umgeht, sind derzeit mehr Fragen offen, als es Antworten gibt. Die Versicherbarkeit der Risiken erscheint für klar begrenzbare Anwendungsbereiche ein wesentlicher Erfolgsfaktor. Ob hierzu neue, ggf. branchenspezifisch aufzusetzende Regeln einer Gefährdungshaftung helfen können, ist erst zu diskutieren.

Dr. Alexander Duisberg, Partner bei Bird & Bird in München, verantwortet den Bereich Software und Services der internationalen Tech & Comms Gruppe von Bird & Bird. Er gilt als einer der führenden Experten im Bereich Informationstechnologie und Datenschutz. Seine Expertise umfasst insbesondere Themen der agilen Softwareentwicklung, Big Data, Cloud Computing, transaktionaler Datenschutz und Datensicherheit, Digitalisierung und Industrie 4.0.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21349

share

Artikel teilen

Top Artikel

Ähnliche Artikel