Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

KI & Recht kompakt
KI & Recht kompakt
KI & Recht kompakt
eBook492 Seiten4 Stunden

KI & Recht kompakt

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

Das Buch gibt einen kompakten Einblick in alle wesentlichen Rechtsfragen rund um den Einsatz Künstlicher Intelligenz in Unternehmen oder Produkten. Versierte Autoren mit Praxiserfahrung erläutern die wichtigsten rechtlichen Themen beim Einsatz intelligenter Systeme und behandeln nach einer Einführung in die technischen Grundlagen die Auswirkungen und Besonderheiten Künstlicher Intelligenz in den Bereichen:
  • Zivilrecht
  • Vertragsgestaltung
  • Lizenzierung 
  • Haftung
  • Immaterialgüterrechte 
  • Datenschutz
  • Strafrecht
  • Arbeitsrecht
SpracheDeutsch
HerausgeberSpringer Vieweg
Erscheinungsdatum31. Juli 2020
ISBN9783662617007
KI & Recht kompakt

Ähnlich wie KI & Recht kompakt

Ähnliche E-Books

Recht für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für KI & Recht kompakt

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    KI & Recht kompakt - Matthias Hartmann

    IT kompakt

    Die Bücher der Reihe „IT kompakt" zu wichtigen Konzepten und Technologien der IT:

    • ermöglichen einen raschen Einstieg,

    • bieten einen fundierten Überblick,

    • eignen sich für Selbststudium und Lehre,

    • sind praxisorientiert, aktuell und immer ihren Preis wert.

    Weitere Bände in der Reihe:

    http://​www.​springer.​com/​series/​8297 http://www.springer.com/series/8297

    Hrsg.

    Matthias Hartmann

    KI & Recht kompakt

    1. Aufl. 2020

    ../images/490545_1_De_BookFrontmatter_Figa_HTML.png

    Hrsg.

    Matthias Hartmann

    HK2 Rechtsanwälte, Berlin, Deutschland

    ISSN 2195-3651e-ISSN 2195-366X

    IT kompakt

    ISBN 978-3-662-61699-4e-ISBN 978-3-662-61700-7

    https://doi.org/10.1007/978-3-662-61700-7

    © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2020

    This work is subject to copyright. All rights are solely and exclusively licensed by the Publisher, whether the whole or part of the material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical way, and transmission or information storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology now known or hereafter developed.

    Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten.

    Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.

    Planung: Martin Börger

    Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature.

    Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

    Vorwort

    Unter „Künstlicher Intelligenz werden neue Technologien und Algorithmen verstanden, die die menschliche Art nach Prinzipien der Vernunft zu reagieren, zu handeln oder Probleme zu lösen, nachbilden. Je mehr dies gelingt, desto disruptiver werden die Auswirkungen sein. Künstliche Intelligenz konfrontiert die Menschen aber noch auf einer existenzielleren Ebene: KI macht dem Menschen streitig, worauf er seine Vorrangstellung gegenüber allen anderen Lebewesen stützt, nämlich seine „einmalige Verstandeskraft. Gelingt es Intelligenz zu algorithmisieren oder zumindest zu digitalisieren, dann lässt sich das Ergebnis optimieren und skalieren. Wenn es also intelligente Rechner gibt, gelten für diese viele der Einschränkungen menschlichen Verstandes nicht. Die intellektuelle Kapazität ist dann räumlich, zeitlich und inhaltlich beinahe unbegrenzt und beliebig übertragbar. Dann sind es nicht mehr Menschen, die die besten Entscheidungen treffen oder die erstaunlichsten Dinge kreieren. Sobald die KI sich schließlich selbst weiter entwickeln wird, sind die Ergebnisse mit den Begrenzungen menschlichen Verstandes im Sinne des Wortes unvorstellbar. Wenn es künstliche Intelligenz gibt, wird sie automatisch der menschlichen überlegen sein.

    Was an künstlicher Intelligenz möglich ist, hängt zunächst davon ab, wie Intelligenz definiert wird. Der Begriff KI stammt ab von dem Versuch, durch Informatik kognitive Fähigkeiten des Menschen bei der Verarbeitung von Informationen zur Bewältigung von Aufgaben nachzubilden. Es ging also zunächst um das Simulieren „menschlich intelligenter Leistungen" durch Informationstechnologie (sogenannte schwache KI). Eine extreme Ausprägung dieses Ansatzes findet sich heute im Human Brain Project der EU, also in dem Versuch, das Gehirn des Menschen technisch nachzubilden.

    Unter „starker KI werden dagegen Maschinen verstanden, die selbst „denken. Die Schaffung einer „starken KI ist nach aktuellem Stand noch weit entfernt, wenn überhaupt möglich. Allerdings sind „Intelligenz und „Denken bei Menschen auch noch weitgehend unerforscht, sodass die Diskussion über die Möglichkeit einer „starken KI müßig bis sinnlos erscheint. Vermutlich wird die Debatte hinfällig, sobald sie von einer KI geführt wird und die Menschen ihr nicht mehr folgen können.

    Die Entwicklung von KI geschieht seit den frühen 50er-Jahren in Phasen großer Erwartungen und tiefer Enttäuschungen. Letztere werden KI-Winter genannt und seit einigen Jahren ist nun schon wieder Frühling. Die einen sehen den nächsten Winter kommen, die anderen eine Epoche der KI anbrechen.

    Menschliche Intelligenz hat jedenfalls viele Schwachstellen, vielleicht erweisen sich diese sogar als integrale Bestandteile. Niemand möchte aber eine KI bauen, die betrunken Auto fährt. Ein Hersteller machte sich wohl schadensersatzpflichtig und sogar strafbar, wenn er ein selbstfahrendes Auto in Verkehr brächte, das so viele tödliche Fehler macht wie menschliche Fahrer (siehe zur Haftung bei autonomen Fahrzeugen Dr. Lennart Lutz in Kap. 3 und zum Strafrecht und KI Christian Haagen/Anna Lohmann in Kap. 8).

    In der Praxis - für die dieses Buch gedacht ist - geht es bei der Verwendung von KI nicht um „denkende" Roboter, sondern um den Einsatz intelligenter Werkzeuge zur Lösung spezifischer Aufgaben. Und hier ist KI seit Jahren sehr erfolgreich (siehe zu den technischen Grundlagen Dr. Florian Hoppe in Kap. 1).

    KI meint dann Technologien, die vermeintlich oder tatsächlich die Arbeitsweise von Nervensystemen aus der Natur nachbilden oder zumindest Grundprinzipien neuronaler Netze verwenden. Im Unterschied zum „klassischen Algorithmus werden beim Einsatz von KI nicht alle Kriterien zur Aufgabenlösung vorgegeben. Es gibt also weder einen festen „Entscheidungsbaum noch lassen sich alle zur Anwendung kommenden Entscheidungsbäume aus den Algorithmen allein generieren. Eine besondere Stärke von KI liegt darin, die Entscheidungskriterien und deren Relevanz für sehr komplexe Bewertungen selbst zu entwickeln. Hierzu werden geeignete KI Strukturen mit Input und Feedback zum Output trainiert.

    Diese Nachahmung von bestimmten Aspekten neuronaler Netze hat sich als sehr erfolgreich erwiesen zur Lösung bestimmter Aufgaben, wie etwa der Erkennung von Mustern oder Anomalien in großen Datenmengen oder wahrscheinlichkeitsbasierte Entscheidungen bei nicht eindeutigen Verarbeitungs-Objekten (bspw. Bild-, Zeichen-, Spracherkennung, Virenerkennung, Erkennung von Krankheitsbildern oder -daten, Betrugserkennung, Prognosen für Aktienkurse, Expertensysteme). Der Optimierung von Aufbau, Kombination und Voreinstellung von generativen Netzen hat sich die Disziplin des „Deep Learning" verschrieben. Die Königsdisziplin sind KI, die unterschiedliche Aufgaben lösen können, die also für breitere Aufgabenbereiche oder ganz allgemein Sachverhalte lernen können.

    Inzwischen werden zur Bewältigung komplexer Aufgaben verschiedene Ansätze von KI kombiniert. „Autonomes Fahren wird nicht durch eine KI realisiert, sondern KI-Werkzeuge spielen auf unterschiedlichen Ebenen der Aufgabenerfüllung eine Rolle. Dies beginnt bei der Analyse der einzelnen Ergebnisse von Sensoren und anderen Datenquellen, geht über den Entwurf von Entscheidungsmöglichkeiten bis zur Bewertung des sich aus allen Informationen ergebenden Gesamtbildes unter Berücksichtigung „nicht-intelligenter Algorithmen.

    Mit zunehmender Komplexität von KI wird es schwieriger, einen konkreten Output einer KI (bspw. die Diagnose aufgrund eines Fotos eines Hautbildes) auf Elemente des Inputs oder die konkreten Einstellungen der KI zurückzuführen (Black-Box-Problem).

    Diese Eigenschaft vieler KI, den Grund der Entscheidung nicht mit anzugeben, führt zu vielen juristischen Fragestellungen. Ist eine KI mangelfrei, obwohl sie zu fehlerhaften Ergebnissen kommt (siehe dazu Kap. 2)? Ab welchem Grad der Zuverlässigkeit ist es erlaubt, ein autonomes Fahrzeug oder andere KI-Produkte in Verkehr zu bringen (siehe dazu Dr. Lennart Lutz in Kap. 3 und Christian Haagen/Anna Lohmann in Kap. 8)? Darf eine KI Entscheidungen über die Belange von Menschen treffen, wenn die Gründe unbekannt bleiben (siehe zum Datenschutzrecht allgemein Bernhard Kloos/Dr. Johanna Schmidt-Bens Kap. 5 und bei Forschungsvorhaben Prof. Dr. Beatrix Weber Kap. 6)? Ist eine Beurteilung von Arbeitnehmern durch eine solche KI zulässig (siehe Jörg Hennig/Anika Nadler Kap. 7)?

    Eine Stärke von KI-Werkzeugen liegt in ihrer Skalierbarkeit bereits bei der Konstruktion oder dem Training im Bereich des Machine Learnings und einem späteren Einsatz. Beispielsweise können Übersetzungs-KI sich selbst anhand ihrer eigenen Rückübersetzung trainieren oder AlphaGo Zero lernt Go-Strategien ohne jeden externen Input allein durch das regelkonforme Spielen gegen sich selbst. Wenn eine App anhand von Bildern mehr Hautkrebs erkennt als Dermatologen, könnten schon heute zahllose Menschenleben gerettet werden, wenn die erste Stufe der Vorsorge die Benutzung einer App wäre und nicht der aufgeschobene Besuch beim Arzt, weil die beste App im Gegensatz zum besten Experten beliebig reproduzierbar ist.

    KI wird es zunehmend ermöglichen, mehr und bessere Produkte und Dienstleistungen mit geringerem Zeitaufwand als durch Menschen herzustellen. Dieser Prozess hat schon begonnen. Diktate werden automatisch geschrieben, Texte übersetzt, aus Sensordaten wird der Wartungsbedarf von Maschinen vorhergesehen, Datenströme werden auf Auffälligkeiten untersucht, Aktien von Computern gehandelt, Röntgenbilder analysiert, Kundenanfragen beantwortet, Logistik optimiert, Fahrzeuge von Computern gesteuert. Computer agieren daher schon längst im Geltungsbereich des Zivilrechts (siehe dazu Kap. 2).

    Ausreichend Bandbreite, leistungsfähige Endgeräte, Spracherkennung und sogar Übersetzung sind heute weltweit verfügbar und vernetzt. Die nächste große Hürde ist die sinngemäße Verarbeitung innerhalb eines kontextuellen Bezugsrahmens. Wenn dieses Problem gelöst ist, lassen sich Aufgaben an Computer in großem Umfange delegieren. Der Flaschenhals der Schnittstelle zwischen Mensch und Maschine wäre durch diese neue Fähigkeit der Maschinen beseitigt. Es wäre das Ende der heute vorherrschenden Plattformen, wenn eine KI den Bedarf des Nutzers „versteht, denn der Nutzer möchte einen Wasserkocher kaufen und nicht eine Plattform durchsuchen und er möchte wissen, was „ein Algorithmus ist und nicht „Wikipedia lesen".

    Es bedarf wenig Fantasie, um zu sehen, dass die Übernahme geistiger Aufgaben durch Computer zu ähnlichen Umbrüchen in der Arbeitswelt führen wird wie die Ersetzung menschlicher Arbeitskraft durch Maschinen während der Industriellen Revolution. Denjenigen, die dadurch ihre Arbeit verlieren werden, kommt die Wertschöpfung durch die Maschinen zunächst nicht zugute. Zurück an die Webstühle möchte aber auch niemand, daher sollte die Zeit, bis sich der Einsatz menschlicher Schaffenskraft bei der Wertschöpfung nicht mehr lohnt, genutzt werden (zu den aktuellen praktischen Auswirkungen im Arbeitsrecht siehe Jörg Hennig/Anika Nadler Kap. 7).

    Grundstoff für alle KI-Anwendungen sind Daten. Hier hat die EU durch ihr strenges Datenschutzrecht hohe Hürden aufgebaut, sofern es um personenbezogene Daten geht (siehe dazu Bernhard Kloos/ Dr. Johanna Schmidt-Bens – Kap. 5). Auch die Forschung an KI steht dadurch vor Herausforderungen (siehe dazu Prof. Dr. Beatrix Weber – Kap. 6). Zwar lassen sich KI-Vorhaben auch im Kontext der DSGVO durchführen, aber die Grundsätze der KI-Entwicklung wiedersprechen nahezu allen Prinzipien des Datenschutzes: KI benötigt große Datenmengen, entscheidet nach unbekannten Kriterien und nur mit einer bestimmten Wahrscheinlichkeit „richtig", die DSGVO fordert Datenminimierung, Transparenz, Richtigkeit der Verarbeitung und Rechenschaftspflicht. Die EU hat sich damit einen steinigen Weg geschaffen für das Rennen um KI.

    Es steht aber zu befürchten, dass der Gesetzgeber die Entwicklung und den Einsatz von KI noch weiter erschwert, wie die Debatte um die „Haftungslücke für Roboter und KI zeigt. Der Begriff impliziert einen Mangel an Haftung. Den gibt es nicht, sondern es gibt eine gesetzgeberische Entscheidung in unserer Rechtsordnung, dass grundsätzlich nur für Verschulden gehaftet wird. Was unter „Haftungslücke diskutiert wird, ist die Forderung nach einer verschuldensunabhängigen Haftung für Hersteller von KI – also eine Schlechterstellung, denn bei Verschulden wird ohnehin gehaftet (siehe Dr. Lennart Lutz in Kap. 3). Bestimmte KI Systeme werden allerdings nur mit einer bestimmten Wahrscheinlichkeit „richtig entscheiden. Es ist komplexen trainierten neuronalen Netzen immanent, dass die „false positives oder „false negatives vielleicht nur gegen Null tendieren, aber nie Null sind. Es besteht damit also eine bestimmte Wahrscheinlichkeit für einen Fehler und die Auswirkungen sind vielleicht auch durch andere Maßnahmen nicht zu verhindern. In dieser systemimmanenten Fehlerhaftigkeit sehen manche die sogenannte „Haftungslücke, weil für unvermeidbare Fehler eben nicht gehaftet wird.

    Bei näherer Betrachtung ist das Argument nicht überzeugend. Es handelt sich eben nicht um eine Lücke sondern um den Grundsatz, dass niemand haften soll, wenn er nichts für den Schaden kann. Außerdem ist die Rechtslage auch ausreichend zur Behandlung etwaiger Fälle, denn die Rechtsprechung wird bestimmen, welche Wahrscheinlichkeit für Fehler akzeptabel erscheint. Auch Herzschrittmacher haben eine bestimmte Ausfallwahrscheinlichkeit. Soll die Produktion mit Haftung sanktioniert werden, selbst wenn der Hersteller alles nach dem Stand der Technik unternommen hat?

    Sofern bestimmte Produkte mit einem rechtlich zugelassenen Risiko in den Verkehr gebracht werden, die eine besondere Gefahrneigung für Unbeteiligte mit sich bringen, kann eine Verallgemeinerung der Schadenskosten und gegebenenfalls eine Haftpflichtversicherung sinnvoll erscheinen, um die Abwicklung von Schadensfällen zu vereinfachen und das Insolvenzrisiko des Verpflichteten abzufangen. Denkbar wäre eine solche Haftpflicht für neuartige Produkte im öffentlichen Raum, also Drohnen, Lieferroboter, Serviceroboter etc. Das könnte die Akzeptanz in der Bevölkerung erhöhen. Der Grund sollte aber nicht sein, dass es sich um Roboter oder KI-gestützte Produkte handelt, denn dem wohnt keine besondere Gefährlichkeit inne. Bei KI kommt hinzu, dass sie nicht an einem Ort verkörpert sein muss, beliebig zusammenwirken oder vervielfältigt werden kann und skaliert. Es gibt also schon nicht notwendig eine KI-Entität als Haftungsansatz. KI ist eine Basistechnologie, die in viele Produkte einfließen wird, eine gesonderte Haftung dafür entbehrt einer tatsächlichen Rechtfertigung und wäre nur symbolisch begründbar.

    Missverständlich ist im Zusammenhang von KI auch der Begriff „Autonomie. Niemand möchte eine KI entwickeln, die sich nicht an die mitgegebenen Regeln hält, also sich selbst die eigenen Gesetze gibt. Zugleich erscheint gerade diese Fähigkeit, sich nicht vernünftig zu verhalten oder die eigene Maxime über die geltenden Gesetze zu stellen als ein wichtiger Aspekt menschlicher Freiheit. Inzwischen wird gar ein allgemeines Recht auf Rechtsverstoß für erforderlich angesehen, um menschliche Freiheit im Zeitalter lückenloser Kontrolle zu bewahren. In der Tat sind die bestehenden Verbote nicht unter der Annahme geschaffen worden, dass wirklich jeder Verstoß sanktioniert wird. Man denke an Beleidigungen im Wirtshaus, Fußgängerampeln in der Nacht oder das Rücksichtnahmegebot der Straßenverkehrsordnung. Es ließen sich schon heute Ampeln so ausrüsten, dass eine Kamera bei Rot überquerende Fußgänger aufnimmt, diese mit Bilddatenbanken abgleicht, identifiziert und einen Bußgeldbescheid versendet. Allerdings scheint es für das Gemeinwesen sinnvoller, die Verbote zu überprüfen, als ihre Beachtung der autonomen Entscheidung des Einzelnen zu überlassen. „Autonome Entscheidungen stellen bei näherer Betrachtung meist Abwägungen auf Ebene übergeordneter Prinzipien dar und dies ist freiheitlichen Rechtssystemen bereits heute immanent. Auf die ersten autonomen KI werden wir dagegen noch sehr lange warten müssen.

    Schon in den 90er-Jahren wurde viel über die Automatisierung der Rechtsanwendung geforscht und debattiert. Einem menschlichen Richter wird das Streben nach „Gerechtigkeit zugestanden und die Kompetenz dies umzusetzen. Wissenschaftlich begründet ist das nicht und eine Überprüfung von Urteilen nach diesen Kriterien findet nur sehr eingeschränkt statt. Niemand stellt das Rechtsystem in Frage, wenn der Bundesgerichtshof eine jahrzehntealte Rechtsprechung aufgibt und einen Sachverhalt plötzlich ungleich zu vorher beurteilt (bspw. BGH Urt. v. 07.09.2017 – III ZR 71/17: zum immateriellen Schadensersatz bei hoheitlichen Eingriffen) oder wenn ein Amtsrichter eine besonders harte Strafe zur Abschreckung ausspricht, ohne eine entsprechende Wirkung nachweisen zu können. Würde dasselbe einer KI zugestanden? Es wird argumentiert, die KI habe kein Mitgefühl oder sei nicht in der Lage nach höherrangigen Prinzipien zu entscheiden. Beides erscheint derzeit noch ungeklärt. Aber der Mensch ist hinsichtlich seiner Entscheidungen noch mehr „Black Box als eine KI, weil niemand feststellen kann, was einen Richter tatsächlich zu seinem Urteil bewogen hat. Die KI dagegen könnte analysiert werden. Wir erwarten zwar, dass der Richter seine Strafen an Gesetz, Gerechtigkeit und Mitgefühl orientiere. Überprüft werden im Rechtszug aber nicht die inneren Gründe des Richters für seine Entscheidung, sondern allein der Urteilstext. Das Urteil mag im Rechtsweg durch eine neue Entscheidung ersetzt werden und der Text wird auf die Einhaltung der Regeln des Rechtssystems überprüft. Inwieweit das Urteil auf Vorurteilen, schlechter Laune oder Boshaftigkeit basiert, wird aber nicht überprüft, solange sich das Gericht an die bekannten Regeln zum Verfassen des Textes hält. Eine Richter-KI dagegen übersähe wohl keine Norm, kein Urteil und kein Argument der Anwälte. Sie ließe sich außerdem wissenschaftlich analysieren und auf unerwünschte Vorurteile testen.

    Von dort ist es nur ein kleiner Schritt zu der Frage nach dem Erfordernis der Schaffung einer digitalen Person. Ob es Sinn macht, einer KI Rechte zuzuerkennen, die eine Person genießt, (bspw. Recht auf körperliche Unversehrtheit, Eigentum, Willensfreiheit, Teilhabe am Rechtsverkehr) wird aktuell beim Urheberrecht diskutiert (siehe Matthias Hartmann/Dr. Claudia Ohst – Kap. 4). Nach hiesigem Verständnis können nur Menschen Werke schaffen. Schon die Werke anderer Lebewesen sind nicht anerkannt. Bei Robotern damit anzufangen liegt fern.

    Unser gesamtes Rechtssystem ist auf Menschen ausgerichtet. Eine KI als beteiligte Person darin aufzunehmen wäre ein komplexes Unterfangen. Die Mechanismen, die dieses System aufrechterhalten, sind von Menschen für Menschen entwickelt. Vom Vertragsrecht über das Arbeitswesen, den Datenschutz, das Immaterialgüterrecht und die haftungs- oder strafrechtliche Verantwortlichkeit sind alle Regeln so sehr mit menschlichen Bedürfnissen, Fähigkeiten und Mängeln verwoben, dass es wohl nur eine KI schaffen könnte, das vernünftig aufzulösen.

    In den eben genannten Rechtsbereichen wirft der Einsatz von KI aber schon heute viele praktische Fragen auf. Deren Beantwortung ist dieses Buch gewidmet.

    Den Autorinnen und Autoren des Buches danke ich für ihre schnelle Mitwirkung bei den sehr aktuellen Themen und für ihre Geduld. Ich freue mich sehr, so viele fundierte und gut lesbare Beiträge mit Bezug zur Praxis herausgeben zu dürfen. Bedanken möchte ich mich außerdem bei unseren wissenschaftlichen Mitarbeiterinnen, die dieses Buch möglich gemacht haben: Elisa Dittrich, Celine Zeck und vor allem Kerstin Zimmermann.

    Matthias Hartmann

    Berlin, Deutschland

    Inhaltsverzeichnis

    1 Technische Grundlagen 1

    Florian Hoppe

    1.​1 Von der Mustererkennung zur „Autonomie" 1

    1.​1.​1 Verarbeitung der Sensordaten 2

    1.​1.​2 Planung von Handlungen 3

    1.​1.​3 Ansteuerung der Aktoren 4

    1.​1.​4 Lernen 5

    1.​1.​5 Bestimmung von Zielen 6

    1.​2 Technische Grundlagen 6

    1.​2.​1 Regelbasierte Systeme 7

    1.​2.​2 Maschinelles Lernen (ML) 9

    1.​2.​3 Gemeinsamkeiten der maschinellen Lernverfahren 18

    1.​3 Anwendungsbereic​he der KI-Methoden 22

    1.​3.​1 KI für die Verarbeitung der Sensordaten 22

    1.​3.​2 KI für die Planung von Handlungen 23

    1.​3.​3 KI für die Ansteuerung der Aktoren 25

    1.​4 Ausblick 25

    Literatur 28

    2 Künstliche Intelligenz im Zivilrecht 29

    Matthias Hartmann

    2.​1 Künstliche Intelligenz und Vertragsschluss 29

    2.​1.​1 Einsatz einer KI beim Abschluss von Verträgen 29

    2.​1.​2 Ausblick 47

    2.​2 Verträge zur Erstellung oder zum Einsatz von Künstlicher Intelligenz 47

    2.​2.​1 Einführung 47

    2.​2.​2 Vertragstypologi​sche Einordnung der Beauftragung von Software-Erstellung 48

    2.​2.​3 Lizenzierung von KI oder deren Bestandteilen 52

    2.​2.​4 Bestimmungen zur Soll-Leistung 60

    2.​2.​5 Regelungen zu den Trainingsdaten 71

    2.​2.​6 Zugang zu Daten und Programmversione​n, Regelungen zu Dokumentation, Darlegungs- und Beweismitteln, Exit-Vereinbarung 80

    2.​3 KI und Haftung 82

    2.​3.​1 Einführung 82

    2.​3.​2 Vertragliche Haftung 85

    2.​3.​3 Deliktische Haftung 94

    Literatur 113

    3 Haftung am Beispiel automatisierter Fahrzeuge 117

    Lennart S. Lutz

    3.​1 Einleitung 117

    3.​2 Grundstrukturen der Straßenverkehrsh​aftung 119

    3.​3 Haftung des Halters 120

    3.​4 Haftung des Fahrers 121

    3.​4.​1 Fahrerpflichten bei der Benutzung automatisierter Fahrzeuge 122

    3.​4.​2 Wegfall des Fahrers als Haftungssubjekt:​ Auswirkungen auf das Haftungssystem 126

    3.​5 Haftung des Herstellers:​ Sicherheit neuer Technologien 128

    3.​5.​1 Staatliche Zulassung oder Genehmigung 129

    3.​5.​2 Aktueller Stand von Wissenschaft und Technik 132

    3.​5.​3 Neueinführung innovativer Produkte:​ Sicherheitsmaßst​ab 134

    3.​6 Automatisierte Fahrzeuge:​ Globale Auswirkungen im Haftungssystem und haftungsrechtlic​he Letztverantwortu​ng 136

    3.​6.​1 Haftungsquote zwischen Unfallbeteiligte​n:​ Betriebsgefahr 137

    3.​6.​2 Haftungsverteilu​ng zwischen Pflichtversicher​ung und Hersteller 138

    3.​7 Fazit:​ Brauchen wir neue Gesetze?​ 139

    Literatur 140

    4 Künstliche Intelligenz im Immaterialgüterr​echt 143

    Matthias Hartmann und Claudia Ohst

    4.​1 Welche Bestandteile einer KI kommen für den Rechtsschutz in Betracht?​ 143

    4.​2 Urheberrecht 145

    4.​2.​1 Schutz als Computerprogramm​ 147

    4.​2.​2 Schutz als Datenbank oder Datenbankwerk 150

    4.​2.​3 Schutz der KI als Werk eigener Art 153

    4.​2.​4 Können KIs Urheber sein?​ 155

    4.​3 Patentrecht 160

    4.​4 Schutz als Geschäftsgeheimn​is 162

    Literatur 163

    5 Datenschutz 165

    Bernhard Kloos und Johanna Schmidt-Bens

    5.​1 Einführung, Problematik, Grundsätze 165

    5.​2 Rechtsgrundlagen​ für die Nutzung von personenbezogene​n Daten für KI-Training 170

    5.​2.​1 Definition personenbezogene​ Daten 171

    5.​2.​2 Verbot mit Erlaubnisvorbeha​lt 172

    5.​2.​3 Datenminimierung​, Anonymisierung und Pseudonymisierun​g 183

    5.​2.​4 Zweckbindung, Zweckänderung 185

    5.​3 Automatisierte Einzelentscheidu​ngen 187

    5.​3.​1 Grundsätzliches Verbot der automatisierten Entscheidung 187

    5.​3.​2 Ausnahmen vom Verbot der automatisierten Entscheidung (Art.​ 22 Abs.​ 2 und 3 DSGVO) 189

    5.​3.​3 Verarbeitung besonderer Kategorien von Daten/​Kategoriedaten (Art.​ 22 Abs.​ 4 DSGVO) 192

    5.​4 Transparenz, Informationspfli​chten, Betroffenenrecht​e 193

    5.​5 Datensicherheit, technische und organisatorische​ Maßnahmen 195

    5.​5.​1 Allgemeine Vorgaben zur Datensicherheit 195

    5.​5.​2 KI-spezifische Anforderungen an Datensicherheit, technische und organisatorische​ Maßnahmen 197

    5.​6 Datenschutz-Folgenabschätzun​g 202

    5.​6.​1 Übersicht Risikoklassifizi​erung von Datenverarbeitun​gen 203

    5.​6.​2 Durchführung der DatenschutzFolge​nabschätzung 204

    Literatur 206

    6 Datenschutz in öffentlichen KI-Forschungsprojek​ten 209

    Beatrix Weber

    6.​1 Forschungsprojek​te als rechtsfreier Raum?​ 209

    6.​1.​1 Rechtsrahmen Forschung 209

    6.​1.​2 Gute wissenschaftlich​e Praxis 212

    6.​1.​3 Forschungsdatenm​anagement 217

    6.​2 Herausforderunge​n beim Datenmanagement in Forschungsprojek​ten 219

    6.​2.​1 Zugang zu Daten 219

    6.​2.​2 Kosten der Daten und Lizenzbedingunge​n 220

    6.​2.​3 Rechte an Daten 223

    6.​2.​4 Verwertung und Nachnutzbarkeit 224

    6.​3 Datenschutz 226

    6.​3.​1 DSGVO, BDSG und Landesdatenschut​zgesetze 226

    6.​3.​2 Verantwortlicher​ der Datenverarbeitun​g 228

    6.​3.​3 Datenschutzkonze​ption 229

    6.​3.​4 Datenschutz-Folgenabschätzun​g 233

    6.​3.​5 Implementierung und Prozessmodellier​ung 235

    6.​4 Zusammenfassung 236

    Literatur 237

    7 Künstliche Intelligenz im Arbeitsrecht 239

    Jörg Hennig und Anika Nadler

    7.​1 Einführung 239

    7.​2 Benachteiligung nach dem AGG 240

    7.​2.​1 Benachteiligung durch KI am Beispiel des Bewerbungsverfah​rens 240

    7.​2.​2 Ausblick 244

    7.​3 Mitbestimmung nach dem BetrVG 245

    7.​3.​1 Auskunftsanspruc​h gemäß § 80 Abs.​ 2 BetrVG 245

    7.​3.​2 Mitbestimmung nach § 87 BetrVG 249

    Literatur 256

    8 Künstliche Intelligenz und das Strafrecht 257

    Christian Haagen und Anna Lohmann

    8.​1 Neue Herausforderunge​n für das Strafrecht?​ 257

    8.​2 Strafrechtliche Verantwortung beim Einsatz Künstlicher Intelligenz 258

    8.​2.​1 Künstliche Intelligenz:​ Anwendungsfälle der Mustererkennung 258

    8.​2.​2 Problemfelder der strafrechtlichen​ Produkthaftung 261

    8.​2.​3 Der „Aschaffenburger Fall" 294

    8.​2.​4 Fragen der Zulassung am Beispiel von Fahrzeugen 302

    8.​3 Neue Regelungen für KI?​ 303

    Literatur 304

    © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2020

    M. Hartmann (Hrsg.)KI & Recht kompaktIT kompakthttps://doi.org/10.1007/978-3-662-61700-7_1

    1. Technische Grundlagen

    Florian Hoppe¹  

    (1)

    Berlin, Deutschland

    Florian Hoppe

    Email: florian.hoppe@ymail.com

    Dr. Florian Hoppe

    ist unabhängiger Berater und IT-Projektleiter zum Thema KI und Datenanalyse, wohnhaft in Berlin und tätig in der DACH-Region Seit seiner Promotion vor 15 Jahren im Bereich KI und Robotik war er als Entwickler, Manager und Firmenmitgründer immer wieder daran beteiligt, innovativste Software bei Startups, KMUs und Konzernen in Produktion zu bringen. Diese Bandbreite an Erfahrungen helfen ihm, seinen Kunden in der stark Hype-getriebenen IT-Welt den Überblick zu vermitteln, um pragmatisch passgenaue Lösungen zu finden.

    1.1 Von der Mustererkennung zur „Autonomie"

    Systeme der künstlichen Intelligenz lassen sich wie jedes technische System am besten anhand ihrer Einzelteile erklären. Die für diese Teile eingesetzten KI-Techniken lernt man umfassend kennen, wenn man die bereits existierenden Systeme mit dem größten Grad an Autonomie betrachtet. Aktuell sind das (kleine) elektromechanische Roboter oder Simulationen davon, die ganz überwiegend in den Fluren von Robotik-Lehrstühlen oder deren virtuellen Pendants autonom agieren.

    Diese Systeme haben grundsätzlich drei Komponenten gemein: Sensoren, Aktoren und eine oder mehrere Recheneinheiten, die auf Grundlage der Signale der Sensoren die Aktoren so ansteuert, dass das System autonomes Verhalten zeigt d. h. eine Wechselwirkung zur (virtuellen) Welt entsteht. Der ganz entscheidende Teil der Software dieser Recheneinheiten verwendet Methoden der KI. Um diese zu verstehen, betrachtet man am besten die verschiedenen Aufgaben, die die Software eines autonomen Systems lösen muss.

    1.1.1 Verarbeitung der Sensordaten

    In verschiedenen Verarbeitungsschritten werden die Sensordaten so gefiltert, dass die wahrgenommene Umwelt zunehmend abstrakter durch die Software abgebildet wird. Die kontinuierlich auslesbaren, analogen Sensoren werden in diskrete, digitale Daten überführt: so wird z. B. in einer Digitalkamera eine Lichtwelle eines eingeschränkten Bereiches des sichtbaren Wellenspektrums auf einem bestimmten Quadratmikrometer eines CCD-Chip danach bemessen, welche Stärke sie auf einer Skala von 0-255 in einem Zeitintervall von wenigen Hundertstelsekunden aufweist. Mit einer gängigen Kamera, die mit 30 Hz Bildfrequenz und 1600x1200 Pixeln Auflösung arbeitet, ergibt das pro Sekunde ca. 173 Millionen einzelne, voneinander unabhängige Messwerte.

    Zusammengenommen mit den Datenströmen aus Mikrofonen, Gyroskopen zur Lagebestimmung, GPS-, Druck- und Temperatursensoren müssen leicht hunderte von Millionen von Messwerten pro Sekunde so ausgewertet werden, dass das System „versteht, in welcher Umgebung es sich befindet und wie es darauf reagieren soll. Die große technische Hürde besteht darin aber nicht so sehr in der Masse der Daten, sondern vielmehr in der großen Varianz wie sich die äußere Welt in den internen Messwerten abbildet. Beim Beispiel der Kamera bleibend kann man sich klarmachen, dass schon der Unterschied zwischen Mittags- oder Abendsonne das Abbild ein und desselben Gegenstandes so verändert, dass ein Algorithmus zur Objekterkennung unmöglich durch klassische Programmierlogik à la „wenn diese Region von Pixeln im Bild die und die Rot-Grün-Blau-Messwerte zeigen, sitzt eine Katze vor der Kamera zu realisieren ist.

    Die Aufgabe wird um ein ungemein Vielfaches schwieriger, wenn sich die beobachteten Gegenstände oder das System selbst bewegen, deren Abbilder also in verschiedenen Regionen des Bildes auftauchen, mehrere Gegenstände und Lichtquellen unterschiedlichste Schatten aufeinander werfen, sich die Formen ändern, z. B. ein Mund plötzlich ein Lächeln zeigt oder über Tage hinweg Barthaare um ihn herum wachsen.

    Ein autonomes System muss dennoch in der Lage sein, diese nicht im Vorhinein vorhersagbare Vielfalt der Welt, d. h. die Varianz der möglichen Messwerte auf kompakte Fakten der Art „Fußgänger in 5 m schräg links voraus oder „die Person Peter hat ‚Hallo‘ zu mir gesagt umzurechnen. Diese Transformation der Millionen von erfassten Messwerten in wenige (tausend) Einzelinformationen wird durch die Algorithmen der Sensorverarbeitung realisiert, die sich ganz wesentlich auf maschinelle Lernverfahren für die Erkennung von Mustern in den Daten stützen. Ohne so eine Filterung, ohne so eine Komprimierung der Messwerte könnte der nächste Verarbeitungsschritt der Planung von Handlungen nicht effizient realisiert werden.

    1.1.2 Planung von Handlungen

    Ist die Umwelt in ihrem Ist-Zustand im Vergleich zu den ursprünglichen Messwerten in (relativ) einfachen Fakten beschrieben, muss ein autonomes System einen Plan entwickeln, was es selbst tun kann, um sich und die Umwelt in einen bestimmten Soll-Zustand zu überführen.

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1