Lade Inhalt...

Künstliche Intelligenz und selbstständig handelnde Softwareagenten. (Partielle) Rechtssubjektivität de lege lata et ferenda

Seminararbeit 2019 19 Seiten

Leseprobe

Gliederung

A. Künstliche Intelligenz - Was ist das?

I. Schwache KI

II. Starke KI

III. Lernprozesse des Softwareagenten
1. Machine-Learning
2. Deep-Leaming

IV. Softwareagenten im heutigen Gebrauch

B. Lösung de lege lata

I. Digitale Willenserklärung
1. Willenserklärung des Softwareagenten?
2. Botenschaft
3. Blanketterklärung

II. Vertragliche Haftung

III. Deliktische Haftung des Verwenders

C. Vorschläge/Ansätze für Lösungen de lege ferenda

I. Rechtssubjektivität und Stellvertretung
1. Haftung nach § 179 BGB analog
2. Haftungsmasse des Softwareagenten

II. Regelwerk zur Interaktion mit Softwareagenten

III. Gefährdungshaftungstatbestand

IV. Ausblick auf die E-Personhood

D. Resümee

Literaturverzeichnis

Armbruster, Alexander: Künstliche Intelligenz fürjedermann, Frankfurta.M. 2018.

Beck, Susanne (Hrsg.): Jenseits von Mensch und Maschine, Baden-Baden 2012.

Bericht des Europäischen Parlaments mit Empfehlungen an die Kommission zu zivilrechtli chen Regelungen im Bereich Robotik (2015/2103(INL)), 27.01.2017, abrufbar auf: http:// www.europarl.europa.eu/doceo/document/A-8-2017-0005_DE.html?redirect#title8 (zuletzt zugegriffen am: 23.05.2019).

Borges, Georg: Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, 977, 982.

Cornelius, Kai: Vertragsschluss durch autonome elektronische Agenten, MMR 2002, 353, 358.

Garpentin, Justin: Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Ein satz Künstlicher Intelligenz, NJW 2019, 181, 185.

Garpentin, Justin: Vertragsschluss und vertragliches Verschulden beim Einsatz Künstlicher Intelligenz und Softwareagenten, Baden-Baden 2018.

Gitter, Rotraud/Lotz, Volkmar/Pinsdorf, Ulrich/Roßnagel, Alexander: Sicherheit und Rechts Verbindlichkeit mobiler Agenten, Datenschutz und Datensicherheit, Wiesbaden 2007 (zit. als: Bearbeiter, in: DuD 2007).

Giess, Sabine/Seelmann, Kurt (Hrsg.): Intelligente Agenten und das Recht, Baden-Baden 2016.

Günther, Jan-Philipp: Roboter und rechtliche Verantwortung, München 2016.

Hilgendorf, Eric (Hrsg.): Robotik im Kontextvon Recht und Moral, Baden-Baden 2014.

Keßler, Oliver: Intelligente Roboter - neue Technologien im Einsatz - Voraussetzungen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR 2017, 589, 594.

Kluge, Vanessa/Müller, Anne-Kahtrin: Autonome Systeme - Überlegungen zur Forderung nach einer „Roboterhaftung“, InTeR, Heft 1, 2017, 24, 31.

Lohmann, Melinda: Ein europäisches Roboterrecht - überfällig oder überflüssig?, ZRP 2017, 168, 171.

Mayinger, Samantha Maria: Die künstliche Person, Frankfurt a.M. 2017.

Müller-Hengstenberg, Claus/Krin, Stefan: Intelligente (Software-)Agenten: Eine Herausforde rung unseres Rechtssystems - Rechtliche Konsequenzen der „Verselbstständigung“ techni scher Systeme, MMR 2014, 307, 313.

Partridge, Derek: A new guide to Artificial Intelligence, New Jersey 1991.

Paulus, David/Matzke, Robin: Smart Contracts und das BGB - Viel Lärm um nichts? -, ZfPW 2018, 431, 465.

Säcker, Jürgen/Rixecker, Roland/Oetker, Hartmut/Limpberg, Bettina: Münchener Kommentar zum BGB, 8. Auflage, München 2018 (zit. als: Bearbeiter, in: MüKo-BGB).

Schirmer, Jan-Erik: Rechtsfähige Roboter?, JZ 2016, 660, 666.

Sester, Peter/Nitschke, Tanja: Software-Agent mit Lizenz zum ...?, CR 2004, 548, 554.

Sorge, Christoph: Softwaregenten - Vertragsschluss, Vertragsstrafe, Reugeld, Karlsruhe 2006.

Specht, Louisa/Herold, Sophie: Roboter als Vertragspartner? Gedanken zu Vertragsabschlüs sen unter Einbeziehung automatisiert und autonom agierender Systeme, MMR 2018, 40, 44.

Spindler, Gerlad/Schuster, Fabian (Hrsg.): Recht der elektronischen Medien, 3. Auflage, München 2015 (zit. als: Bearbeiter, in: RdeMedien).

Spiro, Karl: Die Haftung für Erfüllungsgehilfen, Bern 1984.

Teubner, Gunter: Elektronische Agenten und große Menschenaffen: Zur Ausweitung des Akteurstatus in Recht und Politik, ZfRSoz 27 (2006), 5, 30.

Weber, Robert/Kiefner, Alexander/Jobst, Stefan: Künstliche Intelligenz und Unternehmensführung, NZG 2018, 1131, 1136.

Teubner, Gunter: Digitale Rechtssubjekte?, AcP 218 (2018), 155, 205.

Bearbeitung

A. Künstliche Intelligenz - Was ist das?

Zuerst muss feststehen, was unter dem Begriff „Künstliche Intelligenz“ zu verstehen ist, bevor eine rechtliche Würdigung stattfinden kann. Nachfolgend wird beispielhaft an zentralen Begriffen und praktischen Einsatzmöglichkeiten erläutert, was man sich unter Künstlicher Intelligenz vorstellen kann.

Anhand der „Definition“ von Derek Partridge - „Defining AI is an exercise rather like nailing jello to a tree: with forethought, planning, and enough nails it ought to be doable, but it isn't“1 - merkt man deutlich, dass es unmöglich ist, Künstliche Intelligenz einheitlich zu definieren.

Der Begriff „Artificial Intelligence“ (dt.: Künstliche Intelligenz) wurde von John McCarthy im Jahre 1956 zur Dartmouth-Konferenz kreiert, dahinter verbarg sich die Forschung an und mit Computern, die über Sprachverständnis, Übersetzungsleistungen und Entscheidungsfähigkeit verfügen sollten.2 Heutzutage sind diese Eigenschaften schon selbstverständlich, wenn man allein daran denkt, wozu ein Smartphone in der Lage ist. Somit müssen an Künstliche Intelligenz und Autonomie höhere Anforderungen geknüpft werden. Hilfreich ist hierbei eine Einteilung in „schwache“ und „starke“ KI.

I. Schwache KI

Unter der schwachen KI versteht man Systeme, die die Fähigkeit besitzen Aufgaben auszuführen, bei denen der Einsatz eines Menschen als „intelligent“ bezeichnet werden würde, sie imitiert das menschliche Handeln und Vorgehen.3 So z.B. Übersetzen, Verstehen (s.o.). Diese Art der KI ist aufgrund ihrer Beschränktheit und Determiniertheit nicht Gegenstand der nachfolgenden Arbeit.

II. Starke KI

Die starke KI findet hingegen eigene Lösungen und geht nicht zwingend nach strikten Mustern vor, sondern kann auch aus der Umwelt „lernen“, sodass ihr Wissen (wie bei einem Menschen) stets erweitert wird. Sie verfügt quasi über

Vernunft.4 Softwareagenten5 sind auf (starker) KI basierte Programme, die autonom einen eingegebenen Auftrag bearbeiten, mit eigenen Methoden lösen und dem Verwender eine Antwort ausgeben bzw. weitere Handlungen in Gang setzen.6

Unter Autonomie versteht man, dass der Softwareagent in der Lage ist selbstständig Entscheidungen zu treffen, die nicht vorhersehbar bzw. vorherbestimmt sind.7 Dies ist offensichtlich ein beschränkter Autonomiebegriff, denn der Verwender wird den Softwareagenten in Betrieb nehmen müssen und ihm das Problem mitteilen, dass der Softwareagent lösen soll8 - in dieser Arbeit soll der Begriff ,Autonomie‘ lediglich auf die Entscheidungsfähigkeit bezogen werden. Kurzum sind Softwareagenten der „Körper“, in dem die KI das „Gehirn“ ist. In der nachfolgenden Problembearbeitung wird ausschließlich auf Softwareagenten eingegangen, da diese eine greifbare Schnittstelle für die Kommunikation mit Menschen aufweisen.

Gerade hier muss geklärt werden, wer für den - auf Künstlicher Intelligenz basierenden - Softwareagenten haftet, wenn es zu einem Schaden kommt. Und vor allem, ob der Softwareagent per se handeln darf, oder lediglich ein Übermittler des Menschen ist.

III. Lernprozesse des Softwareagenten

Wie oben festgestellt, zeichnet sich die starke KI eines Softwareagenten auch dadurch aus, dass dieser selbstständig lernen kann und nicht lediglich vom manuellen Dateninput durch Menschen abhängig ist.

Man unterscheidet zwischen zwei maßgeblichen Lernmethoden, nämlich Deep- Leaming und Machine-Leaming.

1. Machine-Learning

Machine-Learning bezeichnet den Prozess, in dem der Softwareagent, bzw. die KI im Softwareagenten, selbstständig aus ihm bereits bekannten Daten neue Schlüsse zieht und somit seine Wissensbasis erweitert.9 Der Vorgang ähnelt einer Transferleistung: Lernt das Kind, dass 1+2=3 ist, dann wird es irgendwann verstehen, dass 3-1=2 ist.

2. Deep-Leaming

Deep-Leaming geht über das Machine-Learning hinaus und verleiht dem Softwareagenten die Möglichkeit, ohne menschliche Eingabe, vollkommen selbstständig und selbst reflektierend neue Schlüsse zu ziehen, indem es sich sogenannter „Neuronaler Netze“ bedient, die der starken KI einprogrammiert wurden.10

Neuronale Netze sollen mit den Neuronen des menschlichen Gehirns vergleichbar sein und Verhaltensweisen analysieren und speichern.11 Diese Neuronen werden zu Beginn auf ein spezielles Verhaltensmuster trainiert, später zieht der Softwareagent aufgrund dieser Erstinformationen Rückschlüsse auf ähnliches Verhalten in seiner Umwelt, um eigenständig neue Methoden zu erlernen, die zu keinem Zeitpunkt vom Menschen vorgegeben werden. Die Entscheidung des Softwareagenten wird dann nicht mehr klar nachvollziehbar sein, wie es etwa oftbei menschlichen Entscheidungen der Fall ist.12

IV. Softwareagenten im heutigen Gebrauch

Heutzutage findet man noch keine Softwareagenten vor, die auf einer vollständig starken KI basieren, man ist jedoch nicht mehr weit von den Fähigkeiten einer starken KI entfernt.

Autonome Softwareagenten werden z.B. im High-Frequency-Trading eingesetzt. Hierbei werden minimale Kursunterschiede automatisch vom Softwareagenten analysiert, dieser entscheidet dann - ohne menschliches Zutun - ob, wo und wann Wertpapiere u.ä. ge- oder verkauft werden.13 Zu vergleichen sind diese Softwareagenten mit einem Börsenmakler, der in rasantem Tempo seine Geschäfte tätigt und mit den Jahren an Erfahrung sammelt, um daraus neues Wissen für künftige Entscheidungen zu generieren.

Für den Durchschnittsverbraucher, der nichts mit HFT zu tun hat, könnte Google Duplex als Softwareagent für den häuslichen Gebrauch bald nicht mehr hinwegzudenken sein. Duplex ist ein autonomer Sprachassistent (nicht Google Assistant!), der mit einer natürlichen Menschenstimme spricht, und hauptsächlich Termine für seinen Verwender buchen kann.14 Hierbei verhält sich Duplex am Telefon wie ein menschlicher Gesprächspartner, benutzt sogar Füllwörter (Hmm, Ehm, ...) und kann flexibel auf jegliches Verhalten des Gesprächspartners reagieren. Diese Technik stützt sich unter anderem auf einer großen Datenbasis und vor allem auf Neuronalen Netzen (s.o.), sodass hier schon beinahe von starker KI gesprochen werden kann, es jedoch i.E. noch nicht ist. Interaktionen von autonomer, starker KI und Außenstehenden gibt es in ihrer Höchstform noch nicht, jedoch nimmt der Fortschritt technischer Erfindungen immer mehr an Fahrt auf, sodass es vermutlich nicht mehr allzu lange dauern wird, bis erste marktreife Softwareagenten in einer hochgradig autonomen Form starker KI mit Außenstehenden interagieren werden.

Nun gilt es, die oben behandelten Verhaltensmuster und Fähigkeiten von Softwareagenten rechtlich - vor allem mit Blick auf die Zukunft - zu Würdigen. Es wird um die Frage gehen, ob Softwareagenten „handeln“ können, und ob sie Verträge für jemanden schließen können. Und wenn dies der Fall ist, was soll passieren, wenn dem Vertragspartner oder einem Dritten ein Schaden entsteht? Wer haftet?

B. Lösung de lege lata

Mit zunehmendem technischen Fortschritt und einer hinterherhinkenden Gesetzgebung wird man in der Rechtspraxis versuchen, mit den heute zur Verfügung stehenden Normen, befriedigende Ergebnisse zur Beantwortung der oben aufgeworfenen Fragen zu erzielen. Nachfolgend werden die populärsten Ansätze kritisch dargestellt.

I. Digitale Willenserklärung

Die Digitale Willenserklärung hat dort große Bedeutung, wo Verträge, zumindest auf einer Seite, selbstständig von Softwareagenten geschlossen werden.15 Fraglich ist, ob es sich hierbei um eine Willenserklärung des Softwareagenten handelt, oder dieser lediglich das Sprachrohr des Verwenders ist.

1. Willenserklärung des Softwareagenten?

Es tut sich zunächst die Frage auf, ob Softwareagenten eine Willenserklärung abgeben können.

Autoren, die einem Softwareagenten die Fähigkeit zusprechen, Willenserklärungen abgeben zu können, tun dies, um das Stellvertretungsrecht analog anzuwenden. Der Softwareagent sei dann der Stellvertreter des Verwenders und diesem seien die Folgen der Erklärung des Softwareagenten gemäß §§ 164 ff. BGB analog zurechenbar.16 Diese Auffassung geht davon aus, dass der Softwareagent in der Lage sei, selbstständig Willenserklärungen abzugeben, indem er mit einer entsprechenden Aussage einen Willen kundtue. Überdies sei nirgends im BGB geregelt, was genau eine Willenserklärung ist, oder dass sie nur von Personen abgegeben werden kann, hier wird insbesondere auf die sowohl objektive, als auch subjektive Auslegungsmethodik des BGB in §§ 133, 157 BGB verwiesen.17

Die Fähigkeit, Willenserklärungen abzugeben, soll den autonomen Software- agenten Vorbehalten bleiben. Automatisierte Algorithmen als „Hilfsmittel“ zum Vertragsschluss seien für eine Willensbildung zu determiniert.18 Gerade wenn man diese Differenzierung trifft, kommt man zu dem logischen Schluss, dass die Person, die sich des Softwareagenten bedient, gar nicht die vollumfängliche Macht über das Geschehen hat. Im Grundsatz scheint es so, als wäre der Softwareagent tatsächlich einem Stellvertreter - welcher eine eigene Willenserklärung für jemand anderen abgibt19 20 - gleichgestellt. Ein Softwareagent ist aber, mangels Anordnung im Gesetz, keine juristische und wegen seines Wesens selbst, keine natürliche Person, sodass er nicht rechtsfähig sein kann. Als argumentum e contrario zu § 165 BGB, wird deutlich, dass der Stellvertreter mindestens beschränkt geschäftsfähig - also auf jeden Fall rechtsfähig - sein 20 muss.

De lege lata scheidet dieser Ansatz somit aus, er wird jedoch unten als Lösungsansatz de lege ferenda behandelt.

[...]


1 Partridge, S.l.

2 vgl. Armbruster, S. 13f. mwN.

3 Günther, S. 25.

4 Keßler, in: MMR 2017, 589 (592); Günther, S. 25f.; vgl. Teubner, in: AcP 218 (2018), 155 (174).

5 Zum Begriff „Softwareagent“: Teubner, in: AcP 218 (2018), 155 (156).

6 Mayinger, S. 14 mwN.

7 Borges, in: NJW 2018, 977 (978).

8 Vgl. Hilgendorf, in: Beck, Jenseits von Mensch und Maschine, S. 120 mwN.

9 Weber/Kiefner/Jobst, in: NZG 2018, 1131 (1132); Paulus/Matzke, in: ZfPW 2018, 431 (442).

10 Paulus/Matzke, in: ZfPW 2018, 431 (442); Zech, in: Gless/Seelmann Intelligente Agenten und das Recht, 163 (171); Weber/Kiefner/Jobst, in: NZG 2018, 1131 (1132);

Specht/Herold: in: MMR 2018, 40 (41).

11 Günther, S. 27; Garpentin, in: NJW 2019, 181 (183f.).

12 Sorge, S. 117.

13 Vgl. § 2 Abs. 44 WpHG.

14 https://www.googlewatchblog.de/2018/05/google-duplex-der-assistant/ (zuletzt aufgerufen: 21.05.2019).

15 Sorge S. 23; vgl. auch Teubner, in: AcP 218 (2018), 155 (177).

16 Teubner, in: AcP 218 (2018), 155 ff.; Schirmer, in: JZ 2016, 660 ff.; Specht/Herold, in: MMR 2018, 40 (43).

17 Sorge aaO; Armbruster, in: MüKo-BGB Vor § 116 BGB Rn. 21.

18 Teubner, in: ZfRSoz 27 (2006), 5 (16); ders., in: AcP 218 (2018), 155 (179).

19 Schubert, in: MüKo-BGB § 164 BGB Rn. 19.

20 Schubert, in: MüKo-BGB § 165 BGB Rn. 11; Spickhoff, in: MüKo-BGB § 1 BGB Rn. 8.

Details

Seiten
19
Jahr
2019
ISBN (eBook)
9783346139184
ISBN (Buch)
9783346139191
Sprache
Deutsch
Institution / Hochschule
Justus-Liebig-Universität Gießen – Fachbereich 01
Erscheinungsdatum
2020 (März)
Note
17,00
Schlagworte
Künstliche Intelligenz Softwareagenten KI AI

Autor

Zurück

Titel: Künstliche Intelligenz und selbstständig handelnde Softwareagenten. (Partielle) Rechtssubjektivität de lege lata et ferenda