Startseite » Smart Factory »

Rechtliche Herausforderungen für Autonome Systeme und KI

NetLaws Konferenz
Rechtliche Herausforderungen für Autonome Systeme und KI

Die NetLaws, eine Konferenz für Recht, Gesellschaft & Industrie in der digitalen Welt, fand Ende Februar 2018 zum zweiten Mal statt. Etwa 160 Teilnehmer diskutierten rechtliche Spannungsfelder in den Bereichen Industrie 4.0, E-Health und Smart Mobility: Wer ist etwa verantwortlich, wenn kognitive Systeme das Falsche lernen und dann jemanden verletzen?

Tobias Meyer ist freier Mitarbeiter der elektro AUTOMATION

Der Roboter selbst wird auch in Zukunft nicht haftbar gemacht werden können, in diesem Punkt ist sich Eric Hilgendorf schon einmal sicher. „Die NetLaws stellt die Vernetzung wichtiger Akteure in den Fokus, um die Identifizierung gemeinsamer Herausforderungen und die Erarbeitung tragfähiger Lösungsansätze zu ermöglichen. Insbesondere haftungs- und datenschutzrechtliche Fragen im Zusammenhang mit autonomen, selbstlernenden Systemen spielen derzeit eine große Rolle. Die damit angedeuteten Herausforderungen werden uns in den kommenden Jahren noch intensiv beschäftigen, da die hierfür nötigen rechtlichen Lösungsansätze erst noch entwickelt werden müssen“, so Hilgendorf, Leiter der Forschungsstelle RobotRecht an der Uni Würzburg und wissenschaftlicher Leiter der NetLaws.

Udo Di Fabio, Richter des Bundesverfassungsgerichts a.D. und Direktor des Forschungskollegs normative Gesellschaftsgrundlagen der Universität Bonn erklärt in der Eröffnungskeynote, die aktuellen Umbrüche rund um Industrie 4.0 und selbstlernende Maschinen seien nicht vergleichbar mit denen, als Muskelkraft an die Dampfmaschine delegiert oder Berechnungen durch Computer um ein vielfaches beschleunigt wurden. Denn künftig werde eine zentrale Eigenschaft des Menschen ersetzt: seine Urteilskraft. Diese zieht aber auch den Begriff der Verantwortung nach sich, weshalb die EU-Kommission darüber nachdenkt, ob man kognitiven Systemen und künstlicher Intelligenz auch Rechtspersönlichkeit verleihen sollte. Die Frage, wer für das künftige Handeln von solchen Maschinen gerade stehen muss, stellen sich Ingenieure immer häufiger, schließlich könne man ja nicht wissen, wie sie sich entwickeln würden.

Altes Eisenbahn-Recht passt auch heute

Laut Di Fabio sind die Produkthaftung sowie die Gefährdungshaftung aber bereits gut funktionierende rechtliche Mittel, die nur entsprechend modifiziert werden müssten – letztere wurde bereits für die zu Beginn des 20. Jahrhunderts immer mehr Unfälle verursachende Eisenbahn eingeführt. Prinzipiell sagt sie aus, dass für Schäden aus einer erlaubten Gefahr, etwa dem Betrieb einer gefährlichen Maschine, derjenige verantwortlich ist, der sie betreibt. Am Beispiel Eisenbahn wurde klar, das der Lokführer in den seltensten Fällen bremsen und daher nicht haften kann, bleibt nur der Bahnvorstand. Die Änderung des Rechts trug so zu einem erheblichen Anstieg der Sicherheit bei, da nun Klarheit herrschte und der Betreiber vielerorts Bahnübergänge und Warnschilder einrichtete. Ähnlich ist es beim Kfz im Straßenverkehr, hier ist der Halter verantwortlich: Auch beim Paradebeispiel Kind-folgt-Ball zahlt seine Haftpflichtversicherung alle Schäden, obwohl er sich vorbildlich verhalten hat und ihm strafrechtlich keinerlei Schuld angelastet werden kann, er muss nicht einmal persönlich gefahren sein. Ähnliche Verantwortung tragen die Betreiber von Strom- und Gasleitungen oder Atomkraftwerken. Auch sie sind generell gefährlich, aber von der Gesellschaft gewollt und akzeptiert, weshalb mit der Gefährdungshaftung ein passender Rechtsrahmen geschaffen wurde, der den Betreiber im Schadensfall haftbar macht und ihn so zur Umsetzung höchstmöglicher Sicherheit animieren soll.

Wie bewusst sich auch der Gesetzgeber der notwendigen Reaktion auf neue Technologien ist, verdeutlicht die Schaffung der weltweit ersten Ethikregeln für das Autonome Fahren, die unter Di Fabios Vorsitz entwickelt und im Sommer 2017 vorgestellt wurden: „Als das Ministerium dafür bei mir angefragt hatte, wollte ich erst nicht glauben, dass noch nirgends etwas Entsprechendes formuliert wurde. Es war aber tatsächlich so, daher habe ich zugesagt – wir haben hier Pionierarbeit geleistet.“ Die 20 Thesen sind als Grundlage zu verstehen, die nun etwa in der Debatte zwischen den G20-Verkehrsministern vertieft werden können. Neu ist hier laut Di Fabio auch, dass man sich rechtlich mit einer Technologie schon jetzt auseinander setzt, obwohl ihre Entwicklung noch nicht abgeschlossen ist: Hier kann man nun aktiv mit gestalten, statt später nur nachträglich zu regulieren. Laut Eric Hilgendorf ist deutsches Verkehrsrecht sogar „Exportschlager, das etwa in Japan und Korea nicht selten Wort für Wort übernommen wird.“

Das neue, autonome und eventuell auch kognitive Technik auf Unfallvermeidung ausgelegt ist, versteht sich von selbst. Eine der Thesen besagt daher auch, dass das Autonome Fahren die Verkehrssicherheit prinzipiell verbessern müsse: Wenn die Risikobilanz insgesamt positiv ist, stehen „technisch unvermeidbare Restrisiken“ dem nicht entgegen. Wenn ein Unfall aber nicht mehr vermeidbar ist, würden sich laut Di Fabio ethische Fragen stellen: Links ein spielendes Kind, rechts ein totkranker 95-Jähriger, in einer Zukunftsvision könnte dessen digitale Krankenakte für das Autonome Auto in Millisekunden verfügbar sein. Dennoch darf das Fahrzeug hier nicht abwägen, es muss der Grundsatz gelten, dass alle Menschen gleich sind. Daher soll künftig auch dem Programmierer mehr auf die Finger geschaut werden, diskutiert wird eine neutrale Prüfinstanz, eine Art Algorithmus-TÜV und auch der aus der Mediziner-Welt bekannte Hippokratische Eid wird öfters genannt: Er besagt unter anderem, dass man Patienten nicht schaden dürfe und verbietet es, Behandlungen durchzuführen, für die man nicht über das nötige Spezialwissen verfügt. Auch in der Medizin ist dieser Eid nicht mehr als ein Ehrenkodex, er schafft aber noch immer ein gewisses Bewusstsein für das Wesen des Ärztestandes. Programmierern ebenso die Tragweite ihres Schaffens zu verdeutlichen, kann daher ein kleiner aber nicht unwichtiger Schritt in der Entwicklung ethisch vertretbarer autonomer Systeme sein.

Wissen, was die Maschine lernt

Bei vernetzten Maschinen mit verschiedenen Steuerungsleistungen und komplexen, selbstlernenden Systemen besteht derzeit die Herausforderung darin, wie die rechtliche Verantwortlichkeit hier gefunden werden soll. Als Beispiel wird häufig die von Microsoft entwickelte KI „Tay“ genannt: Der Chatbot sollte über Soziale Netzwerke mit jungen Menschen reden und so lernen, was die Millenials im Jahr 2016 umtreibt. Das Experiment musste bereits nach einem Tag abgebrochen werden, Tay gab – neben sehr viel oberflächlichem Geplänkel – auch rassistische Äußerungen von sich. Für einen Eingriff brauchte es hier keinen geschickten Hacker, sondern nur möglichst viele Schreihälse, ein kognitives System ist immer nur so gut wie seine Lehrer. Daher diskutiert man hier etwa, ob man den Entwicklern vorschreiben kann, den Lernrahmen auf den späteren Einsatzzweck hin zu begrenzen. Wenn ein künftiges kognitives Industriesystem mit Verfügung über Roboter und Maschinen aufgrund seiner gewonnen Erkenntnis jemanden verletzt, könnte es einen Schaden ohne Hafter geben – denn das System hat ja perfekt funktioniert, sein Schöpfer könnte derzeit nicht zur Verantwortung gezogen werden. Auch über diese Problematik wird aktuell diskutiert, eine entsprechende Gefährdungshaftung – wie oben am Beispiel Eisenbahn erklärt – könnte hier ebenfalls greifen.

Eine rechtliche Frage bei derartigen Systemen ist auch, wer den nun das Fahrzeug autonom oder die Produktionslinie selbstlernend gemacht hat? Der Fahrdienstleiter Uber etwa hat herkömmliche Fahrzeuge durch selbstentwickelte Technik autonom gemacht. Auf den ersten Blick wäre der Kfz-OEM damit produkthaftungstechnisch aus dem Schneider, laut Rechtsanwalt Justus Gaden könnte ein bereits existierender Präzedenzfall hier aber eine andere Richtung weisen: Ein Dritthersteller verkaufte eine eigene Verkleidung für Honda-Motorräder, die durch Verwirbelungen einen Unfall verursachte. Honda war laut Gericht haftbar, weil die potenziell gefährliche Modifikation bekannt war, man aber trotzdem keine Warnung oder einen Rückruf gestartet hat. OEMs – auch außerhalb des Automotive-Sektors – müssen sich künftig also eventuell rechtlich absichern, da ihre Systeme von Dritten intelligent gemacht und sie trotzdem haftbar sein könnten.

Bei großen, modulbasierten Industrieanlagen zweifelsfrei zu bestimmen, welches Element nun mit seiner Entscheidung der Verursacher eines Schadens ist, wird künftig auch eine aufwendige datentechnische Dokumentation erfordern. Die daraus wiederum resultierenden Probleme behandeln wir auch in der nächsten Ausgabe, der zweite Teil befasst sich rechtlich mit dem Thema Daten.

www.netlaws.de

Der Bericht der Ethik-Kommission des Bundesministeriums für Verkehr inkl. der 20 Thesen zum Autonomen Fahren:

www.hier.pro/a6d5i

Die NetLaws 2019 findet vom 19. bis 20. Februar 2019 wieder in Nürnberg statt.


Newsletter

Abonnieren Sie unseren Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Videos

Hier finden Sie alle aktuellen Videos


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de