Mensch und Roboter arbeiten als Kollegen Hand in Hand: Das könnte schon bald Realität in vielen Fabrikhallen sein. Aber wie ist das Miteinander rechtlich geregelt? Wer hat Vorfahrt? Und brauchen wir neue Gesetze für den Umgang von Mensch und Maschine? Über solche Fragen denkt man an der Forschungsstelle RobotRecht der Universität Würzburg seit 2010 intensiv nach. Ein halbes Dutzend Juristen beteiligt sich unter anderem an einschlägigen Forschungsprojekten. Getrieben wird ihre Arbeit von den Megatrends Industrie 4.0 und Autonomes Fahren. Sven Hötitzsch ist Wissenschaftlicher Mitarbeiter der Forschungsstelle und erklärt den aktuellen Stand der Diskussionen.
Herr Hötitzsch, Isaac Asimov hat 1942 seine drei berühmten Robotergesetze formuliert. Welche Rolle spielen diese bei Ihrer Arbeit?
Asimovs Leitsätze gelten in ihrem Kerngehalt bis heute, werden allerdings etwas ausdifferenzierter betrachtet. Zunächst einmal haben wir heute noch keine wirkliche „Künstliche Intelligenz“ im industriellen Umfeld oder vollkommen selbstentscheidende Maschinen, mit denen wir interagieren. Juristisch steht darum heute noch das bekannte Risiko- und Haftungsrecht im Mittelpunkt unserer Arbeit. Aber die ersten Roboter haben die Schutzkäfige bereits verlassen und arbeiten direkt mit Menschen.
[testimonial id=“3472″]
Braucht man hier keine neuen Regeln?
[url_preview orientation=“right“ newtab=“true“]https://logistik-aktuell.com/2016/07/15/umfrage-logistik-4-0-roboter/[/url_preview]
Die kollaborativen Roboter sind ja mit vielen Sensoren ausgestattet, die gefährliche Kollisionen vermeiden sollen. Juristisch ist heute schon klar, dass hier jedes Risiko möglichst vermieden werden muss. Die Hersteller müssen also Abstände, Rotationsbewegungen oder Kräfte so bemessen, dass unter normalen Umständen nichts passieren kann. Zudem sollten die Unternehmen natürlich ihre Mitarbeiter schulen. Wenn doch etwas passiert, werden in vielen Fällen die Gerichte in Einzelfällen entscheiden müssen. Wir brauchen derzeit also keine grundlegende Gesetzesnovellierung – eine sukzessive Weiterentwicklung und Präzisierung des geltenden Rechts sollte zunächst genügen.
Ist denn heute immer klar, wer die Verantwortung für einen Unfall trägt?
Das kann im Einzelfall tatsächlich eine schwer zu entscheidende Frage sein. Nehmen wir einen autonomen Gabelstapler: Wenn er einen Software-Fehler hat und etwas passiert, gilt für den Hersteller die klassische Produkthaftung. Aber was geschieht, wenn der Nutzer das Programm individualisiert hat und danach ein Unfall passiert? Genau solche Fragen werden uns beschäftigen und von den Gerichten geklärt werden.
[selectivetweet float=“left“]Menschen- oder #Maschinenrecht: Wer #haftet eigentlich bei Unfällen?[/selectivetweet]
Nehmen wir einmal an, die Roboter würden uns immer ähnlicher. Brauchen wir dann irgendwann eine Art Menschenrechte für Roboter?
Das ist keine ganz abwegige Frage. Wenn wir solchen menschenähnlichen Robotern Pflichten wie in den Asimovschen Gesetzen auferlegen, ist es zumindest nicht vollkommen fernliegend, ihnen auch Rechte zuzubilligen. Darüber gibt es tatsächlich bereits Diskussionen unter Rechtstheoretikern und Philosophen. Bis das akut wird, dürften aber noch viele Jahre vergehen.
[highlight_area classes=“brand“ headline=““ button=““ button_link=““ button_target=“_blank“ icon=“true“]
Die drei Robotergesetze von Isaac Asimov
1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
[/highlight_area]
About the Author