Madi Delvaux

Elektronische Persönlichkeit

Diese Einleitung hat was:

A.   in der Erwägung, dass vom klassischen Pygmalion-Mythos der Antike über Frankensteins Monster von Mary Shelley und der Prager Golem-Legende bis zum „Roboter“ von Karel Capek, der dieses Wort geprägt hat, Menschen über die Möglichkeiten phantasiert haben, intelligente Maschinen zu bauen – in den meisten Fällen Androiden mit menschlichen Zügen;

YuMi – ein kollaborativer Zweiarmroboter von Joanneum Research

YuMi – ein kollaborativer Zweiarmroboter von Joanneum Research

B.   in der Erwägung, dass die Menschheit mittlerweile an der Schwelle einer Ära steht, in der immer ausgeklügeltere Roboter, Bots, Androiden und sonstige Manifestationen Künstlicher Intelligenz („KI“) anscheinend nur darauf warten, eine neue industrielle Revolution zu entfesseln, die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird, ist es für Gesetzgeber von entscheidender Bedeutung, sich mit sämtlichen Folgen dieser Entwicklung zu befassen;

Mit diesen beiden Feststellungen wird der „Entwurf einer Entschließung der Europäischen Parlaments mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik“ eröffnet. Es folgen weitere Punkte, in denen in Erwägung gezogen wird, was im Zusammenhang mit Robotik und Künstlicher Intelligenz in Erwägung gezogen werden kann. Es werden Grundsätze formuliert, auf denen ein allgemein gültiges Robotik-Gesetz beruhen kann (und ja, Isaac Asmivos „Robotergesetz“ wird ausdrücklich erwähnt und zitiert), es werden Haftungsfragen erörtert und Grundlinien zur Entwicklung der Robotik und Künstlichen Intelligenz zur zivilen Nutzung festgehalten.

Auf 26 Seiten unterbreiten der Rechtsausschuss des Europäischen Parlaments und Berichterstatterin Mady Delvaux den Abgeordneten und der Kommission ein in jeder Hinsicht lesenswertes Dokument: Weil es schlicht und einfach um eine der dringlichsten Fragen unserer unmittelbaren, mittel- und langfristigen Zukunft geht, darum, wie wir mit Künstlicher Intelligenz in allen ihren Erscheinungsformen umgehen.

Diese Debatte wird nach wie vor nur am Rande geführt, ist meist auf Teilaspekte reduziert und wird zudem von vielen nach wie vor als Science Fiction wahrgenommen. Hier nun haben die Abgeordneten bemerkenswertes geleistet: Es liegt ein verständlicher, lebensnaher Text vor, versehen mit höchst interessanten Anregungen.

Abgeordnete und Berichterstatterin Mady Delvaux

Abgeordnete und Berichterstatterin Mady Delvaux

Auch was die potentiellen physischen und moralischen Auswirkungen auf unsere Gesellschaft betrifft. So ventiliert der Ausschuss einen speziellen rechtlichen Status für Roboter, eine Art „elektronische Persönlichkeit“. „Zumindest dann, wenn es um den Schadenersatz geht. Das entspräche einem ähnlichen Modell, welches wir nun für Unternehmen haben“, sagt dazu Delvaux in einem Interview mit dem Aktuellen Dienst des EU-Parlaments. Ebenso beschäftigt sich der Ausschuss mit den emotionalen Bindungen, die Menschen zu Robotern aufbauen können. Delvaux: „Zunächst muss man den Menschen deutlich machen: Ein Roboter ist kein Mensch und wird nie einer sein. Ein Roboter kann vielleicht ein gewisses Einfühlungsvermögen zeigen, aber er kann sich nicht in jemanden hineinversetzen. Wir möchten keine Roboter wie in Japan, die wie Menschen aussehen. Wir haben eine Charta vorgeschlagen, die fordert, dass Menschen nicht emotional abhängig gemacht werden dürfen. Man kann physisch abhängig sein, wenn ein Roboter bestimmte Aufgaben übernimmt. Man sollte jedoch nie glauben, dass ein Roboter Gefühle haben kann.“

Das Dokument liegt vor. Die Abgeordneten haben die Basis für eine breite und sachliche Debatte geschaffen. Jetzt liegt es an der Öffentlichkeit, diese Chance aufzugreifen.

Es ist hoch an der Zeit. (fvk)

 

 

Isaac Asimovs „Robotergesetz“ (1942 als „Grundregeln des Roboterdienstes“ in der Kurzgeschichte „Runaround“ erstmals festgehalten und 1983 im Roman „Der Aufbruch zu den Sternen“ um die Regel Null ergänzt.)

Asmivos Regeln:

1) Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3) Ein Roboter muss seine Existenz beschützen, so lange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

0) Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

Photos: ©Joanneum Research/Bernhard Bergmann (1)|Wikimedia/LASP (1)