Interview mit Oliver Bendel

Mein Staubsauger bremst auch für Marienkäfer oder: Warum lügende Bots bei der Frage nach Moral helfen.

Brauchen Kriegsdrohnen Moral? Müssen autonome Mähdrescher ethisch handeln? Was wäre, wenn ein Kunde seinem digitalen Assistenten Selbstmordabsichten anvertraut? Warum sind diese Fragestellungen nötig, wenn wir über künstliche Intelligenz nachdenken? Oliver Bendel (Jahrgang 1968) denkt darüber nach. Und lässt seinen Staubsaugerroboter für Insekten anhalten. Aber nicht für alle – aus Prinzip.

Der Ulmer (das an der Donau) studierte Philosophie und Germanistik sowie Informationswissenschaft und promovierte im Bereich der Wirtschaftsinformatik an der Universität St. Gallen. Seit 2009 arbeitet er am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW.

Sie beschäftigen sich u. a. mit Tier-Maschine-Ethik? Worum geht es da?

Bei der Maschinenethik geht es darum, Maschinen zu schaffen, die moralisch adäquat agieren und reagieren können. Ich versuche seit ein paar Jahren, Maschinenethik und Tierethik oder auch Tierschutz zusammenzubringen. Das bedeutet, ich versuche, moralische Maschinen zu "denken", manchmal auch zu bauen, die sich auf das Tierwohl richten, damit Tiere nicht verletzt oder beschädigt werden.

Es geht bei der Tierethik um Tiere, die fühlen können. Jetzt haben Sie einen Roboter mit dem schönen Namen Ladybird gebaut, der auch Marienkäfer schützen soll. Kann ein Marienkäfer denn tatsächlich fühlen?

Ein wichtiges Argument in der Tierethik ist seit Jeremy Bentham die Leidensfähigkeit von Tieren. Er hat postuliert, es gehe nicht darum, ob sie denken oder sprechen können, sondern darum, ob sie leiden können. Ich gehe noch einen Schritt weiter und schaue eher auf die Existenz von Tieren als auf Leidens- und Empfindungsfähigkeit. Ich sage nicht, dass man alle Tiere schützen und retten soll; wer Kakerlakenbefall hat im Haus, tut gut daran, die Kakerlaken zu beseitigen.

Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.

Aber gibt es universelle Moral?

Es gibt durchaus Verbindendes auf der ganzen Welt. In vielen Zusammenhängen ist eine universelle Moral aber gar nicht notwendig. Wenn mein Staubsaugerroboter saugt, möchte ich, dass er so saugt, wie ich auch saugen würde. Es besteht ein Interesse daran, Maschinen zu bauen, die sich Tieren gegenüber auf bestimmte Art und Weise verhalten. Ich möchte einen Mähdrescher haben, der das Rehkitz erkennt und vor ihm abbremst. Oder Windkraftanlagen, die sich ausstellen, wenn Fledermäuse und Vogelschwärme sich nähern. Ob Sie das moralisch begründen, mit der Betriebssicherheit oder mit dem Betriebsausfall, das sei dahingestellt. Oder autonome Autos, die Bremsungen vor bestimmten Tieren oder Ausweichmanöver vollziehen. Es gibt Schilder in Bezug auf Igelvorkommen und Krötenwanderungen und letztlich passiert nichts: Autofahrer fahren einfach weiter. Die Überlegung hier ist: Könnte man Autos bauen, die aus moralischen oder aus anderen Gründen selbständig für Tiere abbremsen?

Es geht nicht darum, Autos zu bauen, die stillstehen. Es bringt nichts, ein Auto zu bauen, das vor jedem Insekt bremst. Ich war mal auf Madeira. Nach einem Tag Herumfahren war das Auto voll mit Schmetterlingsflügeln. Das ist der Preis für Mobilität. Aber man kann ohne Weiteres Autos bauen, die auch vor Kröten bremsen würden, wenn dadurch anderen Verkehrsteilnehmern oder nachfolgenden Autos nichts passiert.

Ethik steht immer im kulturellen Kontext, abhängig von der Funktion der KI. Eine Kriegsdrohne wird einen anderen Maßstab anlegen als eben besagter Mähdrescher.

Worauf Sie zu Recht hinweisen: Es würde nicht funktionieren, allen Robotern auf der Welt die gleiche Moral beizubringen. Das funktioniert erstens nicht, weil es eben keine universelle Moral gibt, und zweitens nicht, weil verschiedene Robotertypen verschiedene Ansprüche stellen. Der Kampfroboter, der nicht tötet, ergibt keinen Sinn. Ein Pflege- oder Serviceroboter jedoch darf niemanden verletzen. Deshalb schaue ich mir relativ übersichtliche Bereiche an wie den Haushalt. Dort gibt es bestimmte Roboter wie den Saugroboter und für diesen Typ von Roboter kann ich eine bestimmte Moral definieren. Darin sehe ich kein Problem. Wenn jemand eine andere Moral hat, soll er sich einen anderen Saugroboter kaufen.

Bei der künstlichen Intelligenz, die die Deutsche Telekom entwickelt, handelt es sich um einen digitalen Assistenten, um einen Chatbot. Warum sollte man sich für ein komplett virtuelles Wesen mit Moral beschäftigen?

Wenn man autonome Systeme in der Kundenbeziehung einsetzt, dann müssen Sie schon überlegen, wie man sie gestaltet. Man sollte sie nicht so gestalten, dass sie die Nutzer beschimpfen, beleidigen, angreifen oder sagen: „Mir egal, wenn du dich umbringen willst, lass uns das Thema wechseln.“ Im Moment wird etwas blauäugig mit Chatbots umgegangen. Denn die Wenigsten legen zum Beispiel offen, aus welchen Quellen sie sich bedienen. Wenn ich Google Assistant frage: „Wer ist Rihanna?“, beginnt er mit den Worten: „Wikipedia sagt [...]“. Ich halte das für ein richtiges Verfahren, denn in diesem Moment gibt der Assistent seine Quelle preis. Dann kann ich entscheiden, ob ich dieser Quelle und damit dem Assistenten glaube oder nicht.

Sie haben bereits unmoralische und moralische Bots gebaut. Was war die Absicht?

Wir haben zwei Chatbots gebaut, den Goodbot und den Liebot oder Lügenbot. Der Goodbot erkennt Probleme des Benutzers, wenn sie sprachlich geäußert werden. Der Liebot hingegen lügt systematisch. Wir haben ihm maschinelle Strategien des Lügens beigebracht und bezeichnen ihn als unmoralische Maschine. Letzten Endes soll er wiederum dabei helfen, dass man verlässliche und vertrauenswürdige Maschinen entwickelt. Wir haben mit ihm bewiesen, dass man tatsächlich Maschinen beibringen kann, die Unwahrheit zu sagen. Der Liebot manipuliert Aussagen, die er für wahr hält oder die er aus sogenannten vertrauenswürdigen Quellen hat, mit verschiedenen Strategien. Man kann das alles im Bereich der Chatbots bauen.

Ich will nicht sagen, dass der Goodbot schon die beste Lösung ist, denn er produziert vielleicht neue Probleme. Vielleicht vertrauen die Leute einer solchen Maschine, die sich scheinbar moralisch verhält, zu sehr. Als letzten Eskalationspunkt macht unser Goodbot allerdings etwas Wichtiges, er gibt eben die Notfallnummer heraus. Wenn man autonome Systeme einsetzt, muss man sich intensiv mit der Gestaltung beschäftigen und sicherstellen, dass sie Leute weder psychisch noch physisch verletzen.

Aktuell macht es keinen Unterschied, ob ich zu Tinka sage: „Ey du, Vertragsverlängerung“, oder wenn ich sage: „Sehr verehrte Dame, wären Sie so freundlich und könnten mir bitte was zum Thema Vertragsverlängerung sagen?“ Züchten wir uns eine Kommunikationsverkürzung durch Bots?

Es könnte ein Problem sein, wenn wir Roboter oder Assistenten beliebig ansprechen und behandeln dürfen. Dieses Problem der Verrohung haben in Bezug auf Tiere schon antike Philosophen und auch Denker wie Kant gesehen. Sie haben argumentiert: Grundsätzlich dürfe man Tiere schon behandeln, wie man will, aber eigentlich doch nicht, weil wir dann verrohen und andere Menschen schlecht behandeln. Es war der Befreiungsschlag von Jeremy Bentham, der gesagt hat, es gehe um das Tier selbst. Übrigens gibt es auch Chatbots, die auf Beleidigung reagieren und sagen: „So nicht, benimm dich!“. Man kann ihnen das natürlich beibringen.

Prof. Dr. Oliver Bendel ist Experte in den Bereichen E-Learning, Wissensmanagement, Social Media, Mobile Business, Avatare und Agenten, Informationsethik sowie Maschinenethik


Wie bringt man einer Maschine Moral bei? Welche Formel hat Moral?

Grundsätzlich sind die meisten Bottypen regelbasiert. Man bringt ihnen bestimmte Regeln bei, die sie dann strikt befolgen. Man könnte sie auch mit Fällen füttern und dann Fälle abgleichen lassen. Ich persönlich habe Entscheidungsbäume entwickelt, in denen moralische Begründungen hinterlegt sind. Es gibt eine riesige Bandbreite, wie die Maschine moralische Entscheidungen treffen kann. Theoretisch könnte man sie auch mit den Likes auf Facebook verbinden und danach handeln lassen. Je nachdem, wie viele Likes es für die eine oder die andere Option gibt, handelt die Maschine. Beim Ladybird ist es ganz einfach. Sobald er etwas erkennt, das ein Marienkäfer ist, entscheidet er aufgrund einer hinterlegten Regel, dass er ihn nicht einsaugt. Bei den Modellierungen für Fahrerassistenzsysteme und autonome Autos ist das Ganze ein bisschen komplizierter. Da muss die Maschine verschiedene Fragen beantworten, wie groß ist das Tier, wie alt ist das Tier (soweit die Maschine es erkennen kann), wie gesund ist das Tier. Je nachdem, was geantwortet wird, kommt entsprechend am Ende die Entscheidung heraus: Vollbremsung, Normalbremsung oder Weiterfahrt. Wenn die Maschine beispielsweise erkennt, dass das Tier sehr klein ist, womöglich auch alt oder krank, dann fährt sie drüber. Ob das jetzt eine gute Moral ist, darüber lässt sich streiten. Aber man kann Moral konkretisieren und operationalisieren.

Bei der ganzen Diskussion um Tier-Maschine-Ethik, Mensch-Maschine-Ethik, wie sieht es denn aus mit Maschine-Maschine-Ethik? Auch Maschinen interagieren ja mit Maschinen?

Sie haben vorhin nach empfindungsfähigen und leidensfähigen Tieren eingeteilt. Es ist korrekt, bei Insekten streitet man sich darüber, ob sie leiden können oder nicht. Manche Experten sagen, Insekten können nicht leiden, und dazu würde auch der Marienkäfer gehören. Ich glaube trotzdem, dass Kakerlaken, Marienkäfer und andere Insekten bestimmte Interessen haben, vielleicht auch einen Lebenswillen. Das alles würde ich Maschinen absprechen. Maschinen sind keine Objekte der Moral. Ich glaube nicht, dass man sich Maschinen gegenüber moralisch verhalten muss. Sie haben vorhin das schöne Beispiel mit Verrohung gebracht. Danach ist der Mensch das Objekt der Moral, nicht die Maschine. Ich glaube auch, dass man Maschinen nicht beliebig behandeln sollte, aber nicht wegen der Maschine an sich, sondern wegen der Verrohung des Menschen. Vielleicht sollte man Maschinen trotzdem beibringen, sich pfleglich zu behandeln oder aufeinander Rücksicht zu nehmen. Aber das hat dann ökonomische und technische Gründe. Maschinen sollten gut zueinander sein, damit sie nicht kaputtgehen können.

Es gibt übrigens Roboterethiker, die für Rechte von Robotern eintreten. Wie sehen Sie das?

Im Moment sehe ich keine Möglichkeit, Robotern Rechte zuzugestehen. Das ergibt keinen Sinn, ich würde sogar vorschlagen, dass wir viele Robotertypen eher als Sklaven auffassen.

Ich würde eine robotische Existenz von einer tierischen unterscheiden. Ich glaube nicht, dass der Roboter einen Lebenswillen hat. Ich würde auch Pflanzen niemals Rechte zugestehen. Ich würde ihnen vielleicht Werte zugestehen, übrigens auch Bergen, aber Rechte nicht. Berge und Pflanzen können keine Rechte haben. Insofern ist der Roboter eher ein Berg als ein Tier.

Kommentare

Einen Kommentar schreiben

Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer