© JUNGE FREIHEIT Verlag GmbH & Co. www.jungefreiheit.de 39/07 21. September 2007

Pankraz,
J. Snapper und die Ethik der Roboter

Echt gespenstisch oder nur komisch? Das fragte sich Pankraz bei Lektüre eines Aufsatzes vorige Woche in Le Monde, wo über staatliche Pläne hier und da berichtet wurde, Industrieroboter künftig zu leibhaftigen Rechtssubjekten zu erheben. Sie sollen einerseits für belangbar und strafwürdig erklärt werden, andererseits wolle man ihnen aber "endlich" auch gewisse Menschenrechte zugestehen. In Südkorea arbeite man bereits an der Ausarbeitung eines "Ethikkatalogs für Roboter", um ihn anschließend dem Parlament zur Legalisierung zuzuleiten.

Der Drang zu solchem Tun ist nicht ganz unverständlich. Zwar hat die sogenannte KI-Forschung eindeutig an den Tag gebracht, daß computergesteuerte Roboter prinzipiell nicht in der Lage sind, sich "Algorithmen", d.h. genau definierte Handlungsvorschriften zur Lösung von Problemen, auszudenken und für die mathematische Logik einsetzbar zu machen, aber so etwas können die meisten Menschen ja ebenfalls nicht - und sind trotzdem Rechtssubjekte. Intelligenz und ethische Einstellung sind nicht dasselbe.

Zudem übernehmen Roboter immer häufiger Funktionen, wo es unübersehbar um ethische Entscheidungen geht. Man spricht in der Betriebswirtschaft in diesem Zusammenhang von DSS, "Decision Support System" (System zur Entscheidungsfindung). Die Manager sollen da nicht mehr selber entscheiden, sondern ihr Problem in den Computer einspeisen, der ihnen dann nicht nur einen gewissen Bestand von Daten liefert, sondern die Entscheidung selbst gleich mit. Der Roboter wird zum Entscheidungsträger. Nur: Wenn es schiefgeht, war bisher nicht der Roboter verantwortlich, sondern der Manager, der ihn einsetzte. Das soll sich offenbar ändern.

Schon in den neunziger Jahren plädierten amerikanische Arbeitsrechtler wie William Bechtel oder John Snapper energisch für eine gründliche "Ethisierung der Roboterbranche"; freilich ging es damals nur um Firmen-, nicht um genuine Roboter-Kriminalität. Die Roboterhersteller, so Bechtel und Snapper, sollten per Gesetz generell mit einer Versicherungsprämie gegen mögliche "Verbrechen" ihrer Produkte belegt werden. Dazu sei es allerdings nötig, den Computer/Roboter klipp und klar als Rechtssubjekt zu behandeln.

Zitat Bechtel: "Nimmt man den Roboter als einen legal Handelnden, dann wird es viel einfacher für die geschädigte Partei, Entschädigungen anzustreben. Der Rechtsprozeß kann beträchtlich vereinfacht werden." John Snapper berief sich seinerzeit sogar auf Aristoteles, auf dessen berühmte Theorie von der "überlegten Wahl". "Schon bei Aristoteles", so Snapper, "entsteht Verantwortung aus dem Abwägen unterschiedlicher Alternativen und Bedingungen. Das sollte man bedenken."

Aber genau hier, findet Pankraz, ist prinzipieller Einspuch fällig. Denn der Roboter ist von seinen Herstellern ja immer auf Optimierung programmiert, im Kontext dessen, was die Hersteller mit ihm bezwecken. Die "überlegte Wahl" bei Aristoteles hingegen ist keineswegs auf solche Optimierung aus. Ihr Kriterium besteht in der letztlich freien Entscheidung, die auch von willkürlichen Einfällen oder von Haß oder Liebe usw. angeleitet werden kann.

Roboter üben nie und nimmer reflexive, sich selbst reflektierende Bewußtseinsprozesse aus, sie berücksichtigen weder das Selbst des Handelnden noch seine Einbettung in den Kontext anderer Handelnder, sie sind gegenüber Sozialität und Moralität blind. Das ist eben die fundamentale Differenz zwischen Mensch und Maschine: diese ist, und sei sie noch so raffiniert konstruiert, ein seelenloser Automat, der ein eingespeistes Programm abspult; jener kann sich irren oder aus Leidenschaft bewußt gegen das Gesetz verstoßen, doch eben das macht seine Menschlichkeit aus.

Experten, die die Maschinen so lieben, säuseln bedeutungsvoll von den "Entscheidungsbäumen", die man den Robotern eingegeben habe, von der "Quantifizierung der Unsicherheit" und von "oberen" bzw. "unteren Wahrscheinlichkeiten". Im Grunde aber läuft alles auf ein simples Sichdrücken der Manager vor der Entscheidung und ihren möglichen Folgen hinaus. Das ist des Pudels banaler Kern in der von Le Monde eröffneten Diskussion.

Roboter können weder das menschliche Gehirn noch gar seinen moralischen Sinn ersetzen. Was sie können, ist, uns Menschen gegebenenfalls manipulieren, dergestalt daß sie uns durch ihre unbezweifelbar gewaltigen Leistungen erst beeindrucken, anschließend einschüchtern und schließlich regelrecht geistig versklaven, indem wir also, statt selber zu entscheiden, automatisch computergestützte Pseudo-Entscheidungen nachvollziehen, uns also gewissermaßen selber versklaven.

Hat man sich übrigens in Südkorea und anderswo schon einmal ordentlich überlegt, was für Strafen man gegen Roboter verhängen will, die gegen den Ethikkatalog verstoßen? Freiheitsstrafen? Aber wie will man einem Roboter etwas wegnehmen, was er gar nicht hat? Er hat doch höchstens einen Entscheidungsbaum nebst Wahrscheinlichkeits-Generator. Dann also Höchststrafe, Todesstrafe, Außer-Dienst-Stellung, Stecker raus? Darüber würde  jeder echte Roboter nur lachen - wenn er lachen könnte.    

Nein, wenn schon Menschenrechte ohne Menschen, dann lieber für den TÜV statt für Roboter, so wie es unser deutscher DSS-Forscher Klaus Haefner früh schon vorgeschlagen hat. Haefner wollte die Verantwortung nicht entmenschlichen, sondern sie lediglich innerhalb der Gesellschaft verschieben. Sein Clou war die Schaffung eines "Informationstechnischen Überwachungsvereins", eines TÜV der Wissensorganisatoren gewissermaßen, der jeweils nach intensiver Prüfung neuer Produkte ein  ethisches Freigabezeichen auf sämtliche Systeme und Datenbanken inklusive Roboter zu stempeln hatte.

Aber wie zieht man einen TÜV als solchen zur Rechenschaft, falls etwas schiefgeht? Am Ende wiese wohl auch Haefners Vorschlag nur den (Um-)Weg in die totale Verantwortungslosigkeit.


Versenden
  Ausdrucken Probeabo bestellen