Die Robotergesetze (englisch Three Laws of Robotics) wurden von Isaac Asimov in seiner Kurzgeschichte Runaround (Astounding, 1942) als „Grundregeln des Roboterdienstes“ erstmals beschrieben.

Die Asimov’schen Gesetze lauten:

Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden.

Zivile Nutzung.

Konkrete Schritte zur Programmierung von Industrie- und Haushaltsrobotern können heute daraus nicht abgeleitet werden – hier gelten derweil verschiedene Sicherheitsregeln (Maschinenrichtlinie).

Militärische Nutzung.

Roboter im militärischen Bereich (automatische Waffensysteme, Smart Bombs, Drohnen, Kampfroboter) folgen diesen Gesetzen nicht. Siehe auch Sicherheit von Robotiksystemen.

Nulltes Gesetz:

In den Romanen Der Aufbruch zu den Sternen und Das galaktische Imperium (OT: Robots and Empire) wurde ergänzend das „Nullte Gesetz“ abgeleitet, und die anderen Drei Gesetze entsprechend modifiziert:

  • Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
  • Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

Galt in der ersten Version der Asimov’schen Robotergesetze noch der einzelne Mensch als die höchste zu beschützende Instanz, so steht in den neuen vier Robotergesetzen die Menschheit über dem einzelnen Menschen. Besonders hier wird die Konsequenz aus dem hierarchischen Aufbau der Gesetze deutlich, da ein Roboter die Unversehrtheit einer Masse von Menschen derjenigen eines Individuums vorziehen muss. Die Einführung des nullten Gesetzes ist deshalb als kritisch anzusehen, da es Robotern die Möglichkeit gibt, einzelne Menschen absichtlich zu verletzen oder gar zu töten, um die Menschheit zu beschützen. Dies wirft die grundsätzliche Frage auf, inwieweit es Robotern erlaubt sein sollte, Menschen zu schädigen.

Ein solches Gesetz würde ein moralisches Dilemma ähnlich dem Trolley-Problem aufwerfen und würde nach dem Urteil des Bundesverfassungsgerichts zum Luftsicherheitsgesetz 2005 gegen das Grundgesetz für die Bundesrepublik Deutschland verstoßen.

Sicherheit:

Scheinen die Gesetze auch klar, so sind sie doch nicht „narrensicher“, insbesondere weil sie vom Menschen eben menschlich und damit unvollständig betrachtet werden. Im Film I, Robot sieht man zum Beispiel, dass die drei Gesetze nicht ausschließen, dass Roboter die Macht übernehmen, um die Menschheit vor sich selbst zu schützen. Dies geschieht, da das sehr hoch entwickelte Roboterhirn V.I.K.I. aus den ursprünglichen drei Gesetzen das nullte Gesetz ableitet, welches nach einiger fast schon philosophischer Überlegung tatsächlich aus den drei Grundgesetzen resultieren kann. Die Robotergesetze führen, wenn sie nicht in ihrer Gesamtheit betrachtet werden, zu Paradoxien, die in verschiedenen literarischen Werken und in Filmen dargestellt wurden.

Als Rechtsnorm betrachtet, zeigt die dogmatische Auslegung der Robotergesetze, dass ihre Implantierung in entsprechende Einheiten zu nicht auflösbaren Widersprüchen führt.

Neue Gesetze:

In der Trilogie um den Roboter Caliban (das Konzept zu den Romanen um Caliban stammt noch von Asimov selbst, wurde jedoch von Roger MacBride Allen umgesetzt) werden die drei Gesetze komplett verworfen und die „neuen Gesetze“ entstehen:

  • Ein Roboter darf keinen Menschen verletzen.
  • Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
  • Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.

Caliban selbst ist der Prototyp eines Roboters, der an kein Gesetz gebunden ist – Positronik geregelt.

Es fällt womöglich schwer, bei „künstlicher Intelligenz“ an Rassismus zu denken. Eine Maschine könne nicht denken und keine Ideologien verfolgen. Doch immer mehr Fälle zeigen, dass sich die Vorurteile der Menschen in intelligenten Algorithmus-basierten Systemen widerspiegeln – von Isadora Wallnöfer.

Menschenähnlicher Roboter oder Android im Gespräch mit künstlicher Intelligenz. Konzept 3D-Illustration.

Der Begriff „Künstliche Intelligenz“ (KI) oder „Artifical Intelligence“ (AI) löst auf Anhieb erste Assoziationen aus:  Roboter, unkontrollierbare IT-Software und Algorithmen. Aber in diesen stecken auch enorme Chancen für die Entwicklung einer intelligenteren Welt. Künstliche Intelligenz hat noch keine einheitliche Definition, da dessen Bedeutung immer vom Kontext abhängt. Meistens beschreibt künstliche Intelligenz ein Teilgebiet der Informatik, das sich mit Methoden beschäftigt, die neben maschinellem Lernen auch intelligentes Verhalten durch selbst-optimierende Algorithmen automatisieren. In Computern werden Entscheidungsstrukturen des Menschen nachgebildet, damit diese eigenständig Probleme lösen können.

Beispiele für KI im Alltag sind unter anderem Sprachassistenten wie Alexa und Siri, der Google Übersetzer oder die Gesichtserkennung auf unseren Smartphones. Auch in der Sicherheitstechnik, Kriminalistik und Forensik wird diese Technologie eingesetzt, um Personen identifizieren und verifizieren zu können.

Auch Vorurteile werden erlernt.

Trotz des Ansatzes, dass KI frei von menschlichen Gesinnungen ist, kann auch diese Vorurteile erlernen. Es gab mehrere Fälle, in denen künstliche Intelligenzen Menschen mit Migrationshintergrund sowie People of Color benachteiligten. In den USA, wo der Einsatz von künstlicher Intelligenz verbreiteter ist als in Deutschland, zeichnet sich ein düsteres Bild einer KI-basierten Zukunft. In Bereichen, in denen KI eingesetzt wird, häufen sich Beschwerden von Afroamerikanerinnen und Afroamerikanern sowie von Latinas und Latinos, die von KI-Systemen benachteiligt wurden.

Denn beim Einsatz von künstlichen Intelligenzen für einen Entscheidungsweg gibt es keine Garantie für Fairness. KI „erlernt“ die Entscheidungsfindung durch Informationen aus großen Datensätzen. Die Daten für das sogenannte „Training“ werden oftmals durch „Data Scraping“, also Datenextraktion aus dem Internet gezogen. Dabei zeigen sich in vielen Datensets die Vorurteile der Gesellschaft.

Definiert eine Maschine beispielsweise mithilfe von Fotos auf einer Suchmaschine den Begriff „Forschung“, enthält der Datensatz mehr Bilder von weißen, männlichen Personen als von Frauen oder People of Color. Schlussendlich kann das System historische Vorurteile, die dazu führen, dass vermehrt männliche, weiße Forschende gezeigt werden, nicht allein erkennen und rausfiltern.

Die Herausforderung bei kommerzieller KI, die für unterschiedlichste Felder, wie Strafverfolgung, Jobvergabe, Gesundheitsversorgung, Kreditauskunft oder Versicherungsbeiträge verwendet wird, ist, dass Privatunternehmen, wie Google, IBM oder Amazon diese betreiben. Die Unternehmen müssen in dem unregulierten Markt keine Auskunft über  Bewertungskriterien oder Diskriminierungsprävention geben.

Erhöhtes Risiko?

In den USA werden KI-Systeme nicht nur in der Jobsuche, Wohnungsvergabe, Versicherungseinstufung oder gezielten Werbung, sondern auch in der Strafverfolgung eingesetzt. Eine KI namens COMPAS wird in mehreren US-Staaten eingesetzt, um einzuschätzen, wie wahrscheinlich Straftäterinnen und Straftäter wieder kriminell werden könnten. COMPAS lernte aus Trainingsdaten, die bisherige Entscheidungen der Polizei wiedergaben. In den Trainingsdaten erkennt die KI Muster. Doch wenn die Exekutive vorurteilsbeladene Entscheidungen trifft, wird die KI dieselben Vorurteile erlernen.

Grundsätzlich ist das Prinzip, aus vorherigen Bewertungen von Straftätern für neue Fälle zu lernen, umstritten. Das Ergebnis einer Analyse von ProPublica zeigt, dass COMPAS zum Nachteil von Afroamerikanerinnen und -amerikanern urteilte. Die Software bewerte diese mit einer 77 Prozent höheren Wahrscheinlichkeit, in Zukunft ein Gewaltverbrechen zu begehen. Die Vorhersagen der KI waren allerdings bei weniger als einem Viertel korrekt. Problematisch werden solche Rechenfehler, wenn diese zur Bewertung für Gerichtsurteile einbezogen werden, wie es bei COMPAS der Fall ist. Selbst wenn eine KI die Ethnie einer Person nie erfährt, wird es diese aufgrund aller anderen Daten herausfinden und danach urteilen. Die Ergebnisse sind nicht nur inkorrekt, sondern verstärken die systemischen Nachteile, die People of Color im US-Rechtssystem erfahren.

Die Macht der Kreditauskunfteien.

Auch in Deutschland gibt es vereinzelte Fälle, in denen der Einsatz von künstlichen Intelligenzen zu verzerrten Urteilen geführt hat. Ein Bereich, in dem KI in Deutschland eine große Rolle spielt, ist das Kreditscoring, das die Kreditwürdigkeit einer Person bewertet. Eine Bewertung der Kreditwürdigkeit ist für die Wohnungsvergabe fast unvermeidbar. Bei vielen Auskunfteien kommt aufgrund der schier unendlichen Datenmengen künstliche Intelligenz zum Einsatz. Ein Bericht des ZDF spricht vom Herausforderung KI  (Name von Redaktion geändert). Dieser habe mit seiner Freundin versucht, eine Wohnung zu finden. Mit einem gemeinsamen Bruttogehalt von 7400 Euro habe das Paar eigentlich genug Geld, um eine attraktive Wohnung in Köln zu mieten. Nach einer Besichtigung wird Oliver A. allerdings trotz passender Rahmenbedingungen überraschend abgesagt. Grund dafür sei seine schlechte Bewertung der Kreditauskunftei gewesen.

Die schlechte Note sei trotz gutem Gehalt, sicherem Job und pünktlicher Zahlungen durch Olivers Nachnamen zustande gekommen. Denn für die KI hätte dieser arabisch geklungen, was Oliver A. als Migranten einstufte. Den Faktor „Migrant“ bewertete die Auskunftei wiederum negativ. Eine der bekanntesten Kreditauskunfteien ist in Deutschland die Schufa. Die Initiative OpenSCHUFA forderte daher eine Offenlegung der Kriterien zur Auswertung des Schufa-Scores. Denn die Prozesse hinter der Bewertung der Kreditwürdigkeit sind intransparent und müssen nur durch eigenfinanzierte Kontrollstudien geprüft werden.

Dass Auskunfteien für ihre eigenen Kontrollen zahlen, bedeutet die Gefahr eines Interessenkonflikts. Bei Kreditauskunfteien handelt es sich um Privatunternehmen, die wirtschaftliche Interessen verfolgen und ihre Geschäftsgeheimnisse nicht offenlegen wollen. Die Folgen sind oft dramatisch. Denn ob eine KI Personen aufgrund deren Herkunft oder Aussehen negativ bewertet, merkt man leider erst, nachdem Schäden entstanden sind.

„Meine Freundin ist kein Gorilla“!

2015 bemerkte der 22-jährige Jacky Alciné, dass in seinen Google-Fotodateien ein Ordner mit dem Wort „Gorilla“ gekennzeichnet wurde. Als er auf den Link klickte fand er 80 Fotos, die er mit einer Freundin bei einem Konzert geschossen hatte. Seine Freundin war schwarz. Von Gorillas war im Google-Ordner keine Spur. Jacky ließ seinen Ärger auf Twitter aus und schrieb unter einen Screenshot: „Meine Freundin ist kein Gorilla“. Nach dem Tweet war die Anteilnahme groß und es kursierte die Frage, wie so etwas passieren konnte.

Der Google-Fotodienst basiert auf einem sogenannten „neuronalen Netzwerk“, das komplexe Aufgaben eigenständig erlernen kann, die Entwicklerinnen und Entwickler nicht selbst programmieren könnten. Die Daten, die das System verwendet, um zu lernen, kommen aber von Entwicklern oder werden gescraped. Wenn das System mehr und unterschiedlichere Fotos von Gorillas verwendet als von People of Color, kann das zu groben Fehleinstufungen kommen. 2018 bemerkte das auch Joy Buolamwini, als sie am MIT Gesichtserkennungssoftwares von Microsoft, IBM und Face++ untersuchte. Sie fütterte die Softwares mit als 1200 Gesichtern, die den Gesichtern ein Geschlecht zuordnen sollten. Das Ergebnis war ernüchternd.

Alle drei Systeme erkannten männliche, hellere Gesichter am besten. Die schlechtesten Ergebnisse kamen bei dunkelhäutigen, weiblichen Gesichtern mit Fehlerraten von bis zu 46 Prozent. Ein Positives kam jedoch aus Buolamwinis Forschung: Sowohl Microsoft als auch IBM versprachen als Antwort, die Verzerrungen in ihren KI-Systemen auszubessern.

Zu große Datensets!

Unternehmen, wie Google haben eigene Forschungszentren, um Fairness in der eigenen KI zu garantieren. Die amerikanische Informatikerin mit äthiopischen Wurzeln, Timnit Gebru, veröffentlichte 2020 eine Studie, in der das Sprachanalysetool von Google, BERT, kritisiert wurde. Dieses kam mit hohen Erwartungen und dem Versprechen, den Journalismus, Marketing oder die Werbeindustrie zu revolutionieren, indem es eigene Texte kreiert. Die KI lernt anhand von Milliarden von Wörtern, die es aus dem Internet scraped. Das Datenset, an dem sich BERT bediente, war allerdings so groß, dass Gebru und ihr Forschungsteam Zweifel äußerten.

Gebru argumentierte, dass zu große Datensätze unmöglich auf Verzerrungen überprüft werden könnten. Das macht es wahrscheinlicher, dass die produzierten Texte rassistische, sexistische oder xenophobe Tendenzen aufweisen. Nach der Veröffentlichung wurde Gebru aufgefordert, ihren Namen als Google-Mitarbeiterin von der Studie zu entfernen. Sie weigerte sich und wurde entlassen. Obwohl Google eine eigens eingerichtete Abteilung für ethisch vertretbare KI hatte, hörten sie nicht auf dessen Erkenntnisse.

KI wird wichtig für Antidiskriminierungsstellen!

Auch die deutsche Bundesregierung ist auf das Problem rassistischer KI aufmerksam geworden. Neben der Förderung von flächendeckenden Studien zu Diskriminierungsrisiken, fördert die Regierung auch Algorithm Watch, die Mitarbeitende der Antidiskriminierungsstellen für Benachteiligung durch algorithmische Systeme sensibilisieren. In einer geförderten Studie werden Bedingungen genannt, unter denen Diskriminierung durch algorithmische Systeme wie KI vermieden werden kann. Dazu zählen Punkte, wie „potenzielle Diskriminierungsrisiken abschätzen, die Erklärbarkeit der Algorithmen sicherstellen sowie die Funktionsweisen von Algorithmen, der Entscheidungsregeln und deren Auswirkungen auf Betroffene“ zu dokumentieren. Diese Parameter sollen dafür sorgen, dass künstliche Intelligenz nicht zu Ergebnissen führt, die gesellschaftliche Fehler der Vergangenheit wiedergeben.