KI und eingebettete Systeme
Beim Einsatz von KI stellen sich ethische Fragen
Ingenieure befassen sich nur selten mit Ethik, einem Zweig der Philosophie, der sich im Grunde damit auseinandersetzt, was wir für richtig und falsch halten. Schließlich ist vieles, womit sich Ingenieure beschäftigen, schwarz und weiß, funktionsfähig oder nicht funktionsfähig, mit wenig Raum für Grauzonen. Man könnte argumentieren, dass der natürliche Wunsch, „das Richtige zu tun“, der Psyche von Ingenieuren innewohnt, und dass wir daher, ethisch gesehen, immer versuchen, Gutes zu tun und die Welt zu verbessern.
Beispielsweise sind die Entwickler eines Bremssystems für Kraftfahrzeuge von Natur aus darauf bedacht, ein sicheres System zu entwickeln, das unter allen Bedingungen korrekt funktioniert. Außerdem gibt es Normen und Kontrollen, die die Sicherheit des entstehenden Produkts gewährleisten. Das Gleiche gilt für Wirtschaftsingenieure, die Robotersysteme entwickeln, die in unmittelbarer Nähe zum Menschen arbeiten.
KI ist nicht einfach ein neues Werkzeug
Warum kann KI also nicht einfach in den Werkzeugkasten der Embedded-Ingenieure aufgenommen werden, wie andere Technologien vor ihr? Nun, KI und ihre anderen Zweige, wie maschinelles Lernen (ML) und Deep Learning (DL), ermöglichen Fähigkeiten, die früher nur von Menschen umgesetzt werden konnten. Allein in den letzten zehn Jahren ist die Bilderkennungsgenauigkeit von DL-Tools von 70 % auf etwa 98 % gestiegen. Zum Vergleich: Menschen erreichen durchschnittlich 95 %. Solche Fähigkeiten sind oft als fertige Open-Source-Modelle verfügbar, die jeder verwenden kann, und die erforderliche Hardware ist relativ billig und leicht zu beschaffen.
Die Einstiegshürde ist also sehr niedrig. Plötzlich kann eine Aufgabe, die bisher einen Menschen zur Überprüfung von Bildern erforderte, von einer Maschine erledigt werden. An und für sich stellt dies keine unmittelbare Bedrohung dar und ist vergleichbar mit der Entwicklung eines Roboters, der einen menschlichen Monteur ersetzen kann. Das eigentliche Problem liegt in der einfachen Skalierbarkeit. Plötzlich können Tausende von Bildern pro Sekunde geprüft werden, wobei nur die finanziellen Investitionen und die Verfügbarkeit der Hardware begrenzende Faktoren sind. Während dies für ein optisches Inspektionssystem zur Verbesserung der Qualität in einer Fabrik von Vorteil sein kann, kann es auch für ruchlose Zwecke in autoritären Staaten eingesetzt werden.
Ethischer Umgang mit dem Dual-use-Dilemma
Das Dilemma der doppelten Verwendbarkeit besteht schon seit Jahrhunderten. Das einfache Buttermesser ist auch ein Dolch, und ein tickendes Uhrwerk kann der Auslöser für eine Bombe sein. Es gibt immer zwei Arten von Nutzern: diejenigen, die die Technologie bestimmungsgemäß verwenden, und diejenigen, die sie für böswillige Zwecke einsetzen oder umfunktionieren.
Wissenschaftler haben sich bei der Entwicklung von Viren und gefährlichen Chemikalien oft mit dieser Frage auseinandergesetzt. In ihrem Aufsatz "Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences" (Ethische und philosophische Betrachtung des Dual-Use-Dilemmas in den biologischen Wissenschaften) erörtern Miller und Selgelid diese Fragen ausführlich. Sollten zum Beispiel Chemikalien entwickelt werden, die eine Massenvernichtung verursachen könnten, damit Gegenmittel entwickelt werden können? Und wenn solche Arbeiten durchgeführt werden, sollten die Ergebnisse dann in vollem Umfang mit der Forschungsgemeinschaft geteilt werden? Oder sollten die Ergebnisse zwar geteilt werden, aber in einer Art und Weise, die die Möglichkeiten des Lesers einschränkt, das Experiment zu reproduzieren?
Das Papier bietet einige Optionen für die Regulierung von Experimenten mit doppeltem Verwendungszweck und die Weitergabe der daraus resultierenden Informationen. In einem Extremfall liegt die Entscheidung in den Händen derjenigen, die die Experimente durchführen, während im anderen Fall die Regierungen für die Gesetzgebung zuständig sind. Forschungsinstitute und staatliche oder unabhängige Behörden werden als Vermittler für einen Kompromiss vorgeschlagen. Die Autoren empfehlen diesen Mittelweg als den besten Ansatz, der ein Gleichgewicht zwischen der Unterstützung des moralischen Wertes der akademischen Freiheit und der Überwindung dieses Wertes bietet.
Bei der Betrachtung von KI im Zusammenhang mit eingebetteten Systemen liefert dieses Papier Ideen für den Umgang mit einigen der ethischen Herausforderungen.
Ingenieure müssen sich auch der wachsenden Zahl von Bereichen bewusst sein, die sie mit KI-gesteuerter Technologie berühren. So können beispielsweise ML-Algorithmen die Sicherheit von Drohnen verbessern, indem sie Kollisionen mit Objekten oder Menschen vermeiden. Dieselbe Hard- und Software könnte aber mit geringem Aufwand für schändliche oder militärische Zwecke umprogrammiert werden. Durch Hinzufügen einer Gesichtserkennungstechnologie könnte das Gerät ein menschliches Ziel autonom angreifen und verletzen. Die ethische Frage, die sich aus dieser potenziellen Nutzung ergibt, lautet: Sind wir verpflichtet, eine Form der Sicherheit zu implementieren, die die Ausführung von nicht autorisiertem Code verhindert?