Wie können Ingenieure KI verantwortungsvoll einsetzen?
In den letzten zehn Jahren hat sich die künstliche Intelligenz (KI) von einem aufstrebenden Werkzeug aus der Forschung zu einer Technologie entwickelt, mit der sich Entwickler eingebetteter Systeme auseinandersetzen müssen. Damit sind eine Reihe von ethischen Fragen aufgetaucht, die nach Antworten verlangen. Wenn die KI Entscheidungen treffen darf, welche Rolle sollte der Mensch bei der Festlegung der Parameter spielen, die sie verwendet? Und sollten sie die Möglichkeit haben, die von der KI getroffenen Entscheidungen anzufechten? Wie sollten diese und andere Fragen angegangen werden? Können wir von anderen Disziplinen lernen? Und gibt es bereits ethische Verhaltenskodizes? Der Artikel von Stuart Cording, Elektronikingenieur und freier Autor, greift einige dieser Fragen auf.
KI und eingebettete Systeme
Beim Einsatz von KI stellen sich ethische Fragen
Ingenieure befassen sich nur selten mit Ethik, einem Zweig der Philosophie, der sich im Grunde damit auseinandersetzt, was wir für richtig und falsch halten. Schließlich ist vieles, womit sich Ingenieure beschäftigen, schwarz und weiß, funktionsfähig oder nicht funktionsfähig, mit wenig Raum für Grauzonen. Man könnte argumentieren, dass der natürliche Wunsch, „das Richtige zu tun“, der Psyche von Ingenieuren innewohnt, und dass wir daher, ethisch gesehen, immer versuchen, Gutes zu tun und die Welt zu verbessern.
Beispielsweise sind die Entwickler eines Bremssystems für Kraftfahrzeuge von Natur aus darauf bedacht, ein sicheres System zu entwickeln, das unter allen Bedingungen korrekt funktioniert. Außerdem gibt es Normen und Kontrollen, die die Sicherheit des entstehenden Produkts gewährleisten. Das Gleiche gilt für Wirtschaftsingenieure, die Robotersysteme entwickeln, die in unmittelbarer Nähe zum Menschen arbeiten.
KI ist nicht einfach ein neues Werkzeug
Warum kann KI also nicht einfach in den Werkzeugkasten der Embedded-Ingenieure aufgenommen werden, wie andere Technologien vor ihr? Nun, KI und ihre anderen Zweige, wie maschinelles Lernen (ML) und Deep Learning (DL), ermöglichen Fähigkeiten, die früher nur von Menschen umgesetzt werden konnten. Allein in den letzten zehn Jahren ist die Bilderkennungsgenauigkeit von DL-Tools von 70 % auf etwa 98 % gestiegen. Zum Vergleich: Menschen erreichen durchschnittlich 95 %. Solche Fähigkeiten sind oft als fertige Open-Source-Modelle verfügbar, die jeder verwenden kann, und die erforderliche Hardware ist relativ billig und leicht zu beschaffen.
Die Einstiegshürde ist also sehr niedrig. Plötzlich kann eine Aufgabe, die bisher einen Menschen zur Überprüfung von Bildern erforderte, von einer Maschine erledigt werden. An und für sich stellt dies keine unmittelbare Bedrohung dar und ist vergleichbar mit der Entwicklung eines Roboters, der einen menschlichen Monteur ersetzen kann. Das eigentliche Problem liegt in der einfachen Skalierbarkeit. Plötzlich können Tausende von Bildern pro Sekunde geprüft werden, wobei nur die finanziellen Investitionen und die Verfügbarkeit der Hardware begrenzende Faktoren sind. Während dies für ein optisches Inspektionssystem zur Verbesserung der Qualität in einer Fabrik von Vorteil sein kann, kann es auch für ruchlose Zwecke in autoritären Staaten eingesetzt werden.
Ethischer Umgang mit dem Dual-use-Dilemma
Das Dilemma der doppelten Verwendbarkeit besteht schon seit Jahrhunderten. Das einfache Buttermesser ist auch ein Dolch, und ein tickendes Uhrwerk kann der Auslöser für eine Bombe sein. Es gibt immer zwei Arten von Nutzern: diejenigen, die die Technologie bestimmungsgemäß verwenden, und diejenigen, die sie für böswillige Zwecke einsetzen oder umfunktionieren.
Wissenschaftler haben sich bei der Entwicklung von Viren und gefährlichen Chemikalien oft mit dieser Frage auseinandergesetzt. In ihrem Aufsatz "Ethical and Philosophical Consideration of the Dual-use Dilemma in the Biological Sciences" (Ethische und philosophische Betrachtung des Dual-Use-Dilemmas in den biologischen Wissenschaften) erörtern Miller und Selgelid diese Fragen ausführlich. Sollten zum Beispiel Chemikalien entwickelt werden, die eine Massenvernichtung verursachen könnten, damit Gegenmittel entwickelt werden können? Und wenn solche Arbeiten durchgeführt werden, sollten die Ergebnisse dann in vollem Umfang mit der Forschungsgemeinschaft geteilt werden? Oder sollten die Ergebnisse zwar geteilt werden, aber in einer Art und Weise, die die Möglichkeiten des Lesers einschränkt, das Experiment zu reproduzieren?
Das Papier bietet einige Optionen für die Regulierung von Experimenten mit doppeltem Verwendungszweck und die Weitergabe der daraus resultierenden Informationen. In einem Extremfall liegt die Entscheidung in den Händen derjenigen, die die Experimente durchführen, während im anderen Fall die Regierungen für die Gesetzgebung zuständig sind. Forschungsinstitute und staatliche oder unabhängige Behörden werden als Vermittler für einen Kompromiss vorgeschlagen. Die Autoren empfehlen diesen Mittelweg als den besten Ansatz, der ein Gleichgewicht zwischen der Unterstützung des moralischen Wertes der akademischen Freiheit und der Überwindung dieses Wertes bietet.
Bei der Betrachtung von KI im Zusammenhang mit eingebetteten Systemen liefert dieses Papier Ideen für den Umgang mit einigen der ethischen Herausforderungen.
Ingenieure müssen sich auch der wachsenden Zahl von Bereichen bewusst sein, die sie mit KI-gesteuerter Technologie berühren. So können beispielsweise ML-Algorithmen die Sicherheit von Drohnen verbessern, indem sie Kollisionen mit Objekten oder Menschen vermeiden. Dieselbe Hard- und Software könnte aber mit geringem Aufwand für schändliche oder militärische Zwecke umprogrammiert werden. Durch Hinzufügen einer Gesichtserkennungstechnologie könnte das Gerät ein menschliches Ziel autonom angreifen und verletzen. Die ethische Frage, die sich aus dieser potenziellen Nutzung ergibt, lautet: Sind wir verpflichtet, eine Form der Sicherheit zu implementieren, die die Ausführung von nicht autorisiertem Code verhindert?
Schwachstellen in Deep Learning Algorithmen
Ein weiteres Problem sind potenzielle Schwachstellen in DL-Algorithmen, die ihren Weg in den Produktionscode finden. In ihrem Papier „Making an Invisibility Cloak: Real World Adversarial Attacks on Object Detectors“ (Angriffe auf Objektdetektoren in der realen Welt) erstellen Wu et al. T-Shirts mit aufgedruckten Bildern, die, wenn sie getragen werden, dazu führen, dass sie von einer KI-Kamera nicht als Menschen klassifiziert werden.
Andere Forschungsarbeiten haben gezeigt, dass autonome Fahrzeuge durch das Aufbringen von Aufklebern mit Mustern auf Straßen oder Verkehrsschildern getäuscht werden können. Was zur Gefährdung von allen Verkehrsteilnehmern führt. Wie sollte man nach der Entdeckung dieser blinden Flecken vorgehen? Sollten alle betroffenen Fahrzeuge von der Straße genommen werden, bis das Problem behoben ist?
Mikrocontroller haben nur eine begrenzte Leistung, wenn es um neuronale Netze geht, insbesondere im Vergleich zu den Fähigkeiten von Servern, auf denen KI läuft, wie ChatGPT oder DALL-E. Die Halbleiterindustrie investiert jedoch in großem Umfang in die Unterstützung eingebetteter KI, wobei viele neue Geräte eine gewisse Beschleunigung von neuronalen Netzen oder KI bieten. Während die Fähigkeiten der Algorithmen, die auf solchen Geräten laufen, wachsen, nimmt das Verständnis für die genaue Implementierung ab. Und genau hier lauern die Risiken unentdeckter Probleme und ethische Bedenken.
Suche nach technischen Ressourcen für den ethischen Einsatz von KI
Viele Unternehmen haben ethische Grundsätze für KI entwickelt, wie Blackman in seinem Artikel „A Practical Guide to Building Ethical AI“ feststellt. Viele dieser Aussagen sind jedoch sehr allgemein gehalten und verwenden Begriffe wie "Fairness", die für Ingenieure schwer zu operationalisieren sind. Er weist auch darauf hin, dass Ingenieure zwar ein ausgeprägtes Bewusstsein für geschäftsrelevante Risiken haben, ihnen aber die Ausbildung fehlt, die Akademikern bei der Beantwortung ethischer Fragen und der institutionellen Unterstützung zuteil wird.
Wo sollten wir also unsere ethischen Leitlinien für KI hernehmen? Die UNESCO gibt eine „Empfehlung zur Ethik der künstlichen Intelligenz“ heraus.
Sie ermutigt vor allem die Mitgliedsstaaten und Regierungen, politische Rahmenwerke und Aufsichtsmechanismen zu entwickeln, die KI in all ihren Erscheinungsformen abdecken. Für Entwickler von eingebetteten Systemen ist es jedoch schwierig, konkrete Richtlinien zu finden, die in einer technischen Organisation verwendet werden können. Die Europäische Kommission hat auch "Ethische Leitlinien für vertrauenswürdige KI". Hier wird ein klarer Schwerpunkt gesetzt, der besagt, dass vertrauenswürdige KI rechtmäßig, ethisch und robust sein sollte. In Kapitel zwei werden die ethischen Grundsätze und die Spannungen, die zwischen ihnen entstehen können, eingehend erläutert. Daher ist diese Ressource wahrscheinlich besser für Entwicklungsteams geeignet, die versuchen, sich mit der Ethik im Zusammenhang mit KI-Technologie auseinanderzusetzen.
Dann gibt es noch den Bericht „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“ von Brundage et al. Dieser Bericht enthält vier Empfehlungen auf höchster Ebene. Die erste Empfehlung lautet, dass die politischen Entscheidungsträger eng mit den Forschern zusammenarbeiten sollten, um den potenziell bösartigen Einsatz von KI einzudämmen. Zweitens werden Forscher und Ingenieure ermutigt, den Dual-Use-Charakter ihrer Arbeit ernst zu nehmen. Der dritte Punkt ist die Sammlung bewährter Praktiken, während der vierte Punkt darauf abzielt, den Kreis der Interessenvertreter und Fachleute zu erweitern, die an der Diskussion über diese Herausforderungen beteiligt sind.
IBM bietet eine klare Erklärung seines Ansatzes zur KI-Ethik. IBM sieht KI als Erweiterung der menschlichen Intelligenz und erklärt, dass diese Technologie transparent und erklärbar sein sollte. Es erklärt auch, dass die Daten, die das Training der KI ermöglichen, und ihre Erkenntnisse ihrem Schöpfer gehören sollten.
Aber das vielleicht am einfachsten zu konsumierende Dokument ist der „In brief: Bosch-Ethikkodex für KI“. Auf der Grundlage bereits bestehender strenger Grundsätze innerhalb des Unternehmens wird die Nutzung und Rolle der KI in drei Ansätze unterteilt. Der Human-in-Command-Ansatz (HIC) sieht vor, dass Menschen die Ergebnisse der KI nutzen, um Entscheidungen zu treffen, und dass die KI als Hilfsmittel eingesetzt wird. Beim Human-in-the-Loop-Ansatz (HITL) kann der Mensch die Entscheidungen der KI beeinflussen oder ändern. Beim Human-on-the-Loop-Ansatz (HOTL) schließlich trifft die KI Entscheidungen, aber der Mensch legt die Parameter für die Entscheidungen fest. Sie haben auch die Möglichkeit, eine Entscheidung zur Überprüfung anzufechten.
Es gibt ethische Leitlinien für den Einsatz von KI
Der verantwortungsvolle Einsatz von KI erfordert Antworten auf komplexe ethische Fragen. Ohne Erfahrung im Umgang mit ethischen Fragen ist es für Ingenieure für eingebettete Systeme leicht, sich bei dem Versuch, Antworten zu geben, zu verheddern. Autonome Fahrzeuge stoßen bereits an die Grenzen der KI und waren für mehrere Verkehrsunfälle und Todesfälle verantwortlich. Dies und die vielen gefälschten Bilder, Videos und Nachrichten stellen die KI als Technologie in ein schlechtes Licht und führen dazu, dass die Öffentlichkeit diese neue Entwicklung nur zögerlich akzeptiert.
Doch jede neue Technologie hat ihre Kinderkrankheiten. Die Eisenbahnen waren bei ihrer Einführung berüchtigt für ihre Gefährlichkeit, und es dauerte eine Weile, bis man die Herausforderungen erkannte und angemessen darauf reagierte. Wie bereits erwähnt, gibt es in der wissenschaftlichen Gemeinschaft seit langem ethische Herausforderungen und Bedenken im Zusammenhang mit der doppelten Verwendung. Aber wie hier gezeigt wird, gibt es Antworten und einige hilfreiche Ressourcen innerhalb unserer Ingenieursgemeinschaft, wenn wir uns mit den ethischen Herausforderungen auseinandersetzen, die sich aus dem Einsatz von KI ergeben.