Ist die Embedded-Branche hier eher getrieben von regulatorischen Vorgaben oder erkennen die Verantwortlichen inzwischen die Notwendigkeit nachhaltig zu handeln?
Prof. Sikora: Ich glaube es ist beides. Es ist inzwischen ein breites Bewusstsein vorhanden, im Rahmen der ökonomischen Möglichkeiten auch das ökologisch Machbare zu tun — wenn auch noch nicht überall auf der Welt. Man muss sich zudem bewusst machen, dass nicht alle Lippenbekenntnisse automatisch zu nachhaltigerem Umgang mit Ressourcen führen. Die Regulatoren — insbesondere auf Seiten der EU — tun aber in diesem Bereich einiges, um den Druck zu erhöhen. Es kommt also von beiden Seiten.
Gibt es aktuelle Projekte, bei denen schon bei der Entwicklung die Nachhaltigkeit des eingebetteten Systems im Vordergrund steht?
Prof. Sikora: Das schönste Beispiel sind aus meiner Sicht aktuell energieautarke Systeme. Also Systeme, die ihre Energie über Energiewandler (z.B. aus Druck, Licht, Temperatur) aus der Umgebung ziehen und sich damit selbst versorgen. Das ist für mich das perfekte Beispiel für ein nachhaltiges eingebettetes System, das eigentlich unendlich lang betrieben werden kann, ohne Ressourcen zu verschwenden.
Eingebettete Systeme unterstützen Nachhaltigkeit und Effizienz
Wo helfen eingebettete Systeme schon jetzt im Alltag Ressourcen zu sparen?
Prof. Sikora: Das ist die zweite Dimension, in der Embedded Systems eingesetzt werden, um die Nachhaltigkeit und die Effizienz der darüber liegenden Systeme zu unterstützen. Die Bedeutung von eingebetteten Systemen für die Nachhaltigkeit kann kaum überschätzt werden. Mit intelligenten, geregelten, adaptiven Systemen kann man die Effizienz eines Gesamtsystems deutlich verbessen. Ein altes Beispiel ist die Energieeffizienz beim Verbrennungsmotor im Auto, die ohne die ganze Mikroelektronik gar nicht erreicht werden kann. Und natürlich noch viel schöner: die ganze Ansteuerelektronik und Kommunikationstechnik im Elektroauto.
Aber das sind natürlich auch alle Regelmechanismen rund um Umwelttechnik, Kraftwerkstechnik, Smart City, Smart Home, Smart Grid, Smart Energy, Smart Farming etc. etc. Das sind alles Anwendungen, bei denen eingebettete Systeme ein wesentliches Element sind, um die Gesamtsysteme effizienter und nachhaltiger zu machen.
Ein schönes Beispiel fällt mir noch ein, bei dem ein eingebettetes System in einem Feld eine Rolle spielt, das die Einsatzfähigkeit zeigt. Es gibt eine Firma, die intelligente Rattenfallen entwickelt. Bislang werden bei einem Rattenbefall einfach große Mengen Rattengift in die Kanalisation gegeben, um die Ratten zu vertreiben. Auch das kann man intelligent steuern, um die Umweltbelastung zu reduzieren: Indem man sensorbasierte Rattenfallen aufstellt und dann nur so viel Rattengift einbringt, wie tatsächlich nötig ist. Wenn man da anfängt nachzudenken, findet man tausende superspannende Beispiele.
Welche Slots im Konferenzprogramm beschäftigen sich mit dem Thema Sustainability?
Prof. Sikora: Wir haben eine Session ‘Sustainability’ im Track 1 ‘IoT’, die sich mit den Herausforderungen, mit Use Cases und mit den Themen Repairability und Renewability beschäftigt. Ergänzend planen wir eine lebhafte Panel Discussion zum Thema ‘Sustainability and IoT’. Darüber hinaus verstecken sich Sustainability-Aspekte auch in anderen Themenbereichen, zum Beispiel, wenn es um die Optimierung der Energieeffizienz von Motorsteuerungen geht, oder die vielen Update-Themen im Programm, die zur Verlängerung der Lebensdauer von Geräten beitragen.
Responsible AI und Verantwortung der Embedded-Branche
Neben ‘sustainable’ ist auch der Begriff ‘responsible’ Teil des Claims der embedded world Exhibition&Conference 2023. Wie geht die Embedded-Community mit ihrer Verantwortung um?
Prof. Sikora: Ich glaube das größte Thema rund um Verantwortung bei Embedded Systems ist die Einbeziehung von Künstlicher Intelligenz. Hier erreichen wir eine komplett neue Stufe der Komplexität und Adaptivität. Aktuell gibt es bereits viele Dependable Systems, Teilsysteme, die durch ihre Vernetzung abhängig voneinander werden, bei denen einzelne Stakeholder die Komplexität des Gesamtsystems aber nicht mehr erfassen. Wir sind damit heute schon auf einer Stufe, wo wir uns darauf verlassen müssen, dass diese Systeme funktionieren, ohne die Gesamtkomplexität zu begreifen. Das gründet auf der Annahme, dass die Kombination von stabilen Systemen als Gesamtsystem ebenfalls stabil ist. Was nicht zwangsläufig der Fall sein muss ...
Diese Komplexitätsstufe wird noch einmal erhöht, wenn wir KI mit einbringen, also adaptive Systeme, die selbst lernen, die sich selbst anpassen und bei denen wir zum Entwicklungszeitpunkt nicht absehen können, wie sich das System in Zukunft verhält. Verantwortlichkeit spielt die zentrale Rolle, wenn es darum geht, die Zuverlässigkeit solcher Systeme zu gewährleisten.
Responsible AI hat mindestens noch eine weitere Dimension: Mit intelligenten Systemen kommt man sehr schnell in einen Bereich, der ethisch kritisch werden kann. Musterbeispiele sind hier Überwachungssysteme, wie sie vor allem in diktatorisch regierten Staaten Einsatz finden. Wir können allerdings — wenn wir ehrlich sind — mit eingebetteten Systemen auch heute schon eine ganze Menge an ethisch verwerflichen Dingen tun. KI ist damit ‘nur’ eine erweitere Stufe, die aber durch ihre Leistungsfähigkeit noch einmal deutlich kritischer wird.
Ist sich die Embedded-Community dieser Verantwortung bewusst und setzt sie sich damit auseinander?
Prof. Sikora: Da muss ich differenziert antworten … Es gibt viele ernsthafte Aktivitäten rund um Responsible AI, die große Fortschritte machen. Wir haben auf der embedded world Conference 2023 den Chairman von der IEEE 7000 Arbeitsgruppe, die sich mit dem Thema beschäftigt. Hier zeichnet sich eine Bewegung hin zu einer Zertifizierung ab. Auf nationaler und europäischer Ebene gibt es Arbeitsgruppen, die Regulatorien vorbereiten. Das war auf der embedded world 2022 bereits Thema. Und auf der embedded world Conference 2023 wird Prof. Ali Hessami, der chair der P7000-Arbeitsgruppe beim IEEE, eine der Keynotes halten.
Aber natürlich gibt es da weltweit gewisse Unterschiede. In gelenkten Demokratien und Autokratien werden eingebettete Systeme in Kombination mit KI ganz bewusst eingesetzt, um ethische Grenzen auszuloten und zu überschreiten.
Wird Responsibility in Unternehmen bei der Entwicklung von Anfang an mitgedacht oder ist es nur eine Randerscheinung?
Prof. Sikora: Es gibt viele Unternehmen, die sehr früh im Entwicklungsprozess das Thema Verantwortlichkeit berücksichtigen. Dass beispielsweise bei einer Bilderverarbeitung zu einem sehr frühen Zeitpunkt personenbezogene Daten direkt gelöscht werden und man nur mit den Daten arbeitet, die tatsächlich für die Analyse notwendig sind. Aber wie oben bereits erwähnt, gibt es hier weltweit sicherlich Unterschiede.
Welche Diskussionsanstöße gibt es zu diesem Thema im Rahmen der embedded world Conference 2023?
Prof. Sikora: Wir planen gemeinsam mit dem VDE eine weitere Panel Discussion zum Thema ‘Responsable AI’. Da hatten wir auf der embedded world 2022 schon eine erste Ausgabe, auf der wir aufbauen und die wir konkretisieren wollen.