Überblick des Vortrags
Die Welt steht an der Schwelle zu etwas Großem. Es ist die künstliche Intelligenz, und sie verändert den Alltag. Im Gesundheitswesen hilft die KI den Ärzten, genauere Diagnosen zu stellen. In der Automobilindustrie sorgt KI für Fahrerassistenzsysteme und mehr Sicherheit in Autos. In der Industrie wird KI in der Robotik und in Bildverarbeitungssystemen eingesetzt. Und bei eingebetteten Systemen verändert KI die Art und Weise, wie Chips entworfen, getestet und debuggt werden.
So aufregend diese Innovationen auch sind, die Menschen stehen erst am Anfang der Erforschung dessen, was mit KI möglich ist. Um ihr volles Potenzial auszuschöpfen und sie allgegenwärtig zu machen, ist ein anpassungsfähiger und heterogener Ansatz unabdingbar: ein Ansatz, der CPUs, GPUs und programmierbare Logik mit offener Software kombiniert und Arbeitslasten von der Cloud auf Edge- und Endpunkte verteilt. Die Lösungen müssen außerdem anpassungsfähig sein und die Möglichkeit bieten, KI-Hardware mit den neuesten Modellen zu aktualisieren oder neu zu konfigurieren – selbst Jahre nach der Bereitstellung.
Die meisten diskreten Geräte sind heute nicht für Energieeffizienz optimiert. Doch seit 2020 tragen Verbesserungen bei der Prozessoreffizienz und KI-Engines auf adaptiven SoCs dazu bei, Stromeinsparungen für KI zu erzielen. Während dieser Keynote werden die Teilnehmer mehr erfahren über:
- Die wachsenden Anforderungen an Rechenleistung und Stromverbrauch, die für die Entwicklung von KI erforderlich sind
- Techniken zur Förderung energieeffizienter KI mit heterogenen Computerlösungen
- Wie man mit adaptivem Computing durch Workload-Optimierung Recheneffizienz erreichen kann