Die Systemauslegung spielt bei der Planung eine wichtige Rolle, und auch hier nimmt die Optik wieder einen besonderen Stellenwert ein. Kleinere Pixel ermöglichen heutzutage einen kleineren Bildsensor (bei fester Auflösung), der zwar meist preisgünstiger ist, aber normalerweise eine geringere Empfindlichkeit und Sättigungsleistung hat als größere Bildsensoren. Anwender können dann auch ein kleineres Objektiv wählen, was einen weiteren Preisvorteil bringt, aber sie müssen sicherstellen, dass das Objektiv ein hohes Auflösungsvermögen erreicht, das wiederum zur kleinen Pixelgröße des Sensors passt.
Außerdem muss das Objektiv eine kurze Brennweite haben, um denselben Bildwinkel zu erzielen, den eine längere Brennweite in Verbindung mit einem größeren Bildsensor hätte. Dies wirkt sich auf die Blendenöffnung und damit auf die Schärfentiefe und das verfügbare Licht aus.
Wenn eine geringe optische Verzeichnung von Bedeutung ist – was bei einer Betrachtung mit dem Auge fast immer der Fall ist – muss ein Objektiv mit geringer Eigenverzerrung gewählt werden. Es erfordert normalerweise mehr optische Elemente und ist somit größer und teurer. Ist dies wegen engem Bauraum oder aus Kostengründen keine Option, lässt sich die optische Verzeichnung unter Umständen durch entsprechende Nachbearbeitung in der Imaging Pipeline minimieren. Dies ist meist jedoch nur dann möglich, wenn schon während der Systemauslegung ein Grundverständnis der Anforderungen herrscht und dadurch ein passender Bildsignalprozessor ausgewählt werden kann.
Praxistipps für die Auswahl von Komponenten für embedded-Vision-Systeme
Höhere Pixelzahlen bedeuten ein höheres Datenaufkommen in der Imaging Pipeline, das sollte man bei der Entwicklung von embedded-Vision-Lösungen schon zu Beginn beachten. Das System muss diese Datenmenge übertragen und verarbeiten können. Die Bandbreite eines Vision-Systems ist aber begrenzt, deshalb ist es wichtig, einen Kompromiss zwischen der Anzahl der Sensoren, der Auflösung pro Sensor, der Pixel-Bittiefe und der Bildrate zu finden.
Darüber hinaus liegen die Daten der Sensoren üblicherweise im RAW-Format vor, sodass eine Reihe mathematischer Transformationen erforderlich ist, um ein Bild zu bekommen, das dem entspricht, was unsere Augen gewohnt sind. In verschiedenen Systemen sind aber unterschiedliche Algorithmen implementiert, und je nach RAW-Datenqualität – die von den Sensor- und Objektiveigenschaften beeinflusst wird – erzielen hier einige Systeme eine bessere und andere eine schlechtere Bildqualität. Auch hier sind entsprechende Tests empfehlenswert, um empirisch herauszufinden, wie man die besten Ergebnisse für die eigene Applikation erzielt.
embedded-Vision-Systeme entwickeln: die 8 wichtigsten Schritte
Mit diesen acht Schritten schaffen Sie die Voraussetzung für die erfolgreiche Entwicklung eines embedded-Vision-Systems:
- Anforderungen, Merkmale und technischen Spezifikationen festlegen;
- Komponenten anforderungsbezogen auswählen;
- Abhängigkeiten zwischen Sensor, Objektiv (plus Filter) und Daten-Processing verstehen und beschreiben;
- Funktionsumfang des Serienprodukts ermitteln;
- Architektur definieren;Muster entwerfen und testen;
- Produktionsprozesse einrichten;
- Qualität kontrollieren.
In der embedded vision Area der embedded world 2023 und in Track 7 der Conference erfahren Sie alles rund um eingebettet Bildverarbeitungssysteme.
Quelle: Die Originalfassung des Artikels von Andreas Knoll, WEKA-Fachmedien, und Dr. Frederik Schönebeck, Framos, lesen Sie auf elektroniknet.de