Stemmer Imaging Common Vision Blox: Fokussiert auf Embedded Vision?

Nur selten wurde einer Bildverarbeitungstechnologie ähnlich viel Veränderungspotenzial zugesprochen. Kein Wunder: Embedded Vision-Systeme machen technische Anlagen auf innovative Weise „sehend“. Schon heute existiert in nahezu allen Bereichen der Industrie und des täglichen Lebens eine Vielzahl spannender Einsatzmöglichkeiten, aber wird diese Technologie tatsächlich zu einem kompletten Umbruch der Bildverarbeitung führen?

Mit einer hausinternen Softwareentwicklung, der etablierten Softwareplattform Common Vision Blox und mit einem professionellen Support zeigt sich Stemmer Imaging bestens aufgestellt für die Zukunft.

Mit einer hausinternen Softwareentwicklung, der etablierten Softwareplattform Common Vision Blox und mit einem professionellen Support zeigt sich Stemmer Imaging bestens aufgestellt für die Zukunft.

Peter Keppler
Director of Corporate Sales bei Stemmer Imaging

„Da Systems On Chip nur geringe Anfangsinvestitionen und Systemkosten erfordern und zudem eine einfache Duplizierung möglich ist, hat diese Technologie aus meiner Sicht das Potenzial, die Bildverarbeitung zu revolutionieren.“

Obwohl es keine allgemeingültige Definition für den Begriff „Embedded Vision“ gibt, existiert eine gängige Vorstellung von dieser Technologie: Kompakte Bildverarbeitungssysteme auf Basis angepasster Kameramodule sind direkt in Maschinen oder Geräten integriert und sorgen dort mit zugeschnittenen Rechnerplattformen und geringer Leistungsaufnahme für intelligente Bildverarbeitung in verschiedensten Anwendungsgebieten. Es gibt jedoch verschiedene Formen von Embedded Vision-Systemen.

„Klassische Bildverarbeitungssysteme arbeiten auf Basis von Industrie-PCs, die über spezielle Bildverarbeitungsbibliotheken frei programmierbar sind. Die Bildaufnahme erfolgt über Kameras, die mit geeigneten Optiken ausgestattet sind. Als wesentliches Element sorgen Beleuchtungen, die für die jeweilige Anwendung optimiert sein sollten, für eine ausreichende und applikationsgerechte Ausleuchtung der Prüfobjekte“, erklärt Peter Keppler, Director of Corporate Sales bei Stemmer Imaging. Die aufgenommenen Kameradaten werden nach der Bildaufnahme über geeignete Schnittstellenkabel an Bilderfassungskarten weitergeleitet, welche die eigentliche Bildverarbeitung auf der CPU des Rechners koordinieren. Bei manchen dieser auch Frame Grabber genannten Karten erfolgt dabei zur Entlastung der Host-CPU eine Bildvorverarbeitung.

Embedded-PCs sind ebenfalls frei programmierbar und über spezielle Bibliotheken an die jeweiligen Anforderungen anpassbar, allerdings ist hier die Funktionalität der Bilderfassungskarten bereits fest im Embedded-PC integriert. Noch einen Schritt weiter gehen Smart-Kameras und Vision-Sensoren: Bei diesen Systemen sind der Kamerasensor sowie die Bilderfassung, der Prozessor für die Bildauswertung und die I/O-Schnittstellen sowie teilweise auch Beleuchtung und Optik in einem meist sehr kompakten, robusten Gehäuse zusammengefasst.

Vision Sensoren verfügen in der Regel über eine grafische „Point and Click“-Parametrierung. Häufig arbeiten diese Systeme zudem mit integrierten Beleuchtungen und Optiken, was die Anwendung vereinfacht, zugleich aber auch die Flexibilität reduziert. „Solche Systeme sind in der Regel für bestimmte Anwendungsfälle optimiert und erlauben keinen Wechsel zu einer komplett anderen Applikation, z. B. von einer reinen Anwesenheitskontrolle hin zu Mess- oder Leseaufgaben. Als weitere Einschränkung ist das limitierte Angebot an Bild-Sensoren zu nennen, die in solchen Produkten eingesetzt werden können“, geht Peter Keppler weiter ins Detail.

Embedded-PCs unterscheiden sich von klassischen IPC-Systemen im Wesentlichen dadurch, dass die Funktionalität der Bilderfassungskarten fest im Embedded-PC integriert ist.

Embedded-PCs unterscheiden sich von klassischen IPC-Systemen im Wesentlichen dadurch, dass die Funktionalität der Bilderfassungskarten fest im Embedded-PC integriert ist.

Deep Embedded Vision: Spezialisiert auf eine Aufgabe

Für vollintegrierte Bildverarbeitungssysteme, die auch ohne Betriebssystem arbeiten können, schlägt Keppler die am Markt noch nicht etablierte Bezeichnung „Deep Embedded Vision System“ vor. „Diese Systeme sind nicht frei programmierbar und wurden speziell für eine bestimmte Aufgabe entwickelt. Die Kommunikationsmöglichkeiten solcher Systeme werden bereits bei der Auslegung fest definiert und können nachträglich nur mit relativ hohem Aufwand verändert werden“, beschreibt er. Für das Systemdesign solcher Deep Embedded Vision-Systeme entstehen hohe Initialkosten, die sich nur durch große Stückzahlen amortisieren lassen. In der Regel zeichnen sich solche Produkte durch eine sehr geringe Stromaufnahme aus, die selbst beim Betrieb per Batterie lange Laufzeiten ermöglicht.

Ein aktuelles Beispiel solcher Deep Embedded Vision-Systeme stellt unter anderem die RealSense-Technologie von Intel® dar. Diese Kamerasysteme basieren auf dem Intel® RealSense™ Visionprozessor D4 mit fortschrittlichsten Algorithmen, um die Rohbild-Streams der integrierten Bildsensoren zu verarbeiten und daraus präzise 3D-Tiefeninformationen mit hoher Auflösung in beeindruckender Bildrate zu berechnen und diese 3D-Bilder als Ergebnis zur weiteren Verarbeitung auszugeben.

Aus dem Bereich der Texterkennung stammt ein weiteres Beispiel solcher Deep Embedded Vision-Systeme: Kompakte Module mit integrierter Kamera, OCR-Software und Funkanbindung werden direkt auf mechanische Zählwerke montiert und ermöglichen eine kostengünstige automatische Erfassung ohne Austausch der bestehenden Zählwerke gegen elektronische Versionen. Das sie die Zählerstände in festgelegten zeitlichen Abständen direkt an den Leitrechner weitergeben, erübrigt sich eine manuelle Ablesung. Aufgrund des äußerst geringen Stromverbrauchs und der nur kurzzeitigen Einschaltphasen verfügen diese Module über wartungsfreie Laufzeiten im Bereich von zehn Jahren.

Bei Smart-Kameras und Vision-Sensoren sind Kamera, Bilderfassung, der Prozessor für die Bildauswertung und die I/O-Schnittstellen sowie teilweise auch Beleuchtung und Optik in einem Gehäuse zusammengefasst.

Bei Smart-Kameras und Vision-Sensoren sind Kamera, Bilderfassung, der Prozessor für die Bildauswertung und die I/O-Schnittstellen sowie teilweise auch Beleuchtung und Optik in einem Gehäuse zusammengefasst.

System on Chip: Extreme Flexibilität

Ein System On Chip (SoC) stelle laut Keppler eine junge, in letzter Zeit stark aufkommende Embedded-Rechnertechnologie mit extremer Flexibilität dar. „SoCs erlauben maßgeschneiderte Systeme und eine einfache Adaption verschiedenster Bildsensoren über Standardkameras und zahlreicher Standardschnittstellen wie GigE Vision, USB3 Vision oder MIPI. Durch die Einbindung leistungsstarker Hardware wie FPGAs, GPUs oder DSPs stellen sie bei Bedarf eine lokale Vorverarbeitung und Datenreduktion zur Verfügung. Zudem ist eine standardkonforme Bildverteilung zur Weiterverarbeitung und eine standardkonforme Maschinenkommunikation über OPC UA möglich“, erläutert er.

Als weitere Vorteile führt er an, dass derartige ARM-basierende Systeme unter Linux beim Einsatz der richtigen Softwareumgebung eine Source Code-Kompatibilität zu PC-Systemen, eine freie Programmierbarkeit über C/C++ und Zugriff auf Bildverarbeitungsbibliotheken mit optimierten Algorithmen bieten. Kompakte Bauformen, eine einfache Integration und eine niedrige Stromaufnahme zeichnen diese Systeme ebenfalls aus. „Da SoCs nur geringe Anfangsinvestitionen und Systemkosten erfordern und zudem eine einfache Duplizierung möglich ist, hat diese Technologie aus meiner Sicht das Potenzial, die Bildverarbeitung zu revolutionieren“, lautet demnach die Einschätzung des Director of Corporate Sales bei Stemmer Imaging.

Als wesentlichen Schlüssel zum optimalen Bildverarbeitungssystem für den jeweiligen Einsatzfall betrachtet Peter Keppler neben einer umfassenden Beratung durch einen kompetenten Partner das Thema Software: „Diese sollte unabhängig von der Hardwareplattform und vom Betriebssystem und darüber hinaus kompatibel zu den gängigen Sourcecodes und Standards sein, um die erforderliche Flexibilität zu bieten“, empfiehlt er.

Dass die klassische Bildverarbeitung aufgrund der rasanten Entwicklungen im Embedded Vision-Bereich schon bald ausgedient haben könnte, glaubt er nicht. Stattdessen geht er davon aus, dass es auch weiterhin zahlreiche Applikationen geben wird, in denen klassische PC-basierte Bildverarbeitungssysteme ihre Stärken ausspielen können.

Filtern

Suchbegriff

Unterkategorie

Firmen

Inhaltstyp

Firmentyp

Land