Firmen im Artikel
elektro AUTOMATION: Die Bildverarbeitung erfreut sich wachsender Beliebtheit im Produktionsumfeld. Dabei kommen neben High-End-Lösungen zunehmend auch Smart Kameras sowie Automatisierungslösungen zum Einsatz, die direkt an eine SPS angeschlossen werden können. Erläutern Sie uns die aktuellen Trends in der Bildverarbeitung aus Ihrer Sicht?
Andreas Waldl (B&R): Maschinenbauer beschäftigen sich zunehmend mit den Möglichkeiten von Machine Vision. Sie sehen in der industriellen Bildverarbeitung eine Chance, die Forderungen des Marktes nach flexibleren und produktiveren Maschinen umzusetzen. Allerdings waren die Komplexität von Vision-Systemen und die mangelnde Integration in die restliche Maschinenautomatisierung bisher eine große Hürde für die Maschinenbauer. Für uns war daher die vollständige Integration der Bildverarbeitung in das Automatisierungssystem die einzig konsequente Lösung. So erhöhen wir die Präzision bei gleichzeitiger Reduktion der Komplexität und bieten Automatisierungstechnikern die Möglichkeit, in ihrer gewohnten Umgebung Vision-Funktionen umzusetzen. Dem Siegeszug von Machine Vision im Maschinenbau steht nun nichts mehr im Weg.
Michael Busch (Beckhoff Automation): Der Haupttrend folgt sicherlich dem Wunsch der Anwender, die Bildverarbeitungsfunktionen stärker in die Maschine beziehungsweise die Maschinensteuerung, also durchgängig in einem System zu integrieren. So liegt der Fokus zunehmend auf einer umfassenden Lösung aus einer Hand. Der Ansatz der PC-basierten Steuerungstechnik von Beckhoff bietet hier eine ideale Lösung: Neben SPS, Motion Control, Robotik, Highend-Messtechnik, IoT und HMI wird mit TwinCAT Vision auch die Bildverarbeitung auf einer einheitlichen Steuerungsplattform integriert. Das vereinfacht das Engineering deutlich, weil die Konfiguration beziehungsweise die Programmierung in der gewohnten Umgebung erfolgt. Zudem lassen sich alle aus der Bildverarbeitung abgeleiteten Steuerungsfunktionen in einer Runtime exakt in Echtzeit synchronisieren.
Kai Hartmann (IDS Imaging Development Systems): Wenn wir über Kameras im Automatisierungsumfeld sprechen, handelt es sich dabei längst nicht mehr nur um reine Bildlieferanten. Im Gegenteil – je autonomer sie durch Technologien wie künstliche Intelligenz werden, desto mehr verschiebt sich der Fokus weg vom eigentlichen Bild zum konkreten Ergebnis. In Kombination mit Industrieprotokollen wie OPC-UA lassen sich Folgeprozesse in Systemen unmittelbar antriggern, was Fehlerquellen reduziert und Taktzahlen erhöht. Aber auch wenn KI sicher zu den Top-Trends gehört, spielt sie ihre Stärken im produktiven Einsatz vor allem in Kombination mit klassischer Bildverarbeitung aus. So kann ein KI-basiertes System beispielsweise eine schnelle IO-/NIO-Prüfung von Teilen durchführen, die anschließend durch einen Roboterarm gegriffen werden – für dessen kollisionsfreien Greifweg dann 3D-Bildverarbeitung zuständig ist. Damit werden die Stärken beider Welten bestmöglich genutzt.
Stuart Chaston (Mavis Imaging): Die aktuellen Trends gehen in Richtung einer anspruchsvolleren Verarbeitung und Interaktion mit anderen Teilen der Produktion. Die Automatisierung ist ein starker Antriebsfaktor, der den Kontakt von Mensch zu Mensch reduziert und gleichzeitig die Qualität verbessert und die negativen Auswirkungen auf Menschen, die repetitive und manchmal anstrengende Aufgaben ausführen müssen, verringert. 3D-Technologie wird immer ausgeklügelter und erfordert extrem hohe Rechenleistungen, um die einfache Verarbeitung des menschlichen Gehirns eines geschulten Anwenders zu ersetzen. Es besteht außerdem der Wunsch, die Verarbeitung zu dezentralisieren, um die lokale Entscheidungsfindung zu verbessern.
Mario Bohnacker (MVTec Software): Ein Trend ist, dass immer mehr Bildverarbeitungsaufgaben auf der SPS möglich sein sollen. Machine Vision und SPS wachsen also zunehmend zusammen. Dafür ist es notwendig, dass Machine-Vision-Lösungen nahtlos mit anderen Disziplinen wie der SPS interagieren. So lassen sich durchgängig automatisierte Industrieprozesse gewährleisten. Wir arbeiten intensiv daran, dass dieses Zusammenwachsen von Machine Vision und SPS weiter voranschreitet. Grundvoraussetzung ist dabei, dass beide Technologien dieselbe Sprache sprechen. Auch damit die Integration und Inbetriebnahme möglichst einfach gestaltet werden kann. Da Entscheidungen direkt in der Produktionsstraße getroffen werden sollten, muss der SPS-Programmierer vor Ort problemlos notwendige Anpassungen vornehmen können. Dies ermöglicht eine flexiblere Produktion mit kleineren Losgrößen im Industrie-4.0-Kontext. Ein wichtiger Trend sind auch weiterhin Embedded Devices im Industrieumfeld. Diese verfügen heute über performante, industrietaugliche und langzeitig verfügbare Prozessoren, auf denen sich problemlos Bildverarbeitungssysteme betreiben lassen. Dadurch können immer mehr und komplexere Bildverarbeitungsaufgaben auf Embedded Devices ausgeführt werden.
Mark Williamson (Stemmer Imaging): Wenn wir uns auf das Produktionsumfeld konzentrieren, lässt sich hier der Trend erkennen Bildverarbeitungssysteme als Teil der Smart Factory zu sehen. Neue Standards wie OPC Machine Vision, die OPC-Erweiterung für Bildverarbeitungssysteme, ermöglichen eine direkte Anbindung von Vision-Systemen an die Industrie-4.0-Infrastruktur. Die aktuelle Version unserer Softwareplattform Common Vision Blox bietet eine anwenderfreundliche API, um diese neuen Möglichkeiten umzusetzen. Der größte Wachstumsbereich für uns liegt jedoch in Anwendungen, die wir „Artificial Vision“ nennen – Bildverarbeitungsanwendungen, die über den Fertigungsbereich hinausgehen und nichts mit der Herstellung oder Verarbeitung von Produkten oder Gütern zu tun haben. Hierzu zählen intelligente Straßen- und Verkehrssysteme, Sportanalysen und Unterhaltungsanwendungen ebenso wie die Nutzung von Bildverarbeitungstechnologien für Ertragssteigerung in der Landwirtschaft.
Jan-Erik Schmitt (Vision Components): Statt Smart Kamera wird heute eher der Begriff Embedded-Vision-System verwendet. Hier gehören natürlich Schnittstellen für die Sensor- und Aktorebene dazu, die erlauben, dass Aufgaben, die nah mit der Bildverarbeitung zusammenhängen, direkt dezentral gesteuert werden. Der Trend zu Kamerasystemen mit integrierter Bildverarbeitung begann bei uns schon vor knapp 25 Jahren. In den letzten Jahren hat er massiv an Fahrt aufgenommen. Dabei werden die Systeme immer kompakter. Der Trend zur Miniaturisierung und zu immer leistungsstärkeren Prozessoren wird maßgeblich durch die Consumer-Industrie befeuert, deren Wettbewerb für quasi kontinuierliche Verbesserungen im Preis-Leistungs-Verhältnis sorgt. Und mit MIPI hat eine Handy-Schnittstelle den Weg in industrielle Bildverarbeitungstechnik gefunden.
elektro AUTOMATION: Ein weiteres wichtiges Thema ist Deep Learning. Entsprechende neuronale Netze kommen zunehmend auch in Smart Kameras zum Einsatz. Wie ist der Stand der Technik und welche Entwicklungen sind reif für den Einsatz im Industrieumfeld?
Waldl (B&R): Der rasante Fortschritt bei Inferenz-Lösungen führt dazu, dass regelmäßig neue Kameras vorgestellt werden, die neuronale Netze verarbeiten können. Ein gutes Potenzial für einen breiten industriellen Nutzen sehe ich hier zum Beispiel bei der Anomalie-Erkennung auf Objekten.
Busch (Beckhoff): Ganz im Sinn des vorgenannten Haupttrends in der Bildverarbeitung setzt Beckhoff auf offene PC-basierte Systeme anstatt auf Smart Kameras. Nur so profitieren die Anwender konsequent von der rasanten Weiterentwicklung der IT-Welt. Zudem können sie ein hoch skalierbares System nutzen, das sich sowohl in der Rechenleistung als auch hinsichtlich Kameramodell und -anzahl optimal an die jeweilige Applikation anpassen lässt. Die Vorteile der Systemoffenheit und der hohen Rechenleistung kommen insbesondere in Verbindung mit Deep Learning zum Tragen. Hierfür bieten wir mit TwinCAT Machine Learning ein hoch performantes Ausführungsmodul für trainierte ML-Modelle, das sich auch für anspruchsvolle Aufgaben wie Bildverarbeitung und Motion Control sehr gut eignet.
Hartmann (IDS): Mit neuronalen Netzen stehen Algorithmen zur Verfügung, die regelbasierter Bildverarbeitung für Aufgaben wie Objekt-Klassifikation oder Anomalie-Detektion signifikant überlegen sind. Gerade wenn es um Objekte mit hoher Varianz geht oder sich Umweltbedingungen häufig ändern, sind sie deutlich flexibler und leistungsfähiger. Damit sind sie nicht nur reif für den Einsatz im industriellen Umfeld, sondern aus unserer Sicht immer öfter zwingend erforderlich. Wenn man einen Schritt weiter geht, führt man die Netze direkt auf der Kamera aus und profitiert von Faktoren wie verbesserter Effizienz und reduzierten Systemkosten. Unsere IDS-NXT-Modelle verfügen deshalb beispielsweise über einen Hardware-Beschleuniger für neuronale Netze. Sie sind dadurch in der Lage, direkte Ergebnisse weiterzugeben.
Chaston (Mavis): Neuronale Netze beziehungsweise Deep-Learning-Algorithmen sind eine aufregende neue Entwicklung, die leicht in industriellen Bildverarbeitungsanwendungen eingesetzt werden kann. Der Hauptwachstumsmarkt für diese Technologie liegt in der Lebensmittel- und Agrarindustrie, in der die herkömmliche industrielle Bildverarbeitung Schwierigkeiten mit natürlich gewachsenen Produkten hat. Was neue Entwicklungen betrifft, so werden SWIR-Bildgebungssysteme (Bildgebung über kurzwelliges Infrarotlicht) sowie eigenständige ToF-Kameras (time of flight) immer ausgereifter und einfacher handhabbar. Darüber hinaus machen auch die Entwicklungen in der Schnittstellentechnologie Fortschritte, wie etwa durch die Einführung von 10GigE/25GigE für hohe Übertragungsraten durch das Unternehmen Emergent Vision Technologies zeigt.
Bohnacker (MVTec): Es gibt bereits erste Smart Kameras und Embedded-Geräte, die für Deep Learning in der Industrie ausgelegt und einsetzbar sind. MVTec Halcon unterstützt dies vollumfänglich, da die Deep-Learning-Technologien Klassifikation, Objektdetektion und semantische Segmentierung standardmäßig auf Arm-basierten Plattformen ausgeführt werden können. Die Verwendung spezieller Deep-Learning-Beschleunigungshardware auf Embedded-Geräten erlaubt weitere Einsatzmöglichkeiten, die sich zukünftig auch mit Halcon adressieren lassen. Mit einzelnen Pilotkunden und Industriepartnern erarbeiten wir hierfür bereits Lösungen. Durch eine generische Schnittstelle sollen unsere Kunden diese Beschleunigungshardware auch in Verbindung mit Halcon nutzen können. Deep Learning trägt auch dazu bei, neue Anwendungen zu ermöglichen und Machine-Vision-Prozesse signifikant zu vereinfachen. Deep Learning beschleunigt dabei die Entwicklung von immer leistungsfähigeren Embedded-Geräten.
Williamson (Stemmer Imaging): Deep Learning ermöglicht die Prüfung sowohl organischer als auch variierender Objekte. Bei Inspektionsaufgaben ist eine der größten Herausforderungen, genügend Trainingsdaten, also Beispielbilder, für einen Defekt zu erhalten, um das Netzwerk so zu trainieren, dass der Defekt zuverlässig erkannt wird. Unser CVB-Tool Polimago bietet die Möglichkeit mit wenigen Trainingsbildern zuverlässige Ergebnisse zu erzielen. Eine andere Aufgabe ist die Erkennung von Abweichungen – hier werden nur Gut-Beispiele trainiert und der Algorithmus erkennt, wo eine Abweichung vom Normbereich vorliegt. Dies eröffnet neue Einsatzfelder für Deep Learning im Bereich der automatisierten Prüfung. Während Smart Kameras mit integrierter Deep-Learning-Technologie eine klarer Trend sind, beschränkt die für diese Algorithmen benötigte Rechenleistung den Einsatz vorerst noch auf einfache Anwendungen.
Schmitt (Vision Components): Es gibt bereits seit Längerem für den Industrieeinsatz taugliche Embedded-Vision-Plattformen, auf denen Deep Learning dezentral umgesetzt wird. Hardware und Software sind bereits sehr weit entwickelt. Treibende Kräfte sind der Consumer- und der Automotive-Markt, zum Beispiel mit dem automatisierten Fahren. Im Industrieumfeld sehen wir einen Schwerpunkt in klassifizierenden Aufgaben, etwa um Produkte wie Obst oder Gemüse zu sortieren, in der Bauteilerkennung oder bei Oberflächenanalysen. KI ist der klassischen Bildverarbeitung in solchen Aufgaben, die bisher – wenn überhaupt – nur mit hochkomplexen Algorithmen gelöst werden konnten, klar überlegen. Geeignete neuronale Netze lassen sich vergleichsweise einfach anhand von Beispielbildern trainieren. Der Nachteil ist, dass sich der Entscheidungsprozess nicht nachvollziehen lässt. 100-prozentige Prüfung ist unter diesen Voraussetzungen nicht machbar. Die Tauglichkeit für bestimmte Applikationen muss fallweise abgewogen werden. Gegebenenfalls kann man die Kombination mit zusätzlichen Prüftechnologien erwägen, um die gewünschte Zuverlässigkeit und Transparenz zu erreichen.
elektro AUTOMATION: Welche Unterstützung bieten Sie Ihren Anwendern bei der Umsetzung von Deep-Learning-Lösungen? Wie lassen sich die neuronalen Netze trainieren und wie werden sie in Industrie-PCs und Smart Kameras integriert?
Waldl (B&R): Schon heute basieren Funktionen wie die Schrifterkennung auf maschinellem Lernen. Aufgrund der guten Erfahrungen und neu verfügbarer Technologien werden wir entsprechende Mechanismen in Zukunft auch bei weiteren Funktionen integrieren. Ich gehe davon aus, dass die Leistungsfähigkeit von On-the-Edge-Geräten steigt und somit die Einsatzmöglichkeiten von Deep-Learning-Netzwerken in den kommenden Jahren deutlich erweitert werden.
Busch (Beckhoff): PC-based Control von Beckhoff bietet den Maschinenbauern zahlreiche Möglichkeiten und Produkte, um Maschinen- und Prozessdaten lückenlos zu erfassen – die unverzichtbare Grundlage für Machine Learning. Paradebeispiel dafür ist TwinCAT Analytics. Als offenes Steuerungssystem nutzen wir auch ein standardisiertes Austauschformat, nämlich ONNX, um trainierte Machine-Learning-Modelle in die Steuerungs-Runtime zu importieren. Dadurch besteht die Möglichkeit, die etablierten Open-Source- oder Drittanbieter-Frameworks zum Trainieren zu verwenden. Für die Ausführung der Inferenz in Echtzeit bietet die TwinCAT-Run-time folgende neue Functions: die TwinCAT 3 Machine Learning Inference Engine für klassische ML-Algorithmen sowie die TwinCAT 3 Neural Network Inference Engine für trainierte neuronale Netze.
Hartmann (IDS): Künstliche Intelligenz ist ein komplexes Thema. Wer von der Pieke damit anfangen will, muss sich sehr genau mit Deep Learning, Schnittstellen und Kameraprogrammierung beschäftigen. Wir haben mit IDS NXT Ocean deshalb eine Lösung entwickelt, mit der auch unerfahrene Anwender neuronale Netze trainieren und ins Feld bringen können. Es handelt sich dabei um ein komplettes System, das alle erforderlichen Werkzeuge und Workflows beinhaltet. Dazu gehört die Cloud-basierte Trainingssoftware IDS NXT Lighthouse, die ohne Vorwissen und innerhalb kurzer Zeit erste Ergebnisse KI-basierter Bildverarbeitung erlaubt. Das trainierte neuronale Netz lässt sich auf einer IDS-Kamera – on the edge – ausführen. Konfigurieren statt Programmieren, keine extra Entwicklungsumgebung, Komponenten aus einer Hand – das senkt die Einstiegshürden für die Technologie enorm.
Chaston (Mavis): Wir bieten eine Verarbeitungsplattform von Pleora sowie handelsübliche Softwarepakete von Euresys an, die auch Entwicklungs- und Prototyping-Tools umfassen. Prototyping-Tools sollten nie unterschätzt werden, da sie neben bestehenden Lösungen eingesetzt werden und über sie neue Einsatzbereiche getestet werden können.
Bohnacker (MVTec): Für das Training des Deep-Learning-Netzes muss eine ausreichend große Menge an Trainingsbildern gesammelt und gelabelt, also mit einem digitalen Etikett versehen werden. Durch diesen Labeling-Prozess lernt der Deep-Learning-Algorithmus, welche Merkmale zu welcher Klasse gehören. Überdies können nach dem Training Objekte eigenständig und verlässlich lokalisiert und einer bestimmen Klasse zugeordnet werden. Die gelabelten Daten lassen sich zudem nahtlos in Halcon integrieren. Um den Aufwand bei unseren Anwendern zu reduzieren, sind in MVTec Halcon bereits industrietaugliche, vortrainierte DL-Netze integriert. So benötigt der Kunde weniger eigene Bilder für sein applikationsspezifisches Training. Darüber hinaus stellt MVTec für das Labeln der Bilder das kostenlose MVTec-Deep-Learning-Tool zur Verfügung. Was unseren Anwendern sehr entgegenkommt: Seit Halcon 20.05 wird für das Training nicht mehr zwingend eine GPU benötigt. Vielmehr reicht bereits eine CPU aus. Durch das Training auf der CPU können Unternehmen Deep-Learning-Technologien wesentlich flexibler einsetzen, da sich dieses nun mit gängigen Industrie-PCs direkt an der Produktionslinie durchführen lässt. So kann die Anwendung on the fly an sich ändernde Umgebungsbedingungen angepasst werden. Da Halcon standardmäßig Arm-basierte Plattformen unterstützt, ist der Transfer beispielsweise auf Smart Kameras sehr leicht – genau genommen nur ein Copy und Paste des trainierten Netzes und des implementierten Programmes zur Ausführung der Netzwerke. Auch das erleichtert unseren Anwendern die Arbeit enorm. Eine weitere Vereinfachung bietet die Anomaly Detection von MVTec, welche nur mit Gut-Bildern auskommt. Das Feature ist sehr einfach anzuwenden, auch weil für das Training des DL-Netzes nur noch etwa 20 bis maximal 100 Trainingsbilder benötigt werden.
Williamson (Stemmer Imaging): Wir bieten umfassende Machbarkeitsstudien an, bei denen wir nicht nur das richtige Deep-Learning-Tool für die Anwendung auswählen sondern auch Schulungen und die Validierung. Unsere Tools laufen auf Intel- und Arm-Plattformen unter Linux sowie Windows und können einfach auf der gewünschten Plattform, auf PCs und Smart Kameras implementiert werden.
Schmitt (Vision Components): Mit fast 25 Jahren Erfahrung können wir sagen: Wir haben das Know-how, um optimale Deep-Learning-fähige Komponenten zu entwickeln oder zu empfehlen. Aufgrund langjähriger Erfahrung mit vielen KI-basierten Kundenprojekten aus dem nicht-industriellen Bereich können wir eine Vielzahl von Embedded-Kameras anbieten, die selbstverständlich auch im industriellen Umfeld eingesetzt werden können.
elektro AUTOMATION: Viele Unternehmen bieten ein Store-Konzept, zu dem alle interessierten Unternehmen beitragen und eigen entwickelte Lösungen für verschiedene Applikationen verfügbar machen können. Planen Sie ein solches Angebot? Welche Rolle spielen dabei Schnittstellen wie OPC Machine Vision?
Bohnacker (MVTec): Ein Store-Konzept haben wir zwar nicht vorgesehen, es gibt jedoch Kunden welche solche Konzepte basierend auf unserer Software erfolgreich aufgebaut haben. Nichtsdestotrotz wollen wir es als unabhängiger Software-Hersteller dem Kunden natürlich möglichst einfach machen, unsere Software mit der von ihm präferierten Hardware zu kombinieren. Daher unterstützen wir natürlich Standards wie OPC Machine Vision, an dessen Entwicklung wir als aktives Mitglied in der OPC Machine Vision Core Working Group maßgeblich mitgewirkt haben. Kommunikationsstandards wie OPC UA ermöglichen außerdem eine sich stetig verbessernde Kommunikation und Vernetzung zwischen Hard- und Software – auch das unterstützen wir natürlich.
Williamson (Stemmer Imaging): Jede Kundenanwendung ist individuell, so dass wir für ein derartiges Store-Konzept keine Relevanz sehen. OPC MachineVision ist jedoch etwas, das uns sehr am Herzen liegt. In unserer Bildverarbeitungsbibliothek Common Vision Blox stellen wir Schnittstellen zur Verfügung, mit denen Anwender ihre Lösung nicht nur standardkonform entwickeln können, sondern auch direkt mit der Produktionsumgebung interagieren können.
elektro AUTOMATION: Interessant für den Einsatz im Produktionsumfeld ist auch die Sensorfusion. Welche Bedeutung wird sie in der Automatisierung erlangen und welche Rolle spielt dabei die Bildverarbeitung?
Waldl (B&R): Sensorinformationen sind essenziell für jede Maschine. Je genauer und zuverlässiger die Sensordaten sind, desto präziser lässt sich eine Maschine steuern. B&R bietet seit jeher die Möglichkeit, unterschiedliche Sensordaten synchron zu erfassen und mit speziellen Algorithmen weiter zu verarbeiten. Da Machine Vision bei B&R vollständig in das Automatisierungssystem integriert ist, sind die daraus gewonnenen Daten perfekt mit andern Informationen kombinierbar. Das übersteigt die Möglichkeit, Daten externer Komponenten zu fusionieren um ein Vielfaches.
Busch (Beckhoff): Die Bedeutung der Sensorfusion wird zukünftig steigen. Denn dadurch können Sensoren – teilweise auch kostspielige – ersetzt oder zusätzliche Daten beziehungsweise redundante Information zu kritischen Prozessgrößen ohne weitere Sensoren generiert werden. Das Beckhoff-Portfolio bietet als optimale Voraussetzung sehr viele Möglichkeiten, um Sensordaten über Bus- oder EtherCAT-Klemmen zu sammeln. Durch die nahtlose Integration der Bildverarbeitung in die SPS lassen sich hierbei auch Bilddaten einbeziehen. Da die SPS mit PC-based Control auf alle Daten einer Maschine zugreifen kann, besteht heute schon die Möglichkeit, Sensorfusion mit TwinCAT 3 umzusetzen – was einige unserer Kunden auch bereits nutzen.
Hartmann (IDS): Es macht auf jeden Fall Sinn, Daten von unterschiedlichen Sensoren gemeinsam zu nutzen, wenn sich dadurch der Informationsgehalt sinnvoll erhöht und Prozesse unterstützt werden. Beim autonomen Fahren ist dieses Vorgehen bereits selbstverständlich, aber auch im Automatisierungsumfeld können Anwender von Sensorfusion profitieren. So kann ein Ultraschallsensor etwa prüfen ob Objekte in kritischen Regionen auftauchen; und falls ja, wird dieser Bereich anschließend durch einen Bildsensor genauer geprüft. Industriekameras können aber auch selbst mehrere Aufgaben wahrnehmen, etwa durch die Kombination von Entfernungsmesssensoren (Time of Flight) und Bildsensoren. Ein weiteres Beispiel ist die Kombination von 2D- und 3D-Bilddaten. Wo 3D-Kameras in Grenzbereichen Schwierigkeiten aufweisen Objekte zu identifizieren, unterstützen 2D-Kameras idealerweise durch Kantendetektion, Farberkennung, Messaufgaben oder erfassen zusätzliche Informationen wie Barcodes.
Bohnacker (MVTec): Da Bildverarbeitungs-Algorithmik die Informationen verschiedenster Sensoren sehr gut miteinander verbinden kann, lassen sich noch zuverlässigere Ergebnisse erreichen. Daher spielt die Bildverarbeitung durchaus eine größere Rolle bei der Sensorfusion. Unsere Software unterstützt dabei Datentypen von unterschiedlichen Sensoren. Automatisierungsanwender profitieren dadurch von mehr Flexibilität bezüglich der genutzten Sensoren. In Verbindung mit Deep-Learning-basierten Features wie Anomaly Detection lässt sich so die Automatisierung in verschiedenen Branchen maßgeblich vorantreiben.
Williamson (Stemmer Imaging): Die Kombination verschiedener Sensoren ist eine wichtige Methode mehr Daten zu sammeln, um die Entscheidungsfindung zu verbessern und Fehler zu erkennen, die bisher nicht zu identifizieren waren. Der gleiche Trend zeichnet sich auch in der industriellen Bildverarbeitung ab. Beispielsweise gibt es Kameras mit mehreren Wellenlängen, die zum Beispiel SWIR und das sichtbare Spektrum kombinieren. So lassen sich Objekteigenschaften erkennen, die mit einem einzigen Sensor nicht zu erkennen wären. Darüber hinaus ermöglichen Computational-Imaging-Techniken wie beispielsweise Shape from Shading durch Kombination verschiedener Beleuchtungskonfigurationen die Erkennung von Defekten, die mit statischen Konfigurationen nicht zu erkennen wären. Damit wird die Leistungsfähigkeit der industriellen Bildverarbeitung auf eine ganz neue Ebene gehoben.
elektro AUTOMATION: Und in welchem Umfang kann die Bildverarbeitung derzeit mit Echtzeitlösungen die In-Line-Prozesskontrolle in Produktionsunternehmen übernehmen?
Waldl (B&R): Eine In-Line-Prozesskontrolle muss mehrere grundlegende Anforderungen erfüllen: Sie muss hochqualitative Ergebnisse liefern und darf den Produktionsprozess nicht bremsen oder gar unterbrechen. Herkömmliche Vision-Systeme tun sich mit diesen Anforderungen schwer. Das vollständig integrierte System von B&R ist an dieser Stelle klar im Vorteil. Aufgrund der mikrosekundengenauen Synchronisierung zwischen Maschinenprozess und Vision-System, kann die Prozesskontrolle bei voller Transportgeschwindigkeit durchgeführt werden. Die Synchronisierung umfasst auch unsere leistungsfähigen Blitzcontroller. So können selbst bei Transportgeschwindigkeiten von 200 km/h Produkte noch scharf abgebildet werden. Der Einsatz unseres Vision-Systems in der In-Line-Prozesskontrolle kann also wesentlich zur Effizienzsteigerung einer Maschine oder Anlage beitragen.
Busch (Beckhoff): Durch die Integration von Vision in die TwinCAT-3-Echtzeitumgebung steht bereits der volle Funktionsumfang der Bildverarbeitungsbibliothek direkt in der SPS-Steuerung zur Verfügung. Dadurch entfallen Kommunikationsschnittstellen zu externen Geräten und es lassen sich äußerst kurze Reaktionszeiten realisieren. Abhängig von der Komplexität der Prüfaufgaben und der benötigten Antwort- beziehungsweise Reaktionszeit muss ein entsprechend leistungsstarker Industrie-PC aus unserem breiten IPC-Spektrum gewählt werden. Mit der Möglichkeit, die Bildverarbeitungsaufgaben innerhalb von TwinCAT zu parallelisieren, kann die Performance der hier verfügbaren Multicore- und Manycore-CPUs voll ausgenutzt werden.
Hartmann (IDS): Steuerungsintegrierte Bildverarbeitung trägt dazu bei, Übertragungszeiten und Prozessschritte zu minimieren, Fehler frühestmöglich zu erkennen und Folgefehler zu vermeiden. Je autonomer Kameras werden – etwa durch Technologie wie Deep Learning und Chips mit integriertem Beschleuniger für neuronale Netze – desto interessanter wird ihr Einsatz für Anwendungen wie In-Line-Prozesskontrollen in Echtzeitsystemen. Bildverarbeitung wird somit künftig sicher eine immer wichtigere Rolle in diesem Bereich spielen.
Chaston (Mavis): Produktionsbetriebe werden immer auf Menschen angewiesen sein, die bestimmte Aufgaben ausführen. Echtzeit-Bildverarbeitung wird jedoch bereits in Produktionsanlagen eingesetzt und ist der Schlüssel zur Verbesserung der Produktqualität, zur Steigerung des Wohlbefindens der Mitarbeiter und zur Erhöhung des Durchsatzes.
Williamson (Stemmer Imaging): In der Fertigung gab es schon immer zwei Hauptanwendungen für industrielle Bildverarbeitung. Die Qualitätskontrolle und die Prozesskontrolle, bei der das Bildverarbeitungssystem direkte Rückmeldung zur Anpassung des Produktionsprozesses in Echtzeit liefert. Meiner Meinung nach ist dies die wichtigste und interessanteste Anwendung von industrieller Bildverarbeitung, da die Gewährleistung einer gleichbleibend hohen Qualität durch Anpassungen während des Prozesses wesentlich vorteilhafter ist, als im Nachhinein erkennen zu müssen, dass der Prozess nicht einwandfrei abläuft und fehlerhafte Produkte produziert werden. Das ist schon lange ein wichtiges Einsatzgebiet für Bildverarbeitung, und durch optimierte Maschinen-Kommunikation in Echtzeit basierend auf neue Automatisierungsstandards wird dies noch einfacher. Die direkte Rückmeldung auf der Grundlage von Messungen ist hier eine gängige Anwendung wie etwa beim Portionieren von Lebensmitteln, wo beispielsweise die Dicke einer Speckscheibe entsprechend ihrer Größe und dem Verhältnis von Mager- und Fettanteil so angepasst werden, so dass jede Scheibe exakt das gleiche Gewicht auf die Waage bringt.
Informationen des VDMA zur aktuellen Standardisierung im Bereich der industriellen Bildverarbeitung:
hier.pro/elUHc
B&R Industrie-Elektronik GmbH
Norsk-Data-Straße 3
61352 Bad Homburg
Tel.: +49 6172 4019 0
E-Mail: office.de@br-automation.com
Website: www.br-automation.com
Beckhoff Automation GmbH & Co. KG
Hülshorstweg 20
33415 Verl
Tel.: +49 5246 / 963-0
E-Mail: info@beckhoff.de
Website: www.beckhoff.de
IDS Imaging Development Systems GmbH
Dimbacher Strasse 6-8
74182 Obersulm
Tel.: +49 7134 96196-0
E-Mail: info@ids-imaging.de
Website: www.ids-imaging.de
Mavis Imaging GmbH
Mehlbeerenstr. 2
82024 Taufkirchen
Tel.: +49 89 710667-0
E-Mail: info@mavis-imaging.com
Website: www.mavis-imaging.com
MVTec Software GmbH
Arnulfstraße 205
80634 München
Tel.: 089/457 695 0
E-Mail: info@mvtec.com
Website: www.mvtec.com
Stemmer Imaging AG
Gutenbergstr. 9-13
82178 Puchheim
Tel.: +49 89 80902-0
E-Mail: de.info@stemmer-imaging.com
Website: www.stemmer-imaging.com
Vision Components Gesellschaft für Bildverarbeitungssysteme mbH
Ottostr. 2
76275 Ettlingen
Tel.: +49 7243 21 67-0
E-Mail: sales@vision-components.com
Website: www.vision-components.com
„Maschinenbauer beschäftigen sich zunehmend mit den Möglichkeiten von Machine Vision. Sie sehen in der industriellen Bildverarbeitung eine Chance, die Forderungen des Marktes nach flexibleren und produktiveren Maschinen umzusetzen.“
„Beckhoff setzt auf offene PC-basierte Systeme anstatt auf Smart Kameras. Nur so profitieren die Anwender konsequent von der rasanten Weiterentwicklung der IT-Welt.“
Bild: IDS Imaging Development Systems
„Mit neuronalen Netzen stehen Algorithmen zur Verfügung, die regelbasierter Bildverarbeitung für Aufgaben wie Objekt-Klassifikation oder Anomalie-Detektion signifikant überlegen sind.“
„Die Automatisierung ist ein starker Antriebsfaktor, der die Qualität verbessert und die negativen Auswirkungen auf Menschen, die repetitive und manchmal anstrengende Aufgaben ausführen müssen, verringert.“
„Ein Trend ist, dass immer mehr Bildverarbeitungsaufgaben auf der SPS möglich sein sollen. Machine Vision und SPS wachsen also zunehmend zusammen.“
„Neue Standards wie OPC Machine Vision, die OPC-Erweiterung für Bildverarbeitungssysteme, ermöglichen eine direkte Anbindung von Vision-Systemen an die Industrie-4.0-Infrastruktur.“
„Im Industrieumfeld sehen wir einen Schwerpunkt in klassifizierenden Aufgaben. KI ist der klassischen Bildverarbeitung in solchen Aufgaben, die bisher – wenn überhaupt – nur mit hochkomplexen Algorithmen gelöst werden konnten, klar überlegen.“