elektro AUTOMATION: Welche Gründe sprechen für die Integration von KI-Algorithmen in lokale Anwendungen bzw. Steuerungen oder Edge-Devices? Welche Vorteile ergeben sich gegenüber cloudbasierten Lösungen und welche Rolle spielt das Thema Daten-Sicherheit?
Dr. Josef Papenfort (Beckhoff): In welchen Bereichen KI-Algorithmen ausgeführt werden, hängt im Wesentlichen von der vertretbaren Latenz und den maximal zulässigen Kosten ab. Ein KI-Algorithmus lebt von Daten. Zu unterscheiden sind hier zum einen die Daten, die beim Trainingsprozess (einmalig) benötigt werden, und zum anderen die Daten, die kontinuierlich bei der Prädiktion mit einem gelernten Netz (Inferenz-Betrieb) benötigt werden. Sollen Lernen und Inferenz in einer Cloud ausgeführt werden, müssen entsprechend hohe Datenraten zur Verfügung stehen. Bei Cloud-basierten Systemen kann dies dann zu hohen Kosten und möglicherweise zu Einschränkungen in der Funktionalität aufgrund zu geringer Bandbreite der Internetverbindung führen. Die Inferenz auf einem Edge-Device erfordert einen einmaligen Invest in die Hardware, kann dann aber in einem lokalen Netzwerk mit hohen Datenraten kommunizieren. Der Lernvorgang hingegen kann sinnvoll auch auf Cloud-Systemen ausgeführt werden. Das Lernen muss nicht kontinuierlich erfolgen, sodass ein einmaliger Upload von Daten genügt. Der Lernprozess erfordert aber ggf. große Rechenressourcen, welche nur temporär benötigt werden. Dafür ist das Pay-as-you-go-Bezahlmodell in einer Cloud passend.
elektro AUTOMATION: Während Steuerungsaufgaben meist in harter Echtzeit ablaufen, erfordern KI-Algorithmen nicht zwingend Echtzeit – wie lassen sich diese beiden Anforderungen lokal verbinden?
Papenfort: Die Art der Verbindung hängt von der Applikation ab, welche durch einen KI-Algorithmus realisiert oder unterstützt werden soll. Klar ist, dass der KI-Algorithmus Daten aus dem Echtzeitprozess benötigt, also ein Datenstrom von der Echtzeit in die Nicht-Echtzeit-Welt realisiert werden muss. Im Wesentlichen muss aber dann die Frage gestellt werden, ob der Nicht-Echtzeit-Algorithmus einen Rückeingriff in den Echtzeitprozess benötigt. Darauf verzichtet werden kann beispielsweise dann, wenn der KI-Algorithmus im Bereich der prädiktiven Wartung eingesetzt wird, beispielsweise eine ‚rest of useful life‘-Prädiktion ausgeführt werden soll. Hier ist ein direkter Eingriff zurück in den Echtzeitprozess in der Regel nicht nötig. Soll hingegen eine geschlossene Optimierungsschleife realisiert werden, muss der KI-Algorithmus die Resultate wieder mit dem Echtzeitprozess austauschen.
elektro AUTOMATION: Wann stoßen lokale KI-Anwendungen aufgrund der Rechenleistung an ihre Grenzen und welche Anwendungen sind dafür geeignet?
Papenfort: Diese Frage kann kaum zielführend beantwortet werden. Es hängt von der verwendeten Hardware ab, ob ein Edge-De-vice die Rechenleistung mitbringt, ein bestimmtes Deep Neural Network in geeigneter Zeit zu berechnen. In PC-basierten Steuerungssystemen kann die Hardware bedarfsgerecht skaliert werden.
elektro AUTOMATION: Gibt es aus Ihrer Sicht auch Anwendungsszenarien, die sich nur in der Cloud sinnvoll abbilden lassen; beispielsweise standortübergreifende Analysen?
Papenfort: Auch hier ist die Auftrennung in Lernphase und Inferenz zu betrachten. Das Lernen basiert auf einer Sammlung von Daten. Wird an einem einzelnen Standort nicht genügend Datenvolumen erzeugt, so kann das Koppeln mehrerer Standorte helfen, die den gleichen Prozess abbilden. Dazu ist die Cloud ein geeignetes Bindemittel. Zudem stellt sie die Rechenleistung zur Verfügung, um zu einem bestimmten Zeitpunkt den Lernvorgang in Gang zu setzen. Ob die Inferenz dann auch in der Cloud stattfinden soll, hängt von der konkreten Applikation, der Latenz und der Datenrate ab.
Dr. Josef Papenfort, Produktmanager Twincat bei Beckhoff Automation in Verl