Startseite » Steuerungstechnik/IPC/SPS »

Differenzierung durch Engineering

Experteninterview über die Zukunft der SPS
Differenzierung durch Engineering

Differenzierung durch Engineering
Bild: Beckhoff

Die Forderung nach mehr Effizienz und die zunehmende Verknappung natürlicher Ressourcen stellen zukünftig auch an die Automatisierung der Produktionsprozesse höhere Anforderungen. Dabei gewinnen Gesamtlösungen an Bedeutung, in denen Produktionsaufträge nach freier Anlagenkapazität verteilt werden. Das setzt mehr dezentrale Intelligenz in Form von Steuerungen, programmierbaren Feldbus-Controllern, Antrieben oder Embedded-Geräten im Netz voraus. Bewährte Automatisierungskonzepte, die auf einer zentralen SPS, einem HMI und der Anbindung an ERP/MES basieren, werden an ihre Grenzen stoßen. Immer mehr Experten fragen sich deshalb: Gibt es eine Zukunft für die SPS?

elektro Automation: Hat die klassische SPS als Basis eines hierarchischen Automatisierungssystems ausgedient? Wie sehen Sie die künftige Entwicklung?

Aschl (Sigmatek): Die klassische SPS ist in den letzten 25 Jahren einem stetigen Wandel unterlegen. Was ist also unter klassischer SPS zu verstehen? Meiner Meinung nach ist klassisch immer das, was am Markt eingesetzt wird. Vor 25 Jahren war es noch nicht möglich, mit einer SPS auch CNC-Funktionen zu lösen, was heute Standard ist. Bei Sigmatek sehen wir mittelfristig eine Entwicklung, die eher in Richtung dezentrale Intelligenzen geht, anstelle eines zentralen Rechners, der eine komplette Fabrik steuert. Zudem ist es heute bereits Standard, Projekte in Arbeitspakete aufzuteilen, um die Komplexität zu reduzieren, was angesichts der ständig steigenden Automatisierungsanforderungen sicher von Nutzen ist. Warum also nicht auch die Software verteilen, wo es Sinn macht?
Eisenbeiss (Siemens): Die SPS ist und bleibt auch zukünftig elementarer Bestandteil von Automatisierungskonzepten. Aus Kundensicht sind Performance, Zuverlässigkeit und Modularität klare Gründe für den Einsatz der SPS. Die SPS wird auch den sehr unterschiedlichen Anforderungen und Applikationen gerecht: angefangen beim optimalen Preis-/Leistungszuschnitt in den unteren Segmenten über zusätzliche Flexibilität im mittleren Bereich bis hin zu den High-end-Anwendungen, bei denen die Verfügbarkeit der Anlage im Betrieb sowie einfache Wartungskonzepte über den Lebenszyklus der Anlage im Vordergrund stehen. Zudem haben wir weltweit eine große installierte Basis über nahezu alle Branchen, die kontinuierlich weiter wächst. Zukünftig dürfte über die Automatisierungshardware hinaus das Softwaresegment, speziell für Engineering und Betrieb der Anlage, an Bedeutung gewinnen. Unser umfassendes und in weiten Teilen rundum erneuertes SPS-Portfolio spiegelt unsere positive Einschätzung des Markts. Unser Ziel ist es, mit unserem neuen und im Moment einzigartigen Portfolio am Markt auf der Basis von Innovationen den Kundennutzen weiter auszubauen.
Glaser (Pilz): Nein, die klassische SPS hat noch nicht ausgedient. Aber vor allem wenn Flexibilität, einfache Engineering-Prozesse oder Wiederverwendbarkeit einzelner Anlagenmodule im Fokus stehen, legen Konstrukteure ihr Augenmerk zunehmend auf einen modularen Aufbau von Maschinen und Anlagen. Dieser mechatronische Ansatz bleibt auf der Steuerungsebene mit klassischen SPS mit einer ausschließlich auf eine zentralen Grundarchitektur ausgerichtete Funktion noch häufig eine Wunschvorstellung. Werden Steuerungsfunktionalitäten dezentralisiert, ergeben sich Vorteile in zwei Bereichen. Zum einen ermöglicht es die Dezentralisierung der Peripherie, den Verkabelungsaufwand und die damit verbundenen Kosten zu reduzieren. Zum anderen lassen sich aber auch identische Steuerungsprogramme und -teilfunktionen dezentralisieren, was wiederum die komplette Modularisierung in Form von Maschinenelementen ermöglicht. Ziel dabei ist es, möglichst viele Teile identisch wiederverwenden zu können. So lassen sich Automatisierungsprojekte einfacher standardisieren. Dies ermöglicht dem Anwender darüber hinaus einen sehr hohen Freiheitsgrad, da jedes dezentrale E/A-System auch nachträglich um Steuerungsfunktionen erweitert werden kann.
Knafla (Phoenix Contact): Die technische Umsetzung von Lösungskonzepten bei Industrie 4.0 stellt neue Anforderungen an Automatisierungssysteme. Daraus leitet sich ab, dass die klassische SPS in einem hierarchisierten Steuerungssystem sowohl hinsichtlich der Kommunikationsfähigkeit als auch hinsichtlich der Aufgabe einem Wandel unterliegen wird. Somit wird die bekannte klassische SPS in eine Steuerung migrieren, die diese Anforderungen erfüllt. Der Grad und die Möglichkeit, flache Hierarchien zu realisieren, wird nicht allein von der SPS abhängen, sondern von der Möglichkeit, sie in das Lösungskonzept Industrie 4.0 zu integrieren. Es wird unabdingbar sein, die SPS-Engineering-Mechanismen Web-basierend umzusetzen, andernfalls wird die Verwendung der klassischen SPS zukünftig in der immer kleiner werdenden Nische der nicht-integrierbaren Insellösungen erstarren.
Lantermann (Mitsubishi): Meiner Meinung nach ist es nicht weit genug gedacht, die Fragestellung auf die rein klassische SPS zu reduzieren, denn das Thema betrifft nahezu alle Komponenten der Automatisierungswelt. Betrachtet man Motion-, Roboter und NC-Steuerungen oder andere Smart-Sensoren, stellt man fest, dass alle Systeme immer mehr Intelligenz in Form von Rechenleistung und Programmspeichern enthalten. Da stellt sich doch automatisch die Frage, warum sollten diese Ressourcen nicht komplett für die Automatisierung ausgenutzt werden? Um die Frage jedoch konkret zu beantworten, denke ich, dass die klassische SPS mit ihren jetzigen Programmierwerkzeugen ausgedient hat. Denn für die flexiblen Anforderungen der Industrie 4.0 und des Cloud Computing ist die SPS zwar schon jetzt technisch bereit, denn Ethernet-Verbindungen und Rechenleistung sind bereits vorhanden, jedoch müssen die Software-Werkzeuge noch an die Anforderungen von morgen angepasst werden. Bei zukünftigen Entwicklungen sollte ein Hauptaugenmerk auf die effektive Nutzung der Ressourcen der einzelnen Automatisierungskomponenten gelegt werden, damit automatisch alle anfallenden Aufgaben optimal auf diese Ressourcen verteilt werden können. (siehe IEC 61499).
Papenfort (Beckhoff): Die klassische SPS wird auch in Zukunft ihre Berechtigung haben. Skalierbare PC-basierte SPS-Systeme werden der klassischen SPS aber mehr und mehr den Rang ablaufen. Von kompakten Embedded-PCs mit ARM- oder Atom-Prozessoren bis zu leistungsstarken Industrie-PCs (IPCs) mit Core-i-Prozessoren stehen für alle Leistungsklassen Geräte zur Verfügung. Neben den klassischen SPS-Aufgaben können die CPUs auch Motion Control und Scientific Automation, wie Messtechnik, Condition Monitoring oder Robotik, erledigen. Zudem ist die Einbindung in ein Ethernet-basiertes Netzwerk für vertikale und horizontale Kommunikation denkbar einfach. PC-basierte SPS-Systeme sind damit der Grundbaustein für Industrie 4.0.
Schagginger (Bachmann): Die klassische SPS im ursprünglichen Sinn wurde schon vor vielen Jahren in ihrer Bedeutung zurückgedrängt – moderne, zukunftsfähige SPS-Systeme sind seit geraumer Zeit vom technischen Stand her eine synergetische Mischung zwischen Industrie-PC (IT-Protokolle, Massenspeicher, Hochsprachenprogrammierung, leistungsfähige Parallelverarbeitung…) und SPS (harte Echtzeitfähigkeit, IEC61131-3 Programmierung, etc). Die konsequente Kombination der positiven Eigenschaften aus beiden Welten bildet die Grundlage für moderne Automatisierungsarchitekturen, unabhängig davon, ob streng hierarchisch oder kooperativ-dezentral organisiert. Dieser Trend wird sich auch im Rahmen von Industrie 4.0 weiter fortsetzen – für nachhaltige Lösungen über den gesamten Lebenszyklus von Maschinen und Anlagen sind die von klassischen SPSen bekannten Werte wie Robustheit, Langzeitverfügbarkeit und unbedingte Deterministik unverzichtbar.
Wippermann (Rockwell): Ja. Unsere heutige Logix-SPS-Plattform arbeitet bereits als sogenannte PAC (Programmable Automa- tion Controller). Dies beinhaltet IT-Funktionalität, Rechenleistung und Diagnosefähigkeit, die weit über die Funktionalität der klassischen SPS hinausgeht. Die Differenzierung erfolgt künftig in den Funktionalitäten. Differenzierungsmerkmale sind für Rockwell Automation die Verwendung einer SPS in multidisziplinären Applikationen, Skalierbarkeit der Funktionalität und der Leistungsklassen sowie der SPSen selbst, mit dem Ziel, die Kosten für unsere Kunden zu senken. Information werden über ein nicht-proprietäres und offenes Netzwerk wie Ethernet/IP anlagenweit in Echtzeit auf effiziente Weise zur Verfügung gestellt. Diese beiden Bereiche werden wir weiter ausbauen und bestmöglich an die Marktgegebenheiten der Kunden anpassen. Multidisziplinäre Funktionalitäten der SPS spielen dabei eine große Rolle. Eine einzige Steuerung von Rockwell Automation kann heute schon im gesamten Werksverbund im Bereich Mo- tion, Drives, Safety, Batch und Process eingesetzt werden. Die eigentliche zukünftige Differenzierung findet in den Engineering-Werkzeugen (Studio 5000) und den Netzwerkfunktionalitäten (Ethernet/IP) statt.
Zingg (Eaton): Der Trend, dass eine SPS heute nicht nur Steuerungslogik, sondern auch immer umfassendere Informationen zur Verfügung stellen muss, ist eindeutig. Mit diesen Anforderungen ist eine traditionelle zentrale Steuerung überfordert. Grundsätzlich kümmert sich die zentrale Steuerung um die logischen Abläufe, also um den Produktionsprozess. All die Diskussionen rund um das Thema Industrie 4.0 zeigen deutlich, dass es in Zukunft darum geht, Fertigungsprozesse wesentlich dynamischer zu steuern. Hier sind intelligente Komponenten gefragt, die einen umfangreicheren Einfluss auf den Produktionsablauf nehmen können. Eaton hat mit Smartwire-DT ein Verdrahtungs- und Kommunikationssystem entwickelt, das sich optimal in Komponenten integrieren lässt. Verbraucht beispielsweise ein Motor zu viel Energie und läuft die Anlage nicht mehr im optimalen Betrieb, wird eine zentrale Steuerung diese Situation nicht erkennen. Mit Hilfe eines intelligenten Motorschutzschalters, der nicht nur digitale Signale zum Schalten oder Erfassen von Schaltstellungen oder Statusinformationen, sondern auch analoge Werte wie die thermische Auslastung des Motors und die aktuellen Motorströme erfasst und meldet, kann der Betreiber jedoch frühzeitig auf diese Störung aufmerksam gemacht machen.
elektro Automation: Wie viel dezentrale Intelligenz bzw. Funktionalität ist in einem Automatisierungssystem überhaupt vertretbar und kann evtl. ganz auf eine zentrale Prozesssteuerung verzichtet werden?
Aschl (Sigmatek): Der Einsatz dezentraler Intelligenz ist immer auch eine Frage der Maschinen- bzw. Anlagengröße. Bei einfacheren Automatisierungsaufgaben kann sich der Maschinenbauer sicherlich nicht mehrere Intelligenzen leisten. Am Markt sehen wir schnelle, hochkomplexe Multikern-Prozessoren, die auch die entsprechende Peripherie benötigen; also Kosten verursachen. Dem gegenüber stehen kleine, sehr leistungsfähige und kostengünstige 32-Bit-Prozessoren. Betrachtet man das Ganze aus der Sicht der Anlagenverfügbarkeit, machen sicherlich die dezentralen Intelligenzen das Rennen, da bei einem Ausfall nicht die ganze Maschine steht und eventuell sogar ein Notbetrieb gefahren werden kann. Unserer Meinung nach geht der Trend langsam aber eindeutig in Richtung verteilte Systeme. In punkto Tests und Qualität der einzelnen Intelligenzen lassen sich hier ganz klar Qualitätsvorteile im Bereich der kleineren Arbeitspakete ausmachen. Auch wenn moderne Programmiersysteme natürlich Projekte unterstützten, die aus vielen Megabyte Source Code bestehen und von vielen Programmierern erstellt wurden.
Eisenbeiss (Siemens): Im Prinzip findet sich schon heute in vielen Serienfertigungen dezentrale Intelligenz. Häufig ist der Anlass zur intelligenteren Automatisierung eine durchgängige Qualitätskontrolle. Aber auch in variantenreichen automatisierten Produktionen ist die eindeutige Identifizierung von Produkten üblich zur Produktionssteuerung, Logistik oder zur Verbesserung der Produktionsqualität. Wichtig ist, dass Abhängigkeiten von Produkt- und Produktionsparametern durchgängig abgebildet sind. Produktänderungen haben häufig Auswirkungen auf die Produktionsparameter oder können sogar Veränderungen ganzer Fertigungsabläufe erfordern. Umgekehrt kann zum Beispiel ein am Werkstück identifizierter Qualitätsmangel in der Produktion notwendige Änderungen am Produkt nach sich ziehen. Je nach Applikation wird es immer zentrale Anteile geben, wie etwa die Überwachung, die Fehlerbehandlung oder Erfassung von Qualitätsdaten. Dezentrale und zentrale Strukturen sollten sich ohne Reibungsverluste ergänzen.
Glaser (Pilz): Das hängt vom Anwender und den Anforderungen ab. Wenn Steuerungsfunktionen dezentralisiert werden, steigert das im ersten Moment zunächst die Komplexität der Architektur: Mehr Hardware, mehr Schnittstellen, mehr Kommunikation. Für die Automatisierung der Zukunft – Stichwort Industrie 4.0 – sind daher Lösungen gefragt, die zum einen in der Lage sind, Steuerungsintelligenz bis in die Feldebene zu verteilen und zum anderen zu gewährleisten, dass die notwendige Vernetzung mehrerer Steuerungsfunktionen dennoch für den Anwender einfach zu handhaben bleibt. Bei unserem Automatisierungssystem PSS 4000 setzen wir auf eine zentrale Sicht auf dezentrale Systeme und verfolgen konsequent den mechatronischen Ansatz. Der modulare Aufbau einer Anlage lässt sich in der Software-Plattform PAS4000 abbilden. Sie erlaubt es, die Vorteile einer dezentralen Steuerungsstruktur zu nutzen, ohne die damit üblicherweise verbundene höhere Komplexität bei einer Verteilung der Programme auf unterschiedliche Steuerungen in Kauf nehmen zu müssen.
Knafla (Phoenix Contact): Auf eine zentrale Instanz kann auch in Zukunft nicht verzichten werden. Dezentral oder zentral ist aber eine Frage der Perspektive. Man sollte davon auszugehen, dass Prozesssteuerungen autark arbeiten und ihre Informationen über Parameter und Konfigurationen nicht mehr von einer zentralen Instanz erhalten. Dennoch wird es Informationskontenpunkte im Netzwerk geben, in denen Informationen archiviert und Parametersätze zum Abruf gespeichert werden. Der Wandel von der zentralen Intelligenz zu dezentral verteilten Intelligenzen ist ein Lösungsansatz, der seine Grenzen in der Beherrschung durch den Inbetriebnehmer sowie den Service-Techniker findet. Ein Denken in autark agierenden Funktionen und ein übersichtliches Engineering dieser Funktionen hin zu einer Automatisierungslösung, sowie eine stetige, auf Erfahrungen basierende Umsetzung, werden zu dem möglichen Optimum der Dezentralisierung führen.
Lantermann (Mitsubishi): Die Verlässlichkeit der (redundanten) Netzwerke erlaubt es sicherlich, die Automatisierungsaufgaben dezentral auszulegen und somit auf eine zentrale Prozessteuerung zu verzichten. Intelligenz bzw. Funktionalität können je nach Bedarf vom ERP-System bis zum Sensor verteilt werden. Sicherheitsrelevante Anforderungen können lokal gelöst werden. Doch wie sehen die Anforderungen der Anlagenbetreiber aus? Sie wollen die Sicherheit, in jeder Situation Herr der Lage und der Prozesse zu sein. Eine zentrale Steuerung bietet ihnen diese Sicherheit und den Überblick über alle laufenden Prozesse. Ein ähnlich zögerliches Verhalten hat sich bei der Einführung der dezentralen E/As gezeigt und aktuell in der Nutzung der Cloud. Die Akzeptanz dieser verteilten, dezentralen Systeme wird sich mehr und mehr durchsetzen, da die Anforderungen an die Flexibilität in der Produktion stetig steigen und die verteilte Intelligenz es zudem ermöglicht, Funktionalitäten einfacher von Standort A zu Standort B zu verlagern.
Papenfort (Beckhoff): Die Frage, ob Steuerungstechnik zentral oder dezentral ist, stellt sich eigentlich nicht mehr. Eine gute PC-basierte Lösung kann beides leisten. Performante IPCs können komplexe und große Aufgaben wunderbar zentral lösen. Kompakte Embedded-PCs können dezentrale Aufgaben zu einem angemessenen Preis abarbeiten. Die PC-basierte Lösung bietet hier Skalierbarkeit und Durchgängigkeit. Bei Beckhoff gibt es dafür mit Twincat nur ein Engineering-Tool.
Schagginger (Bachmann): Das kommt sehr auf den Anwendungsfall an – Wird dezentrale Intelligenz in Verbindung mit flexibler Automation (einem Paradigma von Industrie 4.0) direkt verknüpft, so muss man aus heutiger Sicht bei feingranularer Verteilung klar vor einer drohenden Komplexitätsfalle warnen. Automatisierungstechniker und Betreiber müssen so ein System engineeren und auch warten können, was bei hoher Flexibilität und völliger Dezentralisierung enorm hohe Anforderungen an das Personal stellt. Eher statische Funktionalitäten oder eine völlig autonome Einheit hingegen lassen sich gut dezentralisieren – die offene Frage ist nur wie hoch ein erwünschter Kostenvorteil ausfällt. Für die meisten Lösungen weitaus angemessener sind Architekturen, bei denen die dezentrale Intelligenz in autonomen Software-Modulen abgebildet wird, welche auf leistungsstarken Steuerungen zentral ablaufen und bei denen Signalanschaltungen oder Funktionsmodule über schnelle Busse dezentral räumlich verteilt werden.
Wippermann (Rockwell): Ich glaube, dass es hier keine Einschränkung geben wird. Entscheidend ist die effiziente Interaktion von Hard- und Software. Das optimale Zusammenspiel der Systeme zeigt sich heute schon in unserem Engineering Tool Studio 5000. Unsere Kunden können das gleiche Projektierungswerkzeug für SPSen in allen Leistungsklassen nutzen, zentrale oder dezentrale Topologie spielt dabei keine Rolle. Das erleichtert die Diagnosefähigkeit, die Wartbarkeit bei der Fehlersuche, die Anlagendokumentation wie auch das Training des Personals. Ethernet-basierende Industriekommunikation bildet eine weitere Grundlage zur Optimierung der Produktionsabläufe. Netzwerkarchitekturen über Ethernet/IP realisieren eine komplette horizontale und vertikale Integration in einem einzigen Netzwerk. Sie ermöglichen es, ohne Programmieraufwand über Netzwerkgrenzen und auf unterschiedlichen Automatisierungsebenen Daten auszutauschen.
Zingg (Eaton): Dezentrale Intelligenzen bilden die Basis für einen weiteren Trend im Maschinenbau, nämlich den hin zu modularen Baukastensystemen. Diese gewährleisten zudem eine verbesserte Flexibilität in der Fertigung – sowohl beim Produzenten als auch beim Maschinenbauer. Global tätige Maschinenbauer kommen dabei nicht umhin, Module an die regionalen Marktbedürfnisse der unterschiedlichen Länder und Kontinente anzupassen. Die einzelnen Module werden dann vernetzt und bilden somit ein intelligentes System. Die zentrale Steuerung wird hier kaum entfallen, jedoch wird sie mehr zu einer koordinierenden Schaltzentrale.
elektro Automation: Welche Funktionalitäten müssen die Engineering-Systeme der Zukunft mitbringen, um die optimale Verteilung von komplexen Automationsaufgaben auf die dezentralen Intelligenzen zu gewährleisten? Gibt es hier schon Lösungen?
Aschl (Sigmatek): Es ergeben sich zwei Fragestellungen, die auf den ersten Blick für eine zentrale Lösung sprechen. Erstens: Wo liegen die Daten? Und zweitens: Wie werden die Programme der einzelnen dezentralen Intelligenzen verteilt? Wichtig ist, dass die Vorteile der zentralen Datenhaltung und des einfachen Programmwechsels einer zentralen Lösung in dezentralen Systemen auf keinen Fall verloren gehen. Im vereinfachten Sinne muss man sich das wie beim Cloud Computing vorstellen, d.h. dass an einer zentralen Stelle (natürlich innerhalb der Fabrik) sowohl die Daten als auch die Programme liegen und beim Boot-up des Systems von dort geladen werden. Diese Aufgabe kann natürlich eine der Intelligenzen mit übernehmen. Das Engineering-Tool muss zudem Multi-User sowie Multi-Projektverwaltung unterstützen, um die verteilten Intelligenzen auch wartbar zu machen.
Eisenbeiss (Siemens): Dort, wo es wirtschaftlich sinnvoll ist, werden dezentrale Konzepte schrittweise eingeführt. Auch die dezentralen Konzepte brauchen jedoch die zuvor angesprochene Durchgängigkeit. Zunehmend entscheidend für den Anwender wird das Engineering. Beim Engineering haben wir mit dem TIA-Portal eine leistungsfähige Grundlage für eine informationstechnischen Durchgängigkeit gesetzt. Alle Automatisierungsaufgaben und -geräte sind unter dem Dach einer einzigen Engineering-Plattform vereint mit einer gemeinsamen Datenhaltung, einer durchgängigen Bedienphilosophie und leistungsfähigen Softwarewerkzeugen. Die angesprochene dezentrale Intelligenz ist im TIA-Portal somit vollauf berücksichtigt. Die Anwender profitieren bei dem von Siemens erarbeiteten Konzept von der lückenlosen Datenkonsistenz bei Änderungen in der Anlage, was Fehlerquellen deutlich reduziert. Bei der Projektierung von Produktionsanlagen lässt sich im Resultat bis zu 30 % der sonst üblichen Zeit sparen.
Glaser (Pilz): Verteilte Steuerungssysteme unterscheiden sich im Hinblick auf das Engineering grundlegend von einer klassisch zentralen Architektur. Bislang wird mit der Software-Entwicklung erst begonnen, wenn feststeht, wie eine Maschine aussehen soll. Die Auswahl der Hardware ist also zwingend zu Beginn der Projektierung/Programmierung erforderlich. Nachträgliche Änderungen sind nur mit entsprechendem Mehraufwand möglich. Durch die hardwareunabhängige Programmierung, wie sie unser Automatisierungssystem PSS 4000 bereits heute ermöglicht, entfällt diese Querbeziehung und es entsteht die dringend benötigte Flexibilität im Engineeringprozess. Wird mechatronisch gedacht und konzipiert, können alle an einem Automatisierungsprojekt beteiligten Fakultäten bereits nach der initialen Projektabstimmung ihre konkrete Arbeit beginnen: Funktions-und Hardwareentwicklung können also parallel arbeiten. Durch die parallele Vorgehensweise kann wertvolle Projektierungszeit gespart werden.
Knafla (Phoenix Contact): Das wesentliche Kriterium für die erfolgreiche Marktakzeptanz dezentraler, Web- und Internet-basierender Lösungen wird die Handhabung der Engineering-Werkzeuge sein. Der notwendige Veränderungsprozess muss durch sie unterstützt werden. Dabei wird es erforderlich sein, neue Datenmodelle zu entwickeln. Die Erfahrungen werden zeigen, ob es gelingt, mit Web-basierenden Engineering-Mechanismen komplexe Aufgaben zu lösen, oder ob es notwendig sein wird, für komplexe Aufgabenstellungen hybride Mechanismen zu schaffen, die Web-Mechanismen tief integrieren und dem Programmierer mit Programmiersystemen die Möglichkeit bieten, für komplexe Automatisierungsaufgaben Objekte zu erstellen, die mit Web-basierenden Mechanismen zu einer Gesamtlösung zusammengefügt werden.
Lantermann (Mitsubishi): Basierend auf dem IEC61499-Standard für verteilte Intelligenz sollte der gesamte Prozess mit nur einem Werkzeug konfiguriert werden. Dieses Werkzeug kann Aufgaben über die verschieden Kommunikationsebenen vom ERP bis zum Sensor, von der SPS bis zum Motion-Control, in der Anlage automatisch verteilen. Die einzelnen Aufgaben sollten mit dem IEC 61131-Standard programmiert sein und über ein Interface für die Zeitliche- und die Eventsteuerung verfügen, sowie in der Lage sein, benötigte Daten von anderen Aufgaben auszuwerten. Alarme, Produktionsstatus und -informationen werden auch von diesem Interface bereitgestellt. Der Vorteil ist hierbei, dass die Lösungen der Aufgaben jederzeit wiederbenutzbar sind. Es ist dann nicht relevant, wo diese Aufgabe ausgeführt wird, solange die verwendete Ressource genügend Speicher und Rechenleistung bereitstellt. Das heiß im Klartext, dass es nicht nur unerheblich ist, wo die Ressource im Netzwerk liegt sondern auch was es für eine Ressource ist. In unserem e-F@ctory-Alliance-Netzwerk wurde eine solche Lösung bereits realisiert.
Papenfort (Beckhoff): Mit einem modularen Ansatz für die Software lassen sich große zentrale und kleinere dezentrale Lösungen einfach realisieren. Die Generierung der Module muss flexibel sein. Verschiedene Programmiersprachen stehen dafür im Twincat-3-System zur Verfügung. Neben der klassischen SPS-Programmierung mit Objektorientierung können C/C++ und Matlab/Simulink genutzt werden. Die Module können dann zusammen auf einem PC ausgeführt oder auf verschiedene CPUs verteilt werden. Mit dem Ethercat Automation Protocol (EAP) steht ein deterministisches Verfahren zur Verfügung, um auch zwischen verteilten CPUs in einem Netzwerk Daten zyklisch auszutauschen.
Schagginger (Bachmann): Die wesentlichen Anforderungen sind a) logische Autonomie der Teilsysteme mit klaren Schnittstellen, b) Komplexität im Engineering durch intelligente Automatismen vom Projektierer fernzuhalten, c) zentrale Konfiguration (single point of configuration) und d) Online-Rekonfigurierbarkeit. Speziell die Verteilung der Aufgaben muss automatisch bzw. mit Unterstützung erfolgen. Und genau hier liegen die Schwächen der bereits bekannten Ansätze wie z.B. der IEC61499: die exakte Vorausberechnung der Leistungsfähigkeit von Ablaufsystemen (CPUs) und Kommunikationsstrecken (Busse) in allen Betriebszuständen durch eine Automatik ist zum einen komplex und aufgrund des impliziten Charakters der Schnittstellen für Anwender nicht zumutbar. Erst wenn diese Themen wirklich sauber gelöst sind und sich die Preisstrukturen von dezentraler Intelligenz nochmals verändern, muss man die Lage neu evaluieren. Bis dahin gilt klar: zentrale aber streng modulare Softwaresysteme mit räumlicher Verteilung der E/A-Anschaltungen werden die Grundlage moderner Automatisierung bilden.
Wippermann (Rockwell): Wie schon erwähnt sollten Engineering-Systeme wie unser Studio 5000 die Fähigkeit haben, mit einem einzigen Werkzeug multidisziplinäre und skalierbare Systeme sowie anlagenweit die Daten ohne Programmieraufwand handeln zu können. Eine mögliche zukünftige Anforderung der Anlagenbetreiber könnte darin bestehen, verschiedene Programme auf unterschiedlichen dezentralen, intelligenten Systemen beliebig zu verteilen. Dadurch würde die Auslastung der dezentralen Einheiten eventuell im laufenden Betrieb optimiert.
Zingg (Eaton): Grundsätzlich müssen Engineering-Systeme in der Lage sein, vernetzte Systeme – also einen modularen Baukasten – zu steuern. Ich denke, viele Hersteller von Automatisierungslösungen unterstützen heute diesen Ansatz. Auch auf das von Eaton verwendete System Codesys trifft dies zu. Grundsätzlich ist ein Maschinenmodul nicht mehr als ein typischer Funktionsbaustein mit Ein- und Ausgangsparametern. Der hauptsächliche Unterschied liegt darin, dass dieser Funktionsbaustein künftig immer weniger in der zentralen Steuerung, sondern im vernetzten System zu finden sein wird. Ein wesent- licher Aspekt liegt hier aber in der Vernetzung und der damit verbundenen Inbetriebnahme und Flexibilität. Dies ist eine neue Herausforderung in der Programmierung, da ein Baukasten oder Varianten nicht mehr statisch, sondern eben dynamisch sind. In traditioneller Steuerungslogik wie AWL oder dergleichen lässt sich das kaum mehr darstellen, und höhere Programmiersprachen wie strukturierter Text sind hierzu Voraussetzung.
elektro Automation: Hardware- oder Soft-SPS – werden sich die Stärken beider Systeme zukünftig angleichen?
Aschl (Sigmatek): Hier stellt sich die generelle Frage: Wodurch unterscheidet sich eine Hard- von einer Soft-SPS? Ist es der Prozessor der x86-kompatibel ist, oder ist es das Microsoft-Windows-Betriebssystem. Man könnte noch auf die Idee kommen zu fragen, ob es etwas PC-ähnliches ist. An meinem philosophischen Ansatz sehen Sie, dass die Frage Hard- oder Soft-SPS meiner Einschätzung nach nicht wirklich zu beantworten ist bzw. kehre ich zur ersten Frage zurück: Gibt es „die“ SPS noch und wofür steht sie? Ich glaube nicht, dass ein Kunde seine Maschine besser oder schlechter betreiben kann, nur weil er eine Hard- bzw. Soft-SPS einsetzt. Es kommt auf die Anforderungen der Applikation an. Sigmatek bietet beide Varianten im Portfolio, und je nachdem wie die Fragestellung lautet, gibt es eine passende Antwort.
Eisenbeiss (Siemens): Als Weltmarktführer für PLC wie auch Industrie-PCs haben wir das Angebot in den letzten Jahren für beide Wachstumssegmente ausgebaut: So wurde zum Beispiel die gesamte Simatic-S7-PLC-Familie innoviert. Mit der Simatic S7-1200 und der Simatic S7-1500 haben wir sehr fortschrittliche Produkte im Markt. Und bei Industrie-PCs haben wir mit besonders kompakten Geräten wie dem Nanobox PC oder besonders leistungsstarken Rack-Modellen ebenfalls spannende Neuheiten auf den Markt gebracht. Damit können Anwender für jede Applikation sowohl nach funktionalen wie auch nach Kostengesichtspunkten die passende Steuerungs-Technologie einsetzen – ob PLC oder PC-based. PC-based-Steuerungen gewinnen vor allem in Maschinenbau-Anwendungen an Bedeutung, obgleich der Markt sowohl im Maschinenbau wie auch in den anderen Anwendungsfeldern weiterhin nach dedizierten PLC verlangt. Aus heutiger Sicht und aus Perspektive der Anwender ist es sehr wünschenswert, dass beide Systeme ihre individuellen Stärken weiter ausprägen. Wichtig ist eine Angleichung im Engineering, sodass Anwender von Projekt zu Projekt die jeweils beste Lösung wählen können.
Glaser (Pilz): Allgemein wird davon ausgegangen, dass sich mit dem Einsatz von Industrie-PCs und den darauf laufenden Soft-SPS-Runtime-Systemen eine deutlich größere Unabhängigkeit von bestimmten Hardware-Architekturen ergibt. Dabei soll gleichzeitig eine größere Nähe zu Win-dows-basierten Visualisierungsaufgaben, Kommunikationsanbindungen oder Diagnosediensten aufgezeigt werden. Unsere Einschätzung ist, dass wir die Vorteile einer Hardwareunabhängigkeit und der Anbindung an Windows-basierte Dienste auch in anderen, Hardware-nahen SPS-Architekturen wiederfinden können. Letztendlich bleibt speziell für die Aufgabenstellungen der Sicherheitstechnik immer ein Bezug zur Hardware bestehen, der sowohl die Anforderungen der Sicherheit wie auch die der Verfügbarkeit und Performance abdecken kann. Reine SW-basierte Steuerungskonzepte haben mindestens in diesen Belangen noch einen deutlichen Nachholbedarf.
Knafla (Phoenix Contact): Die Angleichung wird zwingend erforderlich sein, da nur so die Stärken der Soft-SPS, nämlich die Einbettung in PC-basierte Laufzeitsysteme, kombiniert mit den Vorteilen der Hardware-SPS und dem bekannten Programmiersystem wie IEC 61331, zu einer neuer Generation von Steuerungen führen kann, die die Anforderungen an Web-basierende Engineering-Mechanismen erfüllen kann, ohne auf die Einsatzvorteile der Hardware- oder Soft-SPS zu verzichten. Nur so lassen sich zentrale Strukturen dezentralisieren und eine offene Programmierumgebung schaffen, die die IEC 61131 ergänzt.
Lantermann (Mitsubishi): Wie bereits erwähnt ist es nicht relevant, um welche Ressource (Hardware- oder Soft-SPS) es sich handelt. Die Speicher- und Rechenleistung sind Ausschlag gebend. Als Beispiel würde ich hier gerne den Mitsubishi Electric-C-Controller anführen. Der C-Controller ist in der Lage, den Codesys-Soft-SPS-Kernel auszuführen, MES/ERP-Verbindungen aufzubauen, komplexe Batch-System zu realisieren und vieles mehr. Es handelt sich hier um eine(n) Steuerung/Rechner, der verschiedene Aufgaben erfüllen kann, ohne als SPS, Motion- oder Roboter-Steuerung deklariert zu sein. Das ist die Zukunft: die Rechnerspeicher und -leistung zur Erfüllung von Aufgaben der Produktion. Ob wir ihn nun Soft- oder Hardware-SPS nennen, ist dabei uninteressant. Die Kids von heute, die Anwender von morgen, werden sich wie selbstverständlich aus der Cloud Lösungen (Apps) für ihre Aufgaben in der Produktion herunterladen. Wie heute übers Wetter möchten Sie sich dann über die KPIs ihrer Produktionsmaschinen auf dem Tablet, der eine dezentrale Ressource sein kann, informieren.
Papenfort (Beckhoff): Hardware-SPSen werden aktuell noch höhere Robustheit und höhere Sicherheit zugesprochen. Gerade hier erobern die Soft-SPSen auf PC-Plattformen immer mehr das Feld. Embedded-PCs sehen aus wie klassische SPSen, sind aber PCs in einem robusten Gehäuse, die direkt auf die Hutschiene montiert werden. Auch hinsichtlich des Temperaturbereichs und der EMV-Festigkeit sind die Embedded-PCs den klassischen SPSen ebenbürtig. Großer Vorteil der PC-basierten Lösung ist natürlich die immer weiter steigende Leistungsfähigkeit. Das Mooresche Gesetz gilt immer noch. D. h., steigende Performance ist auch für die nächsten Jahre gesichert und kann für viele neue Funktionalitäten wie Condition Monitoring oder Robotik genutzt werden. Die Performance wird nicht immer durch höhere Taktraten, sondern mehr und mehr durch Erhöhung der Kernanzahl erreicht. Die SPS muss natürlich dafür gerüstet sein. Mit Twincat 3 können die Kerne in Echtzeit für SPS und Motion genutzt werden. Mit dem Feature isolated cores können Kerne außerdem exklusiv für Twincat genutzt werden.
Schagginger (Bachmann): Die eigentliche Hardware-SPS gibt es faktisch kaum mehr und sie wird auch zukünftig keine Relevanz mehr haben. Fast alle Steuerungslösungen heute sind technisch gesehen Soft-SPSen – wenngleich umgangssprachlich der Begriff oft für Windows-basierte IPCs mit Soft-SPS benutzt wird und daher immer noch negativ besetzt ist. Technisch betrachtet gehört die Zukunft ganz klar Systemen, die die Vorteile der IPC-Welt voll abdecken: nahezu unbegrenzten Arbeitsspeicher, schnelle CPUs, Hochsprachenprogrammierung, Online-Engineering, modulare Software-Architekturen, Festspeicher, alle möglichen IT-Schnittstellen usw. Allerdings immer in Verbindung mit den Vorteilen einer klassischen modularen Steuerungslösung mit hartem Echtzeitbetriebssystem und deutlich höherer Robustheit als in der (I)PC-Welt. Diese Angleichung hat bereits stattgefunden und ist zumindest bei Bachmann heute schon längst Marktstandard. Vielmehr beobachten wir, dass die Industrie-Anwender erst nach und nach beginnen, diese vorhandenen Potenziale voll auszuschöpfen.
Wippermann (Rockwell): Ja, das ist teilweise heute schon so. Aus Engineering-und Design-Sicht eines Maschinen- oder Anlagenbauers sollte es keinen Unterschied machen, ob ich eine Hardware- oder Soft-SPS nutze. Die konsequente Integration in unser Engineering-System Studio 5000 und die Logix-SPS-Plattform erhöht die Skalierbarkeit des Gesamtsystems sowie deren einfache Handhabbarkeit, steigert die Maschinenverfügbarkeit und verkürzt Stillstandzeiten aufgrund des optimierten Zusammenspiels zwischen Engineering, Software und Hardware. Rockwell Automation sieht den wesentlichen Trend in der weiteren Vereinfachung der Entwicklungswerkzeuge sowie einer konsequenten Vereinfachung der Usability von Produkten und Entwicklungswerkzeugen auf allen Ebenen der Automatisierungssysteme.
Zingg (Eaton): Diese Begrifflichkeiten verwenden wir bei Eaton nicht mehr. Denn eine SPS muss Echtzeitanforderungen erfüllen, passend zu der Performance des Produktionsprozesses. Früher hat man den Begriff Soft-SPS verwendet, um damit zu verdeutlichen, dass die Deterministik nicht 100% gewährleitet ist. Wir glauben, dass dies heute nicht mehr zutrifft und der Begriff somit veraltet ist. Die Schlussfolgerung ist, dass es nur eine bedingte Rolle spielt, auf welcher Hardware die ausführende Logik läuft. Für sehr schnelle Prozesse ist sicherlich PC-Technologie vorherrschend, wobei kleinere bis mittlere Leistungsklassen heute meist auf ARM- oder allgemeiner gesagt auf MIPS-basierten Technologien realisiert werden. Nebst der SPS spielen hier auch die verwendeten Feldbusse und die Reaktionszeit aller Komponenten eine wesentliche Rolle.

DIE EXPERTEN
  • Franz Aschl ist Innovationsmanager bei Sigmatek GmbH & Co KG, Lamprechtshausen/A
  • Heinz Eisenbeiss ist Leiter Simatic Marketing bei Siemens Division Industry Automation, Nürnberg
  • Armin Glaser ist Leiter Produktmanagement Pilz GmbH & Co. KG, Ostfildern
  • Frank Knafla ist Master Specialist Energy Efficiency bei Phoenix Contact Electronics GmbH, Bad Pyrmont
  • Thomas Lantermann ist Senior Business Development Manager bei Mitsubishi Electric Europe B.V., Ratingen
  • Dr. Josef Papenfort ist Produktmanager Twincat bei Beckhoff Automation GmbH, Verl
  • Matthias Schagginger ist Leiter des Produktmanagements bei Bachmann electronic, Feldkirch/A
  • Reiner Wippermann ist Business Manager Integrated Architecture bei Rockwell Automation in Haan
  • Christian Zingg ist Director Innovation & Global MOEM Segment bei Eaton in Morges/CH
Newsletter

Abonnieren Sie unseren Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Videos

Hier finden Sie alle aktuellen Videos


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de