Digitale Transformation in der Fertigung mit Modellen und Daten

2022-06-25 07:53:18 By : Ms. Rossi liu

Aktuelle Beiträge aus "Events & Kurse"

Linux-Programmierung für Einsteiger, Fortgeschrittene und Könner

Linux-Programmierung für Einsteiger, Fortgeschrittene und Könner

Präsentieren Sie Ihr Embedded-Wissen auf der electronica

Werden Sie Referent auf dem ESE Kongress 2022!

Aktuelle Beiträge aus "Software-Architektur & Design"

Lesbarkeit von Quellcode erhöhen

BARR-Vorgaben als Richtlinien für den Programmierstil

Multicore: Automatische Parallelisierung eines modellbasierten Designs

Aktuelle Beiträge aus "Echtzeit"

FreeRTOS – Vorteile des Einsatzes für Embedded-Lösungen

Umsetzung von Asymmetric Multiprocessing mit OpenAMP

Embedded Studio für RISC-V

C++-Support für harte Echtzeitanforderungen mit RISC-V

Sysgo und SiFive intensivieren Zusammenarbeit

Aktuelle Beiträge aus "Embedded Software Engineering"

Neue Wege im Embedded-Development: Wenn DevOps auf Embedded trifft

Sechs Tipps zur Reduzierung von Entwicklungsaufwand

Aktuelle Beiträge aus "Funktionale Sicherheit"

Neue Wege im Embedded-Development: Wenn DevOps auf Embedded trifft

Safety und Security mit Linux und Open-Source-Software beherrschen

Wie Low-Code der IoT-Security helfen kann

Maschinenidentitäten verwalten und überwachen

4 Grundsätze für besseres DevSecOps

Aktuelle Beiträge aus "C/C++ für Embedded"

Evaluierung der Leistung von Algorithmen-Varianten in Python

Python-basierte, freie und offene Hardware-Beschreibungs-Sprache

Fließende Kommunikation zwischen Python und C/C++

Aktuelle Beiträge aus "Embedded Linux"

Green Hills Software erweitert RTOS-Angebot für Zonen- und Domänen-Controller

Optimiert für IoT und Embedded Systems

Linux-Programmierung für Einsteiger, Fortgeschrittene und Könner

ELinOS-Version 7.1 samt Build-Environment von Sysgo

Aktuelle Beiträge aus "Softwaretest & Qualität"

Vier Kernelemente des entwicklerfreundlichen SAST

Mit Robutstheitsstests und Testautomatisierung zu zuverlässigen Softwaresystemen

Evaluierung der Leistung von Algorithmen-Varianten in Python

Aktuelle Beiträge aus "IoT & Embedded KI"

Kommentar von Christian Meyer und Nabil Alsabah, msg

Wird Künstliche Intelligenz durch den AI Act „verlässlicher“?

Amazon und Max-Planck-Gesellschaft gründen Science Hub

TUM erfolgreich bei Nachwuchsprogramm für KI

Wie sich Künstliche Intelligenz inzwischen prüfen lässt

Aktuelle Beiträge aus "Embedded Security"

Safety und Security mit Linux und Open-Source-Software beherrschen

Wie Low-Code der IoT-Security helfen kann

Maschinenidentitäten verwalten und überwachen

4 Grundsätze für besseres DevSecOps

Shift-Left-Ansatz in der Cyberkriminalität

Die DevOps-Pipeline als beliebtes Angriffsziel

Aktuelle Beiträge aus "Multicore"

Umsetzung von Asymmetric Multiprocessing mit OpenAMP

Zufällige Interrupts in Multicore-Umgebungen

RTEMS für Raumfahrt qualifiziert

Multicore: Automatische Parallelisierung eines modellbasierten Designs

Aktuelle Beiträge aus "Software-Implementierung"

Vier Kernelemente des entwicklerfreundlichen SAST

Die Gesetze der User Experience

Sechs Tipps zur Reduzierung von Entwicklungsaufwand

Digitale Transformation in der Fertigung mit Modellen und Daten

Mit Modellen lässt sich nicht nur die Geräteentwicklung beschleunigen: Mit Hilfe digitaler Modelle und digitalen Zwillingen, die Daten aus Systemen im Feld direkt zurückerhalten, kann Software nicht nur frühzeitig entwickelt, sondern in Windeseile auch in laufenden Anlagen auf aktuellsten Stand gebracht oder gar nachgerüstet werden.

Die digitale Transformation verlangt Unternehmen ein hohes Maß an Engagement und Willen zur Innovation ab. Etablierte Prozesse müssen überdacht oder umgebaut und Daten konsequent zur Schaffung von Mehrwert genutzt werden. Für die betroffenen Unternehmen stellt sich die zentrale Frage, wie sich ein derartig tiefgreifender Umbruch nicht nur planen, sondern auch pragmatisch umsetzen lässt.

Zu den Branchen, die bereits vor längerer Zeit einen erfolgversprechenden Weg eingeschlagen haben, gehören die Luft- und Raumfahrt sowie die Automobilindustrie. Dort geht der Trend zu immer mehr softwaredefinierten und autonomen Systemen, die auf einer Verknüpfung aus modellbasierten und datengesteuerten Ansätzen beruhen. Auch in der Energieerzeugung wendet man sich immer mehr datenzentrierten Prozessen zu, um die Leistung zu optimieren, reaktionsschneller zu werden und vorausschauende Wartungen durchzuführen.

Gemeinsam ist all diesen Industriebranchen, dass sie durchgängig auf den Einsatz von Modellen setzen. Modelle bilden den Mittelpunkt sämtlicher Entwicklungstätigkeiten und stellen gleichzeitig eine ausführbare Spezifikation dar, die mit fortschreitendem Detaillierungsgrad zu einer umfänglichen virtuellen Darstellung des Systems wird.

Die Vorteile dieses Entwicklungsansatzes sind vielfältig. Als ausführbare Spezifikation lassen sich Modelle von Anfang an testen. Validierung und Verifikation finden durchgängig statt und gestatten die frühzeitige Korrektur von Fehlentwicklungen. Durch ihre Modularität erlauben Modelle die Wiederverwendung bereits vorhandener Funktionalität und Algorithmen oder den einfachen Austausch von Modulen. Das erleichtert den Aufbau einer flexiblen, nach Kundenwunsch anpassbaren Produktpalette.

Entwicklungsumgebungen wie Simulink gestatten zudem die gemeinsame Modellierung von Mechanik, Elektrik, Elektronik und Hydraulik mit deren Steuerungs- und Regelungssystemen sowie Entscheidungslogiken (Bild 1). Zu Beginn einer Entwicklung ersetzen Ingenieure die noch nicht vorhandenen Teile durch Platzhalter sowie deren Verhalten durch einfache Stimuli. So lässt sich von Anfang an sicherstellen, dass das jeweilige Subsystem tut, was es soll. Maschinenbauer können dabei auf vorhandene CAD-Beschreibungen aufbauen und so ein realistisches Anlagenmodell erstellen, bevor Hardware zur Verfügung steht. Auf diese Weise beginnt mit dem ersten Systemmodell auch die virtuelle Inbetriebnahme einer Maschine.

Die Besonderheit von Model-Based Design ist, dass das fertige Modell nicht nur eine virtuelle Darstellung des zu produzierenden Systems darstellt, sondern auch die Grundlage für die Codegenerierung bildet. Am Ende der Algorithmen-Entwicklung müssen beispielsweise C/C++, HDL, Verilog oder Strukturierter Text nicht per Hand für das jeweilige Steuerungssystem übersetzt und optimiert werden. Dies geschieht stattdessen weitgehend automatisch durch Auswahl des Zielsystems in Codegeneratoren wie dem Embedded Coder oder dem Simulink PLC Coder.

Ein im Zusammenhang mit Industrie 4.0 häufig gebrauchter Begriff ist der des digitalen Zwillings. Digitale Zwillinge sind dynamische, virtuelle Darstellungen in Betrieb befindlicher physischer Objekte oder Systeme. Sie können simuliert werden und erhalten kontinuierlich Daten über den aktuellen Zustand eines Systems. Sie können einzelne Komponenten und kleine Geräte darstellen, aber auch Anlagen, Gebäude und Einrichtungen oder sogar ganze Stromnetze und Städte.

Die während der modellbasierten Entwicklung erzeugten Modelle sind im Prinzip genau das. Ihren vollen Nutzen als digitale Zwillinge entfalten sie aber erst, wenn sie mit zusätzlichen Schnittstellen, Visualisierungen und Datenauswertungen versehen werden.

Was dies in der Praxis bedeutet, soll eine Fallstudie veranschaulichen. Atlas Copco ist ein führender Hersteller moderner Kompressorsysteme. Mit Model-Based Design wird dort Systemfunktionalität entworfen und implementiert. Modelle der mechanischen, elektrischen und Software-Subsysteme werden auf einer gemeinsamen Plattform integriert, die die Zusammenarbeit zwischen den unterschiedlichen Ingenieurteams ermöglicht. Man kann sagen, dass dies den digitalen Zwilling des Systems as designed darstellt (Bild 2 oben links).

Die Modelle sind darüber hinaus auch in das Fertigungssystem integriert. Fertigungsdaten und Testergebnisse werden genutzt, um sicherzustellen, dass die Qualität der laufenden Produktion innerhalb der Zielbereiche und -grenzen bleibt. So entsteht ein digitaler Zwilling des Systems as produced.

Bereits vor seiner Herstellung stellen Mitarbeiter gemeinsam mit dem Kunden exakt das individuell angepasste System zusammen, das dieser benötigt. So entsteht ein neues Modell, der digitale Zwilling as configured.

Die Kompressoren von Atlas Copco verfügen über drahtlose Datenverbindungen. Diese gestatten es, sich abzeichnende Probleme schnell zu erkennen, mögliche Energieeinsparungen zu realisieren und eine maximale Betriebsdauer zu erreichen. Das verringert Ausfallzeiten und macht Wartung flexibel planbar. Hersteller und Kunde unterhalten so digitale Zwillinge dieser Systeme in deren Ist-Zustand (as maintained).

Durch digitale Zwillinge erhält Atlas Copco große Mengen an Betriebsdaten, die in die Entwicklung zurückfließen. Das gestattet wiederum den Bau zuverlässigerer und leistungsfähigerer Produkte. Zusätzlich lassen sich damit neue Dienstleistungen und ein höherer Mehrwert für die Kunden definieren.

Ermöglicht wird dieser flexible Einsatz digitaler Zwillinge durch die leichte Erweiterbarkeit der Modelle einerseits, vor allem aber durch die Codegenerierung. Verschiedene Versionen des gleichen Modells lassen sich je nach Anwendungsfall mit wenig Aufwand so anpassen, dass sie auf einer SPS oder eingebetteten Systemen, Edge-Devices, Industrie-PCs, GPUs sowie in der Cloud lauffähig sind (Bild 3 und 4). Die Modelle können also, je nach Rechenleistung und erforderlicher Reaktionszeit, durch Reduktion oder Erweiterung an das jeweils passende IT-System angepasst werden.

Bild 4 zeigt eine Auswahl der verschiedenen miteinander kombinierbaren Prozessoren, Schnittstellen, Protokolle, Dienste und Software für den Einsatz digitaler Zwillinge. Umgebungen wie MATLAB und Simulink unterstützen deren Nutzung und gestatten deren einfache Integration, etwa als Blöcke, und die nachfolgende Generierung des ausführbaren Modells. Für den Einsatz auf einem Edge-Device eignen sich beispielsweise Simulink Real-Time und der Simulink Coder, für Azure dagegen der MATLAB Compiler und der MATLAB Production Server.

Um einen Mehrwert zu schaffen, müssen digitale Zwillinge ihre Daten in geeigneter Form bereitstellen.

Zur Steuerung, Visualisierung, Datensammlung sowie zum Live-Streaming dieser Daten in der Cloud eignen sich Dienste wie Apache Kafka oder ThingSpeak. Letzteres erlaubt beispielsweise die Ausführung von MATLAB-Code und -Skripten und damit eine Vorverarbeitung von Daten, aber auch die Ausführung von Simulationen.

Einer der zentralen Vorteile einer solchen Lösung in Bezug auf die IT-Sicherheit ist der Einsatz von Protokollen wie MQTT. Es verwendet ein Publisher/Subscriber-Modell zum Datenaustausch. Das bedeutet, dass alle Daten aktiv über ausgehende Verbindungen abgefragt werden. Es müssen also keinerlei Ports in der Firewall für von außen angestoßene Verbindungen geöffnet werden.

Hersteller und Betreiber haben damit gleichermaßen Zugriff auf Daten. Sie können die jeweils für sie relevanten Informationen auslesen, aber auch nur diejenigen, die für sie freigegeben sind. Ein Beispiel für eine derartige Lösung in einem Verpackungssystem zeigt Bild 5. Als typische browserbasierte und offene Visualisierungsplattform wurde hier Kibana eingesetzt.

In diesem speziellen Fall führt der Worker einen Algorithmus zur vorausschauenden Wartung aus und liest dazu Daten von der SPS der Maschine. Bereitgestellt werden die Ergebnisse in Kibana-Dashboards zur sofortigen Begutachtung sowie archiviert in Dokumenten verschiedener Formate. Diese archivierten Daten wiederum können für nachfolgende Analysen und die Unternehmensplanung mit längerem Zeithorizont genutzt werden.

Der Nutzen von digitalen Zwillingen ist damit aber keineswegs ausgeschöpft. Zu den Anforderungen an die Produktionsanlage der Zukunft gehören ihre stetige Erweiterbarkeit und Flexibilität sowie Möglichkeiten zur vorausschauenden Wartung und Einbindung in die Unternehmens-IT.

Diese Flexibilisierung sowie die beständige Ausstattung mit neuen Funktionen bringt zwei Herausforderungen mit sich. Betreiber möchten dies möglichst unterbrechungslos bewerkstelligen. Für Hersteller wiederum ist eine derartige Entwicklungsleistung nur dann zu bewältigen, wenn sich ihre Ingenieurteams auf das Wesentliche konzentrieren können. Daten der digitalen Zwillinge ihrer Produkte spielen hierbei eine zentrale Rolle, wie das Beispiel Atlas Copco zeigt. Sie bilden die Basis für die kontinuierliche Weiterentwicklung und Optimierung von Maschinen.

Grundlage hierfür sind erneut Modelle. Ihre Modularität verringert den Integrationsaufwand und bestimmte Tests und Prüfungen müssen nur für geänderte Anteile vorgenommen werden. Da sich zudem Abläufe skriptbasiert automatisieren lassen, können vorhandene Testsuiten ergänzt werden und dann weitgehend ohne manuellen Eingriff durchlaufen. Der Gesamtaufwand wird so erheblich reduziert.

So entsteht zunächst ein neuer digitaler Zwilling, bevor die Änderungen – bei reiner Software im besten Fall online – auf die physische Anlage übertragen werden. Diese wiederum schickt nun neue Daten an ihren digitalen Zwilling zurück. Maschine und digitaler Zwilling halten damit einander stets gegenseitig aktuell. Beabsichtigte Hardwareänderungen werden ebenfalls zunächst wie oben beschrieben simuliert und getestet. Erst danach werden physische Teile ersetzt.

Die weitgehende Automatisierung der beschriebenen Testabläufe, deren Skalierbarkeit etwa auf Mehrkern- und Multiprozessor-Systemen sowie die automatische Codegenerierung geben den Ingenieuren den erforderlichen Spielraum, ihre Zeit mit tatsächlicher Entwicklungsarbeit zu verbringen. Es entsteht ein Kreislauf aus Entwicklung, Übermittlung an die Maschine – sei es in Form von Hard- oder Software – Betrieb, sowie Datenfluss zurück zum Hersteller, der darauf basierend wiederum die Maschine weiterentwickelt.

In der Softwareindustrie ist dies der bewährte und als liegende Acht dargestellte DevOps-Zyklus. Er steht für kontinuierliche Entwicklungsprozesse, bei denen Betreiber und Hersteller vom Austausch auf Gegenseitigkeit profitieren und Änderungen oder Fehlerbehebungen schneller und mit minimalen Unterbrechungen stattfinden.

Ermöglicht wird dies durch die konsequente Nutzung von Modellen, die in jeder Phase des Lebenszyklus eines Produkts eine ganz eigene Funktion erfüllen, prinzipiell aber immer die gleichen sind. Jeder Beteiligte, egal ob Entwickler, Konstrukteur, Vertriebsmitarbeiter oder Betreiber, versteht diese Modelle auf der für ihn erforderlichen Ebene und mit den für ihn angebundenen Tools und Visualisierungen. Damit ist nicht nur eine gemeinsame Basis geschaffen, sondern die Modelle bilden quasi eine Sprache, in der miteinander kommuniziert wird. Diese Universalität schafft die Grundlage für eine erfolgreiche digitale Transformation.

DevOps aus Sicht von Softwareentwicklung und Anwendung in Anlagen

Den Energieverbrauch von Maschinen realistisch simulieren

* Philipp Wallner ist Industry Manager bei MathWorks.

Den Energieverbrauch von Maschinen realistisch simulieren

Modell-zu-Text-Transformation für die Echtzeitimplementierung in heterogenen Systemumgebungen

Cookie-Manager Impressum Datenschutz AGB Kundencenter Hilfe Mediadaten

Copyright © 2022 Vogel Communications Group

Diese Webseite ist eine Marke von Vogel Communications Group. Eine Übersicht von allen Produkten und Leistungen finden Sie unter www.vogel.de

gemeinfrei; Lenze SE; Mathworks; rti; VCM; J. Untch / Vogel Communications Group GmbH & Co. KG; Elisabeth Wiesner; Markus Spiske - Unsplash.com; DLR; TQ Systems; Clipdealer; SEGGER; Sysgo; Foundries.io; Pixabay License; Bild von Gerd Altmann auf Pixabay. ; © metamorworks - stock.adobe.com; Bitkom; AndSus – stock.adobe.com; MAB Labs / Percepio; Pygears; Green Hills / Copyright (c) 2018 ParabolStudio/Shutterstock. ; Canonical ; elenabsl - stock.adobe.com; Parasoft; © Yingyaipumi - stock.adobe.com; Wolfram Scheible; Fabian Vogl / TUM; Kittiphat - stock.adobe.com; NASA; ordinary042 - stock.adobe.com