Automatisierung, Digitalisierung, Machine Learning, Deep Learning, ChatGPT – in der Unternehmenswelt tauchen stetig neue Schlagworte auf. Beim Wissens- und Technologietransfer im Nationalen Forschungsschwerpunkt «Zuverlässige, allgegenwärtige Automatisierung» an der ETH Zürich erleben wir oft, dass Menschen Mühe haben, diese Konzepte einzuordnen. Dabei bilden sie eine logische Entwicklung: Jedes baut auf den vorherigen Methoden auf und erweitert sie um neue Möglichkeiten.
Prozessoptimierung als Basis
Wer seine Prozesse verbessern will, muss sie gut verstehen – besonders mit KI. Wie sehen die einzelnen Prozessschritte aus, wer liefert den «Input», welche Verarbeitungsschritte gibt es, welcher «Output» wird von wem erwartet?
Klassische Qualitätsmanagement-Frameworks sind hier hilfreich, etwa Lean Six Sigma: Lean eliminiert Verschwendung in Form von unnötigen Schritten oder Wartezeiten und optimiert den Wertstrom. Six Sigma hilft, Prozessabweichungen zu erkennen, und strebt eine fehlerfreie Produktion an. Beide Ansätze beruhen auf systematischer Analyse und kontinuierlicher Verbesserung. Das Qualitätsmanagement überwacht Abläufe und macht diese transparent – die ideale Basis, um Prozesse zu digitalisieren oder mit KI zu automatisieren.
Bevor künstliche Intelligenz Mehrwert liefern kann, sollten Prozesse digital erfasst sein. Die Digitalisierung – von IT-gestützten Workflows bis hin zu IoT-Sensoren in Maschinen – erzeugt umfangreiche Datenmengen und macht Abläufe messbar und analysierbar. Ähnlich wie sich mit Zahlen der Finanzabteilung mögliche Engpässe, Zukunftsszenarien und Abläufe modellieren lassen, können mit Daten digitale Zwillinge erstellt werden. Mit diesen lassen sich Prozesse virtuell testen und optimieren. Probleme erkennt man so frühzeitig, ohne die reale Produktion zu stören.
Datengetriebene Vorhersagen
Sind genügend Daten vorhanden, lassen sich daraus statistische Vorhersagen ableiten. Forecasting – die Prognose zukünftiger Entwicklungen – hilft beispielsweise bei der Absatz- oder Bedarfsplanung. Moderne Algorithmen erkennen dafür komplexe Muster in historischen Daten und liefern präzisere Prognosen. Dennoch bleibt jede Vorhersage unsicher und man darf sich nicht blind darauf verlassen.
Ein weiteres Anwendungsfeld ist die vorausschauende Wartung (engl. Predictive Maintenance). Hierbei analysieren Systeme Maschinendaten, um Wartungsbedarfe vorherzusagen, bevor ein Ausfall auftritt. Erkennt die KI beispielsweise in Sensordaten ein Muster für einen Lagerschaden, wird die Wartung frühzeitig geplant, bevor die Maschine ungeplant stillsteht.
Moderne Regelungstechnik
Ein zentrales, aber oft übersehenes Teilgebiet der Automatisierung ist die moderne Regelungstechnik (engl. Automatic Control). Sie bildet das Fundament für viele Anwendungen, bei denen Maschinen oder Prozesse automatisch gesteuert werden müssen, etwa bei der Temperaturregelung, dem stabilen Betrieb eines Stromnetzes oder der präzisen Positionierung eines Roboters.
Im Unterschied zu einer einfachen Open-Loop-Steuerung, die Befehle blind ausführt, berücksichtigt die Regelung den aktuellen Systemzustand kontinuierlich. So kann auf Störungsmeldungen eingegangen und Entscheidungen dynamisch angepasst werden. Dabei wird nicht nur auf aktuelle Werte reagiert, sondern auch das zukünftige Verhalten antizipiert – mithilfe mathematischer Modelle, die das Verhalten des Systems beschreiben.
Moderne Ansätze gehen noch weiter: Sie kombinieren modellbasierte Regelung mit datengetriebenen Methoden. So entstehen hybride Steuerungen, die physikalisches Wissen mit lernenden Komponenten verbinden. Ein Beispiel ist die modellprädiktive Regelung (engl. Model Predictive Control). Diese optimiert sich laufend, um Zielgrössen zu erreichen. Gleichzeitig erfüllt sie stets die vorgegebenen Anforderungen an Energieverbrauch oder Sicherheit.
Im NCCR Automation (NCCR: Swiss National Centres of Competence in Research) arbeiten wir daran, diese Methoden skalierbar, robust und echtzeitfähig zu machen. Erst dann lassen sie sich in komplexen, vernetzten und unsicheren Umgebungen einsetzen. Besonders im Fokus stehen dabei cyber-physikalische Systeme, in denen Software, Sensorik und physische Prozesse eng ineinandergreifen.
KI und Lernen
Maschinelles Lernen: Algorithmen finden Muster
Mit ausreichend Daten kommt Maschinelles Lernen (ML) ins Spiel. ML-Algorithmen lernen, aus Beispielen Muster zu erkennen, ohne dafür explizit programmiert worden zu sein. So kann ein Entscheidungsbaum beispielsweise Regeln aus Kundendaten ableiten, die aufzeigen, welche Merkmale einen Kauf wahrscheinlich machen. Man kann sich ML als fortschrittliche Statistik vorstellen. Dabei bleibt die Datenqualität eine zentrale Voraussetzung. Nach dem Prinzip «Garbage in, garbage out» liefern selbst die besten Algorithmen nur dann verlässliche Ergebnisse, wenn sie auf geeigneten Daten basieren, die eine repräsentative Grundlage für das zu lösende Problem bieten.
Deep Learning: Neuronale Netze für komplexe Zusammenhänge
Eine besonders leistungsfähige Unterart des ML ist das Deep Learning mit künstlichen neuronalen Netzwerken. Diese vielschichtigen Modelle können komplexe Muster erkennen, die von einfacheren Algorithmen nicht entdeckt werden. Deep Learning hat seit den 2010er-Jahren spektakuläre Fortschritte ermöglicht – von der Bilderkennung bis hin zu Sprachassistenten. Der Clou: Das System lernt eigenständig, welche Merkmale wichtig sind, anstatt dass Menschen sie vorgeben. Allerdings sind solche künstlichen Netzwerke oft undurchsichtige Black Boxes und sehr datenhungrig. Wie alle anderen haben auch Deep-Learning-Modelle ihre Grenzen.
Reinforcement Learning: Lernen durch Rückmeldung
Neben dem Lernen aus historischen Daten gibt es das Reinforcement Learning (RL), also das verstärkende Lernen. Hier lernt eine KI durch Versuch und Irrtum: Das System – manchmal auch als Agent bezeichnet – probiert Aktionen aus und erhält Belohnungen oder Strafen als Feedback. So können etwa Spielprogramme oder Roboter in Simulationen durch Millionen Tests eigenständig optimale Strategien entwickeln. RL findet selbst in dynamischen Situationen Lösungen, auf die kein Programmierer käme – wie beispielsweise im Spiel Go. Die Regeln müssen sorgfältig gesetzt sein. Neue Ansätze werden zuerst virtuell erprobt, damit keine unerwünschten Strategien entstehen – bei denen die KI beispielsweise eine Softwareschwachstelle ausnutzt, die es in der Realität nicht gibt.
Transformer-Modelle
Den jüngsten Sprung in der KI-Entwicklung brachten Transformer-Modelle. Diese Architektur ermöglichte Large Language Models (LLMs) wie jene, auf denen auch ChatGPT basiert. Diese LLMs werden mit riesigen Textmengen trainiert. ChatGPT kann Fragen beantworten, Texte schreiben oder übersetzen – oft in erstaunlich guter Qualität. Solche Modelle erlauben es Unternehmen, neue Anwendungen zu erschliessen, vom intelligenten Chatbot im Kundendienst bis hin zur automatischen Analyse von Dokumenten.
Allerdings neigen LLMs auch zu Halluzinationen – also überzeugend klingenden, aber falschen Antworten. Denn diese LLMs haben kein echtes Verständnis, ihre Ausgaben basieren einzig auf Wahrscheinlichkeiten. Zudem sind sie sehr rechenaufwendig und komplex.
Vom Modell zur realen Wirkung
Damit künstliche Intelligenz nicht nur in Simulationen oder Analysewerkzeugen bleibt, sondern echten Mehrwert schafft, muss ihr Output auch in die physische Welt zurückwirken. Dies geschieht auf unterschiedlichen Wegen: In vielen Fällen erhalten Menschen gezielte Entscheidungshilfen, sogenannte Decision-Support-Systeme, die auf KI-Auswertungen basieren. In der Industrie kommunizieren intelligente Systeme direkt mit Maschinen, etwa über IoT-Steuerungen oder cyber-physikalische Systeme, um Prozesse automatisch anzupassen oder zu optimieren.
Ein besonders dynamisches Feld sind autonome Roboter, die mithilfe von KI ihre Umgebung erfassen, interpretieren und physisch darauf reagieren – etwa bei der Kommissionierung im Lager, in der Pflegeassistenz oder in der Landwirtschaft. Diese Rückkopplung vom digitalen zum physischen System ist ein zentrales Thema moderner Automatisierung und gewinnt zunehmend an Bedeutung.
Chancen / Herausforderungen
Mit jedem Fortschritt wachsen auch die Herausforderungen. Ein zentrales Thema ist die Zuverlässigkeit: In vielen Anwendungen reicht es nicht aus, wenn ein KI-Modell im Durchschnitt gute Entscheidungen trifft. Es muss auch in Rand- und Ausnahmesituationen verlässlich funktionieren. Die erlernten Regeln müssen unter veränderten Bedingungen stabil und nachvollziehbar bleiben.
Am Nationalen Forschungsschwerpunkt Automation untersuchen wir deshalb unter anderem, wie autonome Systeme mit Unsicherheit umgehen – von verrauschten Sensordaten bis hin zu unzuverlässigen Informationsquellen wie Falschmeldungen. Ziel ist es, Systeme zu entwickeln, die ähnlich wie erfahrene Menschen unter unklaren Bedingungen vorsichtiger agieren. Ein Bespiel dafür ist ein autonomes Fahrzeug, das bei Nebel langsamer fährt.
Ein zweiter Forschungsansatz betrachtet die Rückkopplungen zwischen algorithmischen Entscheidungen und ihrer Umwelt. Denn Systeme beeinflussen nicht nur ihre technische Umgebung, sondern verändern auch die Menschen, die sie nutzen. Wenn ein Empfehlungsalgorithmus in sozialen Medien bestimmte Inhalte bevorzugt, prägt er damit die Wahrnehmung und das Verhalten der Nutzenden. Es genügt also nicht, einzelne Komponenten zu optimieren – wir müssen die systemischen Effekte im Ganzen verstehen.
Schliesslich erforschen wir auch die gesellschaftlichen Auswirkungen automatisierter Systeme: Wie können Fairness, Teilhabe und Transparenz sichergestellt werden? Wie lassen sich KI-Systeme gestalten, die nicht nur wirtschaftlich effizient, sondern auch sozial verantwortungsvoll sind?
Künstliche Intelligenz ist keine isolierte Wundertechnik, sondern Teil eines breiten technologischen und gesellschaftlichen Wandels. Wer als KMU jetzt mit durchdachten Schritten einsteigt – auf Basis bewährter Prozesse, mit guter Datenlage und dem Bewusstsein für Chancen und Risiken –, hat die besten Voraussetzungen, diesen Wandel mitzugestalten. Für die Zukunft entscheidend ist die Verbindung zwischen datengetriebenen Ansätzen der KI und bewährten Methoden der Regelungstechnik. Nur durch intelligentes Zusammenspiel von Sensorik, Modellen, Feedback und Steuerung können automatisierte Systeme zuverlässig, sicher und erklärbar agieren. Genau hier liegt der wissenschaftliche Schwerpunkt des NCCR Automation und von SAIROP (mehr zu SAIROP siehe Box).