KI-Konkret

Interview mit Jonas Rietsch von adigi GmbH, Parkstein

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Jonas Rietsch, ich habe in Erlangen zunächst Physik studiert und im Master den ersten Kontakt zu Machine Learning gehabt. In meiner Masterarbeit habe ich mich mit der Klassifikation von Schlafphasen, einer Form der Zeitreihenklassifikation, beschäftigt. Zu dieser Zeit hatte ich bereits Interesse an Natural Language Processing und bin so bei der Jobsuche auf adigi gestoßen. Dort bin ich seit 3 Jahren als ML Engineer angestellt.

 

2. Um welches Unternehmen und Produkt / welche Dienstleistung geht es konkret?
Adigi ist ein B2B Service-Anbieter für Reisebüros. Diese leiten Anfragen an uns weiter, welche automatisch mittels KI bearbeitet werden. So können ReiseberaterInnen entlastet werden.

 

3. Wo wird KI im Unternehmen eingesetzt?
Der Einsatz von KI ist die Basis für unser Geschäftsmodell.

 

4. Welche Bedeutung spielt KI dafür?
Daher spielt die KI eine sehr große Rolle. Dennoch sind derzeit auch noch teilweise manuelle Schritte nötig.

 

5. Welche Algorithmen / Art von KI nutzen Sie?
Wir nutzen ausschließlich Neuronale Netze. Genauer gesagt vortrainierte BERT-ähnliche Transformer, die wir unsupervised weitertrainieren. Zudem nutzen wir auch kleinere Netze, die selbst „from scratch“ supervised trainiert sind.

 

6. Welchen Mehrwert bietet die KI für den Anwender?
Unsere Lösung ermöglicht es den Reisebüros, typische Anfragen wie z.B. für Pauschalreisen sehr schnell zu bearbeiten und sehr spezifische Angebote zu generieren. Dadurch kann insgesamt eine höhere Buchungsrate erreicht werden als bei rein manueller Bearbeitung.

 

7. Hätten Sie das Problem auch mit einem traditionellen Algorithmus ohne KI lösen können? Wenn nein: Warum war eine KI nötig?
Nein. Die Daten sind sehr unstrukturiert, die „Bedürfnisse“ müssen aus den Textanfragen extrahiert werden, und beispielsweise Zeitraum Personenanzahl und Vorlieben ausgelesen werden. Dabei können auch Rechtschreibfehler auftreten und beispielsweise die Orts- oder Hotelnamen wären besondere Hürden. Ein regelbasierter Ansatz wäre also wegen der Unstrukturiertheit nicht möglich.

 

8. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Es gibt und gab mehrere Hürden. Zum einen reicht das Erkennen alleine nicht, sondern für uns ist es auch wichtig, die Zuverlässigkeit der KI-Vorhersage beurteilen zu können. So können wir entscheiden, ob ein Mensch das Ergebnis prüfen muss. Die reine Modellausgabe (z.B. Softmax-Werte) reichen dafür nicht. Zudem müssen Entitäten auch normalisiert werden. Dabei können Fehler passieren, die quantifiziert werden müssen. Allgemein ist die Qualitätsmessung der verschiedenen Schritte nicht trivial. Eine weitere Problematik besteht in der Versionierung von Modellen und Datensätzen, da die typische Git-Versionsverwaltung nur teilweise funktioniert. Auch können Methoden des Test-Driven-Development nicht einfach so auf Machine Learning Projekte übertragen werden. Wir arbeiten aktiv an der Lösung derartiger Probleme, beispielsweise durch hard-coded Tests zur Absicherung und fuzzy matching mit einer Liste möglicher Werte. Wenn Scores nicht im grünen Bereich sind, greift der Mensch ein.

 

9. Woher kommen die Daten, die Sie für das Training nutzen?
Durch die bei uns eingehenden Anfragen entstehen genug Daten für Supervised Learning. In Kombination dazu sind die vortrainierten Modelle auf großen Mengen unstrukturierten Texts trainiert.

 

10. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Die Entwickler, die an der KI arbeiten, sind darauf spezialisiert.

 

11. Wie haben Sie das Deployment gestaltet?
Wir nutzen eine Micro-Service-Architektur für die einzelnen Elemente. Diese sind in der Cloud deployed.

 

12. Wie sehen ihre weiteren Schritte aus? Wird das Modell z.B. regelmäßig neu trainiert?
Das Neu-Trainieren geschieht unregelmäßig, wenn beispielsweise Änderung an den Daten, deren Vorbereitung oder dem Modell stattfinden. Da wir hier hauptsächlich fine-tunen, halten sich die Kosten dafür in Grenzen. Wir entwickeln unseren Modelle ständig weiter, evaluieren Alternativen, und arbeiten unter anderem daran, die oben genannten Probleme zu lösen.

 

13. Was hätte Sie in Ihrem Vorhaben, KI zu nutzen, unterstützt? Z.B. Weiterbildungen, GPU-Rechenleistung, Speicherplatz…
Die Möglichkeit, ein eigenes Sprachmodell vorzutrainieren. Wegen der domänenspezifischen Texte wäre ein solches Pretraining hilfreich. Allerdings ist hierfür viel Rechenleistung nötig. Weiterbildungen wären für uns auf jeden Fall interessant, vor allem mit praxisnahen Inhalten wie zum Deployment in der Cloud. Für erfahrene Software-Engineers wären auch einsteigerfreundliche Weiterbildungen zu KI sinnvoll.

Interview mit Philipp Olenberg von der Krones AG, Regensburg/Neutraubling

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Ich habe zunächst im Bachelor Mechatronik studiert und dann im Master Informationstechnologie. Im Studium hatte ich bereits durch Vorlesungen Kontakt mit KI und Data-Science. Im Beruf habe ich über das Projektmanagement von Digitalisierungsprojekten viel mit Cloud und KI zu tun gehabt. Seit kurzem bin ich Head of Artificial Intelligence bei der Krones AG.

 

2. Um welches Unternehmen und Produkt / welche Dienstleistung geht es konkret?
Krones nutzt an verschiedenen Stellen der Wertschöpfungskette KI - sowohl für interne Optimierungen, als auch für unsere Produkte. Ein konkretes Beispiel ist unser Linatronic AI, eine Inspektionseinheit die durch Deep Learning die Fehlausleitquote deutlich reduzieren konnte.

 

3. Welche Bedeutung spielt KI dafür?
Die Bedeutung von KI für Krones wächst stetig. Sie ist ein wichtiger Baustein der digitalen Transformation. Die Bedeutung von KI für Krones wächst stetig. Sie ist ein wichtiger Baustein der digitalen Transformation.

 

4. Welche Algorithmen / Art von KI nutzen Sie?
Wir nutzen die gesamte Bandbreite von KI-Methoden. Sowohl symbolische, wissensbasierte KI, als auch Machine Learning und Deep Learning sind je nach Anwendungsfall im Einsatz. Dabei setzten wir nicht nur auf supervised und unsupervised Learning, sondern nutzten auch Reinforcement Learning (RL).

 

5. Welchen Mehrwert bietet die KI für den Anwender?
Durch KI unterstützen wir unsere Kunden bei Entscheidungsprozessen und entlasten sie bei zahlreichen Tätigkeiten.

So können unsere Kunden beispielsweise durch smarte Instandhaltungsstrategien effizienter selbst warten oder auch Unterstützung von Krones einkaufen. Unser Ziel ist es, den Output der Linie zu maximieren, den Ausschuss zu verringern und ungeplante Stillstandszeiten zu verkürzen. Hier hilft uns KI ebenfalls dabei, die Produktionsqualität hochzuhalten und beeinflusst damit direkt den Output.

 

6. Hätten Sie das Problem auch mit einem traditionellen Algorithmus ohne KI lösen können? Wenn nein: Warum war eine KI nötig?
Manche Anwendungen konnten nicht ohne KI gelöst werden. Ein Beispiel sind skalierte Regelungsprozesse, die für normale Regler zu viele Prozessparameter besitzen. Dies sind wir mit RL angegangen und erste Feldtesterfahrungen waren erfolgreich.
In anderen Fällen gab es traditionelle Lösungen, die aber von der KI deutlich übertroffen und daher abgelöst worden sind. Hierzu zählt die visuelle Qualitätsprüfung, die durch die Deep Learning Algorithmen deutlich verbessert werden konnte.

 

7. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Für die visuelle Qualitätsprüfung in der Produktion haben wir sehr hohe Echtzeitanforderung an Modelle, da hohe Stückzahlen pro Sekunde analysiert werden müssen.

Diese Anforderungen beeinflussen zum Beispiel die Entscheidung, wohin das Modell deployed, welche Modellart gewählt wird und wie das Modell optimiert werden muss, da alle Prozesse auf einem Zielsystem um die gleichen Ressourcen konkurrieren.
Das muss immer abhängig von Anwendungsfall zu Anwendungsfall neu abgewogen werden.

Außerdem muss das Risiko eines Total-Ausfalls oder einer Fehlentscheidung/ Falschklassifikation bewertet und entsprechend beim Design mit berücksichtigt werden.

Beim RL kam dazu, dass man anders als beim trivialen Einsatz bei Videospielen zum Beispiel, nicht beliebig viele Durchläufe machen kann, um das korrekte Verhalten zu erlernen. Vor allem nicht in einer produktiven Anlage. Um ein Agententraining durchführen zu können, mussten wir Simulationsumgebungen und digitale Zwillinge schaffen. Auch zu diesem Zweck kam Machine Learning zum Einsatz.

 

8. Woher kommen die Daten, die Sie für das Training nutzen?
Glücklicherweise können wir unsere Trainingsdaten selbst generieren. Allerdings gibt es dabei immer Herausforderungen bezüglich der Standardisierung und der Qualität, der Harmonisierung und für Metadaten bzw. Beschreibungen der Daten.

 

9. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Das ist bei uns im Team sehr unterschiedlich. Einige Kollegen hatten schon Vorerfahrungen aus dem Beruf, dem Studium oder der Promotion. Zum Teil haben sie sich die Inhalte aber auch autodidaktisch beigebracht. Wir legen viel Wert auf Schulungen und Weiterbildung.

 

10. Wie haben Sie das Deployment gestaltet?
Da die Anwendungsfälle und Zielsysteme (z.B. Cloud oder Edge) unterschiedlich sind, sieht auch das Deployment unterschiedlich aus.

Wir haben zum Beispiel KI-Modelle als Docker-Container im Einsatz, aber Cloud Services (u.a. wie AWS Sagemaker) bieten auch Möglichkeiten, ML-Modelle als serverless functions zu deployen.

 

11. Wie sehen ihre weiteren Schritte aus? Wird das Modell z.B. regelmäßig neu trainiert?
Probleme wie Data Drift und Concept Drift müssen präventiv behandelt werden und Maßnahmen hierfür müssen bereits beim Design angedacht werden.
Daher haben wir Monitoring- & Operations-Prozesse von Anfang an angedacht, die es uns ermöglichen, die Qualität und Performance von eingesetzten Modellen zu überwachen.

Wenn nötig, kann dann ein Retraining angestoßen werden.

 

12. Was hätte Sie in Ihrem Vorhaben, KI zu nutzen, unterstützt? Z.B. Weiterbildungen, GPU-Rechenleistung, Speicherplatz…
Rechenkapazität und Speicher sind bei uns schon geklärt und wären daher nicht nötig gewesen. Da KI allerdings sehr schnelllebig ist, ist es wichtig am Zahn der Zeit zu bleiben. Deswegen sind wir immer offen für Networking und Austausch, beispielsweise zu Best Practices, Forschungsansätzen, Einsatzgebieten und Praxiserfahrungen.

Interview mit Reinis Vicups und Timo Walter von TIKI GmbH, Weiden i.d. Obpf.

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Reinis Vicups und ich bin Mitgründer und CTO am Technologischen Institut für angewandte Künstliche Intelligenz (TIKI). Während meines Studiums an der TU Riga in Lettland habe ich für Siemens gearbeitet. Dabei hatte ich früh mit Vorgängern von Machine Learning (ML) gearbeitet, z.B. Petri-Netzen und mich viel mit Automatisierung beschäftigt. Durch Auslandseinsätze bin ich in Nürnberg gelandet und so seit 20 Jahren in Deutschland. Von Siemens habe ich zur Samhammer AG gewechselt und dort als Entwickler, Architekt und Projektleiter gearbeitet. Circa 2013 kam ein neues Projekt bei Samhammer zu Textanalyse und Clustering auf, wodurch ich zu ML gekommen bin. Nach ein paar Jahren waren die meisten internen Anwendungsfälle erfolgreich umgesetzt. Wir haben aber nicht einfach aufgehört, ML zu machen. Geförderte Forschungsprojekte waren dann der Ursprung für die Ausgliederung des TIKI aus der Samhammer AG. Ein Ziel war es, die KI-Forschungsergebnisse mit dem bayrischen Mittelstand zu teilen.
Und ich bin Timo Walter, Machine Learning Engineer bei TIKI. Ich habe zunächst an der OTH Amberg-Weiden Elektro- & Informationstechnik im Rahmen eines dualen Studiums mit der BHS Corrugated Maschinen- und Anlagenbau GmbH studiert. Dort habe ich Gefallen an der Software-Entwicklung gefunden und deswegen in Regensburg den Master in Informatik, erneut dual, gemacht. Danach wollte ich aber „mehr“ als reine Software-Entwicklung und für echte Veränderungen sorgen. Ich konnte mich sofort mit der Vision von TIKI identifizieren und bin nun seit fast 4 Jahren hier.

 

2. Um welches Unternehmen geht es heute?
Das TIKI wurde 2017 gegründet und die Gesellschafter sind die Samhammer AG, Krones AG und Zollner AG. Einer der Gründungs-Impulse kam auch vom bayrischen Wirtschaftsministerium und der Uni Bayreuth. Das TIKI Geschäftsmodell ist für unsere Gesellschafter und ausgewählte Kunden produktive KI-Anwendungen zu bauen sowie in deren jeweilige Produktivumgebung zu integrieren. Um diese Aufgabe effektiv und nachhaltig lösen zu können, hat TIKI eine eigene KI-Entwicklungsumgebung in Form der Data Science Platform (DSP) gebaut und betreibt diese auf einer eigenen Infrastruktur.
Im weiteren Schritt der TIKI-Entwicklung werden wir unsere KI-Verfahren & Expertise dem freien Markt, in Form von gemeinsamen Projekten mit Drittkunden, zur Verfügung stellen.
Aufgrund unserer Erfolge, produktive KI-Anwendungen zu bauen, haben aktuell eine starke Nachfrage von einigen großen bayrischen Unternehmen, welche gerne Gesellschafter bei TIKI werden wollen.

 

3. Wo wird KI im Unternehmen eingesetzt?
Der Name unseres Unternehmens (TIKI) ist „selbstsprechend“. Alle Aktivitäten basieren und fokussieren sich auf produktive KI-Anwendungen. Für jeden Anwendungsfall sind wir sehr schnell in der Lage einzuschätzen, ob sich hierfür KI lohnt oder andere Lösungen zum Ziel führen. Sobald wir die Machbarkeit für KI feststellen konnten, sind wir in der Lage die produktive KI-Anwendung sehr schnell zu entwickeln. Daher kommt auch unser Slogan „Zur produktiven KI in 90 Tagen“. Die Geschwindigkeit spielt für uns eine sehr zentrale Rolle.  
Dabei beschränken wir uns nicht auf einzelne Algorithmen oder Branchen. Das TIKI arbeitet in der Horizontalen, wo die Produktion von ML-Systemen stattfindet. Der Prozess zur KI-Entwicklung und Bereitstellung soll zum Gegenstand des gewöhnlichen Treibens werden.
Andere Aufgaben in der IT-Welt sind heute sehr standardisiert in ihrem Ablauf. Bei KI ist dies noch nicht der Fall, denn KI ist vielschichtig und „magisch“. Wir wollen dazu beitragen, dass die KI-Entwicklung und Nutzung in der Zukunft so einfach ist, wie beispielsweise die Entwicklung von E-Commerce-Projekten.

 

4. Welche Algorithmen / Art von KI nutzen Sie?
Da gibt es bei uns keine Einschränkungen. Wir decken alle Bereiche von Klassifikation über Clustering bis hin zu Regression und Anomalie-Erkennung ab. In der Explorationsphase werden sehr viele Algorithmen ausprobiert und schließlich jener genutzt, der am meisten Mehrwert bringt. Dies wird möglich durch unsere eigens entwickelten DSP (KI-Entwicklungsumgebung), die massive parallele Verarbeitung nutzt, um viele Modelle zu trainieren und durch einen empirischen Vergleich den besten Algorithmus wählt. Unsere KI-Entwicklungsumgebung ist heterogen. Je nach Arbeitsschritt wird also eine unterschiedliche Technologie verwendet, immer mit dem Fokus darauf, welche Tools die jeweilige Aufgabe am besten erledigen.

 

5. Welchen Mehrwert bietet die KI für den Anwender?
Das hängt natürlich stark von dem spezifischen Projekt ab. Ein konkreter Beispielfall ist unser Projekt mit dem Lebensmitteldiscounter Netto Marken-Discount aus Maxhütte-Haidhof. Dabei ging es um die Erkennung von Anomalien bei Verkaufsvolumina. Es kommt im Verkaufsalltag beispielsweise vor, dass ein Produkt plötzlich nur in sehr geringen Stückzahlen oder gar nicht mehr verkauft wird. Die möglichen Gründe dafür sind vielzählig. So kann das Produkt ausverkauft sein, falsch einsortiert oder auch einfach von anderen Produkten oder Inventar verdeckt werden.
Aus den Kassenbon-Daten können wir pro Filiale tagesaktuelle Vorhersagen über die erwarteten Verkaufszahlen für jeden Artikel extrahieren. Treten Anomalien auf, wird der Filialmitarbeiter informiert, sodass Ursachen geprüft und behoben werden können.
Obwohl die Gründe für die Anomalie chaotisch, unbekannt und unvorhersehbar sind, und auch nicht in den Kassenbon-Daten vorkommen, gelingt es uns also einen Mehrwert für den Kunden zu generieren. Dieser liegt im Aufmerksam machen auf die Anomalie. Die Ursachenanalyse und Lösung kann anschließend leicht vom Mitarbeiter durchgeführt werden.

 

6. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Die größte Hürde ist bei uns generell das Aufbereiten der domänenspezifischen Daten, sodass Sie für das Training genutzt werden können. Geschätzt entfallen etwa 75% der gesamten Bearbeitungszeit auf das Feature Engineering. Die Komplexität ergibt sich daraus, dass zunächst das Verständnis von Domäne und Kontext geschaffen werden muss. Die Daten müssen oft auch aus mehreren heterogenen Quellen erhoben und für das Training transformiert werden.
Zur effektiven Bewältigung dieser Herausforderungen haben wir in den letzten Jahren spezifische Transformations-Verfahren entwickelt. So sind wir in der Lage, selbst die komplexesten Herausforderungen in kürzester Zeit lösen zu können.

 

7. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Vereinzelt gab es Erfahrungen in vorherigen Jobs, aber nicht in der Intensität wie wir es heute benötigen. Als Einstiegskriterium ist eine tiefe ML-Expertise aus unserer Sicht auch nicht zwingend notwendig. Wir haben spezielle Einarbeitungsmethoden entwickelt, in denen es uns gelingt, neue Mitarbeiter binnen zwei bis drei Monaten das notwendige Know-how zu vermitteln. Neben der technischen Expertise ist für uns eine hohe intrinsische Motivation und die Fähigkeit sich schnell in die Themen einzuarbeiten entscheidend.

 

8. Was hätte Sie in Ihrem Vorhaben, KI zu nutzen, unterstützt? Z.B. Weiterbildungen, GPU-Rechenleistung, Speicherplatz…
Was uns fehlt sind technische Diskussionspartner für angewandtes Machine Learning. Wir suchen Austausch mit Firmen, die viele produktive ML-Systeme bauen. Eine Community für den Praxis-Einsatz von KI, in der es nicht um die immer gleichen Grundlagen und abstrakte Fragestellungen geht, sondern um symmetrischen Austausch zu Hands-On Erfahrungen, Problemen und deren Lösungen sowie technischen und algorithmischen Details.

 

9. Möchten Sie noch etwas sagen, wozu Sie bisher nicht die Gelegenheit hatten?
Jeder, der an produktiven KI-Themen interessiert ist, kann sich gerne bei uns melden. Wie angesprochen sind wir austauschfreudig und unterhalten uns gerne auch im tiefen Detail.
Unser Ziel ist es im Raum Amberg/Weiden ein Symposium für angewandte KI-Lösungen im Mittelstand zu initiieren. Hierfür sind wir auf der Suche nach Partnern, welche dies mit uns vorantreiben möchten.
Herrn Reinis Vicups erreichen Sie unter reinis.vicups@tiki-institut.com und Herrn Timo Walter unter timo.walter@tiki-institut.com

 

Interview mit Dr. Thomas Weig von ams OSRAM, Standort Regensburg

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Thomas Weig, ich komme ursprünglich aus der Bodensee-Region, und habe Physik zunächst im Bachelor in Augsburg und anschließend den internationalen Master in Stuttgart studiert. Anschließend habe ich in Freiburg meine Promotion beim Fraunhofer Institut für Angewandte Festkörperphysik durchgeführt. Dabei habe ich mich mit ultrakurzer Pulserzeugung von blauen Laserdioden beschäftigt. Über gemeinsame Projekte ist der Kontakt zu OSRAM früh entstanden. Meine Dissertation deckte viele Gebiete von der Simulation, der Herstellung, Charakterisierung bis zur Datenanalyse der LASER ab. Anschließend bin ich als Data Analyst bei OSRAM eingestiegen. Das war getrieben von einer Faszination zu übergreifendem Arbeiten und Datenanalyse, die ich während der Promotion erlebt habe. Bei OSRAM habe ich Datenanalysen zur gesamten Prozesskette durchgeführt, was sehr spannend war. Seit 2019 leite ich nun den Data Science Bereich in der Entwicklung in der Opto Semiconductors Sparte bei ams OSRAM.

2. Um welches Produkt / welche Dienstleistung geht es konkret?
In unserem Team arbeiten wir nicht an Algorithmen oder einer Software, die direkt im Produkt beim Kunden Anwendung finden, sondern wir unterstützen mit unserer Arbeit die Entwicklung und Fertigung und ermöglichen durch „datenbasierte“ Entwicklung neue Produkte.

3. Wo wird KI bei ams OSRAM eingesetzt?
Da gibt es mehrere spannende Bereiche: Für Optimierungen, z.B. zur Effizienzsteigerung, für Automatisierungen von zeitaufwändigen Geschäftsprozessen, sowie Virtual Metrology, also der virtuellen Messtechnik. Dabei ist das Ziel, gewisse Produkteigenschaften aus den Produktionsparametern vorherzusagen. In einigen neuen Produktinnovationen steigt der Aufwand für das Testen und in manchen sind sogar gewisse Tests physikalisch kaum mehr möglich. Algorithmen, die es erlauben, die Eigenschaften sehr zuverlässig vorherzusagen, ohne die Tests tatsächlich durchzuführen, können hier enorm helfen. 

4. Welche Bedeutung spielt KI dafür?
Die Bedeutung von KI wächst für uns. Aktuell befindet sich z.B. der Einsatz von Deep Learning noch in wenigen Lösungen, zum Großteil sind noch klassische (Machine Learning) Algorithmen im Einsatz. Für uns ist immer zunächst die Lösung der Problemstellung im Vordergrund. Wir entwickeln immer mehr dort an Lösungen mit Hilfe neuerer KI, wo wir Limitierungen mit klassischen Methoden erleben.

5. Welche Algorithmen / Art von KI nutzen Sie?
Einerseits verwenden wir wie angesprochen viele klassische Methoden wie lineare Regressionen, Decision Trees und Clustering-Algorithmen aber auch Bayes’sche Methoden und Reinforcement Learning (RL). Eine Besonderheit ist bei uns, dass wir auch Kausalitätsforschung einbeziehen. Beispielsweise betrachten wir kausale Themen auch in Verbindung mit RL. Ein Produktionsablauf ist ja eine Kette von vielen Prozessen mit vielen Wechselwirkungen. Wenn man die Daten daraus analysiert, findet man viele Korrelationen, von denen einige jedoch nur Scheinkorrelationen sind. Es existiert also kein direkter kausaler Zusammenhang. Unsere Vision hierfür ist es, ein kausales Modell zu haben, in dem mit RL interveniert werden kann. Denn die Produkteigenschaften am Ende (z.B. Lichtstrom, Farbe, …), werden schon durch Prozessschritte am Anfang der Kette kausal beeinflusst. So könnte man in den ersten Schritten früh eingreifen, um die Eigenschaften zu optimieren.

6. Ihre Abteilung arbeitet unterstützend für andere Abteilungen. Wie überzeugen Sie diese von dem Mehrwert der KI?
Das müssen wir meist gar nicht! Die Ingenieure kommen mit ihren Ideen auf uns zu, wie sie produktiver, effizienter oder in höherer Qualität Ergebnisse durch Data Science erzielen könnten. Das entsteht durch unser tief verankertes Ingenieursdenken in der Firma. Meist ist für die Umsetzung der Ideen aber eine KI nötig, sodass wir eigentlich gar keine Überzeugungsarbeit leisten müssen. Das Problem ist dann eher, die Daten in ausreichend hoher Qualität zur Verfügung zu haben, um das Projekt zügig umzusetzen.

7. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Die größte Problematik ist definitiv das Sammeln von großen Datenmengen in hinreichender Qualität. Hinzukommt, dass wir hauptsächlich mit Fertigungsdaten von verschiedenen Anlagen, Standorten und Produkten arbeiten. Zudem sind die Produktionsparameter nicht statisch, sondern Änderungen gehören quasi zum Alltag. Neben dem reinen Sammeln von Daten muss also auch ein Daten-Drift berücksichtigt werden. Wir bauen aktuell die Infrastruktur aus und verbessern die Zusammenarbeit zwischen den einzelnen Beteiligten, um diese Problematik anzugehen. Dazu zählt beispielsweise der Aufbau eines Data Lakes.

8. Woher kommen die Daten, die Sie für das Training nutzen?
Unsere Daten werden alle selbst über die Anlagen generiert.

9. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Das ist unterschiedlich. Die neueren Teammitglieder haben zum Teil Erfahrungen und auch Promotionen in KI, aber viele längere Mitarbeitende haben eher Hintergründe in Physik und Mathe mit einem Faible für Daten. Wir sind also ein sehr heterogenes Team, das auch von sehr gutem Dömanenwissen profitiert.

10. Was hätte Sie in Ihrem Vorhaben, KI zu nutzen, unterstützt? Z.B. Weiterbildungen, GPU-Rechenleistung, Speicherplatz…
Wie bereits erwähnt liegt die größte Hürde bei den Daten. Aber auch für das Deployment wäre eine einheitliche Lösung hilfreich. Durch Rechenleistung sind wir in der Regel nicht eingeschränkt.

11. Wie haben Sie das Deployment gestaltet?
Das Deployment fällt je nach anwendungsfall sehr divers aus. Bei nicht-produktionskritischen Elementen kann einfach auf Servern mit Microservices deployed und über eine Weboberfläche genutzt werden. Ansonsten muss alleine schon aus Gründen der Ausfallsicherheit eine andere Lösung gefunden werden. Im Fertigungsbetrieb setzen wir daher hauptsächlich auf Tools, die wir schon davor für klassische Algorithmen verwendet haben. Diese waren zwar zunächst nicht für KI ausgelegt, wurden aber entsprechend erweitert und erfüllen unsere Anforderungen.
Insgesamt deployen wir immer mehr in der Cloud - auch in Kombination mit dem angesprochenen Data Lake.

12. Wie sehen die weiteren Schritte aus? Was ist die Zukunftsvision?
Aus strategischer Sicht wollen wir auf jeden Fall die Datenqualität verbessern und für eine stärkere Zusammenarbeit und Synchronisierung mit IT und Produktion sorgen. Die Dateninfrastruktur mit Data Lake ermöglicht dann, weitere Use Cases zu bearbeiten.
Die engere Verzahnung mit der Produktion hilft zudem, weitere Ideen zu generieren und Lösungen zu finden.
Außerdem werden wir das Thema Kausalität vorantreiben und in dieser Richtung weiter forschen.

Interview mit Dr. Christian Heining von up2parts, Weiden

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Christian Heining, ich bin Chief Innovation Officer bei der up2parts GmbH und dort für Product Innovation, Data Science und Machine Learning zuständig. Ursprünglich bin ich Diplom Technomathematiker und hatte während meiner Ausbildung eigentlich nichts mit Machine Learning zu tun gehabt. Aber es gab viele Überschneidungen, zum Beispiel mit Statistik, Informatik und Maschinenbau. Was ich heute mache, hat also eigentlich schon im Studium angefangen. Während meiner Promotion habe ich mich mit Simulation,CAx und Algorithmenentwicklung beschäftigt und bin so das erste Mal mit der Verarbeitung von Daten in Kontakt gekommen, in einer Form, die man heute vermutlich Data Engineering nennen würde. Danach habe ich einige Jahre in der Produktentwicklung gearbeitet und dort auch die ersten einfachen Vorhersagemodelle trainiert. Zu dieser Zeit kamen auch in der Industrie langsam die Begriffe „Data Science“ und „Machine Learning“ auf. Dann habe ich  als Leiter der Forschung und Entwicklung bei der BAM GmbH in Weiden gearbeitet und bin seit der Ausgründung von up2parts nun hier als CIO tätig. Machine Learning ist jetzt ein essentieller Bestandteil in meinem Berufsalltag.

2. Um welches Unternehmen und Produkt / welche Dienstleistung geht es konkret?
up2parts ist ein junges Softwareunternehmen aus Weiden mit mittlerweile rund  70 Mitarbeiterinnen und Mitarbeitern. Wir entwickeln Softwarelösungen für die Fertigung, speziell die Zerspanung. Wir unterstützen Fertigungsbetriebe in ihrer täglichen Arbeit dabei, ihre Prozesse, beispielsweise in der Kalkulation von Bauteilen, zu automatisieren und implizites Wissen explizit verfügbar zu machen. Unser Endprodukt ist eine webbasierte Servicelösung, bei der KI ein wichtiger Bestandteil ist.

3. Wo wird KI im Unternehmen eingesetzt?
KI ist bei uns Teil der Produkte und wird über unsere Lösungen den Anwendern zum Beispiel durch Webservices zur Verfügung gestellt.

4. Welche Bedeutung spielt KI dafür?
Insgesamt ist die Bedeutung groß, aber auch stark abhängig von der jeweiligen Teilaufgabe. Nehmen wir eine Beispielapplikation mit der Aufgabenstellung, aus CAD-Modellen automatisiert Arbeitspläne zu generieren. Es muss also vorhergesagt werden, wie der Artikel gefertigt wird. Dieser Prozess besteht aus vielen Teilproblemen, bei denen auch viel Domänenwissen notwendig ist. Die Inputdaten sind dabei zum Teil aber so komplex und unstrukturiert, dass rein modellbasierte Methoden nicht möglich sind. Insgesamt nutzen wir KI aber nur, wo es nötig ist. Machine Learning ist für uns kein Selbstzweck.

5. Welche Algorithmen / Art von KI nutzen Sie?
Da wir viele einzelne Probleme lösen müssen, ist die Bandbreite an verwendeten Algorithmen groß. Vieles ist Supervised Machine Learning mit Klassifizierung bzw. Regression, jedoch nutzen wir auch Clustering Methoden. Es kommt kein Deep Learning zum Einsatz, da wir hierfür zu geringe Datenmengen haben. Zum Teil verwenden wir auch öffentliche und vortrainierte Modelle aus der Literatur, z.B. Autoencoder. Wegen der Datenlage arbeiten wir derzeit bei einem unserer Problemstellungen außerdem mit synthetisch generierten Daten. Wir versuchen immer auch neue Methoden zu evaluieren und uns an der aktuellen wissenschaftlichen Entwicklung zu orientieren. Daher sind wir unter anderem bei diversen Forschungsprojekten aktiv beteiligt.

6. Welchen Mehrwert bietet die KI für den Anwender?
Der größte Mehrwert ist, dass wir es schaffen, das persönliche, implizite Fertigungswissen des Anwenders automatisiert explizit bereitzustellen. Die Anwender, die mit den CAD-Modellen arbeiten, sind meistens echte Fertigungsexperten mit dediziertem Fachwissen. Sie müssen beispielsweise das CAD-Modell verstehen, aber auch, wie die Fertigung vor Ort funktioniert. Wir liefern zwar einen gewissen Kern an Funktionen, aber der Kunde arbeitet primär mit seinen eigenen Daten. Das heißt, dass die KI Vorschläge liefert, diese aber auch vom Kunden editiert werden können. Er generiert in gewisser Weise seine eigenen, neuen Labels. Die Machine Learning Modelle werden jede Woche automatisch neu trainiert. So kann das System in Form von Algorithmen und Automatisierung lernen, wie der Anwender arbeitet. Dabei kann der Nutzer auch kollaborativ mit Kollegen interagieren, da unser System mehrere User unterstützt. Davon kann dann auch weniger qualifiziertes Personal profitieren, was mit Blick auf den Fachkräftemangel ein großer Vorteil sein wird. Auf diese Weise stellen wir das Wissen, das im Unternehmen nur implizit vorhanden ist, skalierbar bereit.

7. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Wir haben das System von Null an aufgebaut, da kommt anfangs viel zusammen und man läuft manchmal auch in Sackgassen und scheitert. Es war anfangs auch gar nicht klar, welche Methoden wir verwenden, wie die Architektur und Infrastruktur aussehen wird, etc. Aus Machine Learning Sicht sind natürlich fehlende Daten immer problematisch. Wir pflegen guten Kontakt zu Kunden wie der BAM, was uns sehr geholfen hat und uns zusätzlich tiefe Einblicke in die Domäne Fertigung ermöglicht. Bei manchen Kunden fehlt auch das Verständnis für die Bedeutung von Daten und notwendige Daten wurden beispielsweise über lange Zeit nicht aufgezeichnet. Das wird aktuell aber immer besser.

8. Woher kommen die Daten, die Sie für das Training nutzen?
Die Basis bilden Daten von unseren Partnerunternehmen. Darauf setzen wir das Training mit Kundendaten auf - natürlich getrennt durch Sicherheitsmechanismen. Der Anwender trainiert also automatisch im Livebetrieb seine „personalisierte“ und individuelle KI weiter.

9. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Für uns ist es wichtig, crossfunktionale Teams zu haben, denn wir haben ja stets ein Produkt für Fertigungsmitarbeiter als Ziel. Daher ist es wichtig, viele Domänen angefangen von Fertigungswissen bis zu Machine Learning in einem Team zu vereinen. Die ML-Algorithmen sind dabei aber nur ein Teil der Gesamtlösung. Genauso sind beispielsweise Kenntnisse zu Docker, Microservices, Continuous Deployment und Cloud-Technologien wichtig. Viele unserer Mitarbeiter haben einen Hintergrund aus Mathematik, Physik oder Software-Engineering, einige neuere Mitarbeiter bringen aber auch schon aus dem Studium Kenntnisse zu ML mit. Aber ML-Modelle in der Realität einzusetzen ist meistens deutlich komplexer, als man es aus dem Studium gewohnt ist, beispielsweise weil die Datensätze nicht aufbereitet vorliegen. Gerade am Anfang haben wir die nötigen Machine Learning Kenntnisse durch Weiterbildungen aufgebaut

10. Wie haben Sie das Deployment gestaltet?
Unsere Lösung basiert gänzlich auf Microservices, die mit Docker bzw. Kubernetes umgesetzt sind und in der Cloud laufen. Insgesamt beinhaltet die Infrastruktur etwa 40-50 Microservices, wobei natürlich viele davon eher „typische“ Anwendungsaufgaben übernehmen und nichts mit ML zu tun haben. Jeder Service hat dabei eine eigene CI/CD-Pipeline, sodass wir täglich neu ausliefern können und das auch tun.

11. Wie sehen ihre weiteren Schritte aus? Wird das Modell z.B. regelmäßig neu trainiert?
Die Modelle werden jede Woche bei dem jeweiligen Kunden mit seinen aktuellen Daten neu trainiert, das passiert vollautomatisch und ohne Eingriff durch uns. Zusätzlich verbessern wir selbstverständlich kontinuierlich unsere Infrastruktur und die Modelle. Derzeit müssen die Vorhersagen noch von Menschen überprüft werden. Diese Unschärfe ist jedoch sehr schwierig aufzuheben, da einzelne Anwender die Situationen unterschiedlich bewerten würden. Doch wir arbeiten daran, die Automatisierung zukünftig noch weiter vorantreiben zu können. Ansonsten möchten wir die Modelle auch erklärbar bzw. interpretierbar gestalten, Stichwort xAI (explainable AI), damit der Anwender die Vorhersagen besser bewerten kann. Aus Domänensicht wollen wir die CAD-Modelle noch besser verstehen und analysieren, da es sich dabei um sehr komplexe Daten handelt.

Interview mit Robin Griehl von umlaut energy, Aachen

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Robin Griehl, ich habe in Hamburg Wirtschaftsingenieurwesen mit Schwerpunkt Energietechnik studiert und mich im Master mit Themen wie KI und Machine Learning (ML) auseinandergesetzt. Darüber bin ich bei der umlaut energy gelandet und konnte dort direkt eine Studie zu KI-Anwendungsfällen für Stromnetzbetreiber mitverfassen. Über umlaut energy habe ich dann auch die Möglichkeit bekommen, meine Masterarbeit im Bereich ML bei einem Kundenprojekt zu schreiben. Darin habe ich einen Predictive Maintenance Algorithmus für Solarwechselrichter entwickelt, der die Ausfallwahrscheinlichkeit von Lüftern bestimmt hat.
Danach bin ich bei umlaut energy geblieben, bin jetzt seit fast zwei Jahren hier und arbeite an den Themen Digitalisierung in der Netzbautechnik und der Identifikation von KI-Use-Cases bei Stromnetzbetreibern.
Was ich bei unseren Projekten sehr spannend finde ist, dass wir immer direkt an der Energiewende mitarbeiten. Alle Themen die man dazu aus den Nachrichten kennt, landen am Ende beim Energieversorger und Stromnetzbetreiber. Genau dort setzen unsere Projekte an – wir sind also an den ganz aktuellen und gesellschaftlich wichtigen Themen mit dran.

2. Welche Dienstleistung bietet umlaut energy an?
Wir fangen wirklich von ganz vorne an, indem wir zunächst KI-Use-Cases identifizieren. Diese werden dann zu einer Strategie ausgearbeitet und ein Prototyp angefertigt. Wenn es vom Kunden so gewünscht ist, können wir auch den Go-Live betreuen, also die Modelle produktiv setzen.
Als Hauptanwendungsfälle haben sich Projekte zu diversen Prognosen, z.B. von Stromerzeugung und -verbrauch herausgestellt. Aber auch die Vorhersage von Preisen an der Strombörse oder ungewöhnlich hohen Flusspegelständen, die für Ausfälle elektrischer Anlagen verantwortlich seien können, sind relevante Aufgaben von KI.
Ein weiteres wichtiges Thema ist Predictive Maintenance. Es wird immer mehr Sensorik in Betriebsmitteln und den Stromnetzen verbaut. Die Datenmenge, die für eine intelligente Wartung genutzt werden kann, steigt also insgesamt.
In diesem Zusammenhang ist der Begriff Data Governance sehr wichtig. Man muss klären wie die Daten erfasst werden, wer für die Daten verantwortlich ist, wie und von wem werden sie ausgewertet und weiterverarbeitet. Erst dann kann man sich tatsächlich den KI-Modellen widmen.
Predictive Maintenance ist auch deswegen für Stromnetzbetreiber sehr interessant, da es die Anreizregulierungsverordnung gibt, die finanzielle Rahmenbedingungen schafft, welche es erfordern jedes Jahr etwas effizienter zu werden. Um Betriebsmittel intelligent zu warten und kosteneffizient zu nutzen, sind KI-basierte Vorhersagen notwendig. Dieses Gebiet wird in den nächsten Jahren auf jeden Fall sehr stark wachsen.

3. Welche Bedeutung spielt KI für die Energiewirtschaft?
Das Thema Dekarbonisierung des Energiesystems, also die Energiewende, ist hochaktuell. Natürlich ergibt sich bei den erneuerbaren Energien das altbekannte Problem, dass diese nicht immer verfügbar sind, sondern starken Schwankungen unterliegen. Das stellt die Stromnetzbetreiber vor Herausforderungen.
Gleichzeitig nutzen auch immer mehr Menschen Elektromobilität und, Stichwort Sektorkopplung, auch immer mehr Wärme wird über Strom erzeugt. Diese Entwicklungen führen zu ganz neuen Strom-Verbrauchsprofilen.
Wir haben also nicht nur auf der Erzeugungsseite, sondern auch auf der Verbrauchsseite stark schwankende Profile. Das führt zu ganz neuen Problemen, die es zu bewältigen gilt.
Genau dafür ist aus unserer Sicht die KI absolut notwendig, weil es in Zukunft um sehr komplexe Systeme und sehr große Datenmengen gehen wird.

4. Welche Algorithmen / Art von KI nutzen Sie?
Das ist sehr anwendungsbezogen und projektspezifisch.
Wir merken, dass man oft mit einfachen Methoden sehr weit kommt. Außerdem ist die Erklärbarkeit der Vorhersagen oft wichtig, wofür kleine, simple Modelle besser sind, da sie einfacher zu interpretieren sind.
Gerade wenn wir mit kritischer Infrastruktur zu tun haben, können wir nicht einfach Black-Box Modelle einsetzen.

5. Welchen Mehrwert bietet die KI für den Kunden?
Der größte Mehrwert ist klar die gesteigerte Kosteneffizienz. Das reicht von effizienterer Wartung von Anlagen bis zur geschickteren Steuerung von Stromverbräuchen, so dass die Kosten für den Endkunden sinken und die für das Netz systemdienlichen Leistungen erbracht werden können.
Wenn wir das weiterdenken was die Systemführung angeht, kommen Datenmengen ins Spiel die so groß und komplex sind, dass sie nicht mehr händisch ausgewertet werden können, sondern KI-Tools nötig sind.
Oft starten wir mit kleineren Projekten. Diese bringen dann zusätzlich den Mehrwert, dass überhaupt einmal KI in die Unternehmensprozesse integriert wird und Erfahrungen mit derartigen Projekten gesammelt wird. Denn am Ende muss auf die Modellprognosen immer noch reagiert werden. Diese Quick-wins sind dafür sehr hilfreich.

6. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Die Digitalisierung ist in der Energiebranche und bei Stromnetzbetreibern in Teilen noch nicht sehr weit vorangeschritten. Der primäre Fokus gilt den wenig digitalisierten physischen Assets, Daten werden nicht erhoben oder liegen verstreut in Daten-Silos. Oft fehlt also einfach die richtige Datenmenge in der passenden Qualität für große Deep Learning Modelle.
Deswegen beginnen wir in Projekten oft mit einer Strategiekonzeption und stärken bei unseren Kunden die Themen Data Governance und Data Literacy.
Außerdem muss auch immer das Thema des Datenschutzes mitgedacht werden. Aktuell gibt es beispielsweise wieder Debatten über Daten von Smart Metern, deren Rollout lange Zeit aus Datenschutzgründen gebremst wurde. Wir müssen also bei unseren Projekten und Anwendungsfällen immer auch die DSGVO und die Vereinbarkeit mit dem Datenschutz berücksichtigen.  

 

7. Woher kommen die Daten, die Sie für das Training nutzen?
Die Daten kommen immer nur spezifisch vom aktuellen Kundenprojekt. Deswegen bleiben fehlende Daten und die Qualität der bestehenden Daten häufig eine Hürde.
 

8. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Wir wachsen als Team stark in allen Bereichen. Die meisten Kolleginnen und Kollegen haben einen Hintergrund im Wirtschaftsingenieurwesen oder der E-Technik, wovon einige auch Vorerfahrung aus der Energiewirtschaft oder KI mitbringen. Aus unserer Sicht sind aber alleinige KI-Erfahrungen und Machine Learning Kompetenzen kein Ausschlusskriterium. Projektrelevante Kenntnisse über die Energiewirtschaft lassen sich auch nachträglich noch z.B. über ein Jumpstarter-Programm erlernen.
 

9. Bei der Vorhersage von Flusspegelständen ist es durch Veränderungen im Klima denkbar, dass es zu einem Data Drift kommt. Wie wird sowas berücksichtigt? Wird das Modell z.B. regelmäßig neu trainiert?
Das kommt immer auf das individuelle Projekt und unseren Auftrag an. Häufig endet dieser mit der Lieferung eines Prototypen. Bei längerfristigen Projekten müssen natürlich Drifts erkannt werden, beispielsweise durch Monitoring.
 

10. Möchten Sie noch etwas sagen, wozu Sie bisher nicht die Gelegenheit hatten?
Wir freuen uns sehr über einen Austausch mit der Forschung und versuchen Studierenden und Berufseinsteigern z.B. über Praktika und die Betreuung von Abschlussarbeiten die Möglichkeit zu geben, einen praxisnahen Blick auf Anwendungen der KI geben zu können.
Darüber hinaus interessieren wir uns auch für einen Austausch mit anderen Unternehmen im Bereich der KI, um unser Wissen in diesem Bereich weiter zu ergänzen und mögliche zukünftige Kooperationen zu entdecken.


Wir haben außerdem vor kurzem unseren Abschlussbericht zum Projekt Data4Grid im Auftrag der Deutschen Energie-Agentur veröffentlicht. Das Projekt gibt einen guten Überblick über die wichtigsten Herausforderungen und Chancen für den KI-Einsatz bei Stromnetzbetreibern. Neben der Identifikation von geeigneten KI-Use-Cases wurden die drei vielversprechendsten Anwendungsfälle auch im Rahmen einer Start-up Challenge als Prototypen umgesetzt.
Den Bericht mit den Projektergebnissen finden Sie hier: Link zum Projektbericht
 

Interview mit Manuel Gollner vom GO! Institut, München

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus?
Mein Werdegang ist geprägt von einer Leidenschaft für Innovation und Veränderung. Eine entscheidende Wendung nahm mein Leben im Jahr 2000, als ich meine Position als Bauingenieur aufgab, um bei einem Internet-Startup einzusteigen. Ich wollte Teil der aufregenden Internetbranche sein, die damals in ihrer Anfangsphase steckte.

Meine erste Begegnung mit Künstlicher Intelligenz (KI) und Daten fand dann im Jahr 2012 statt, als ich Mitgründer eines Startups war, das kontextsensitive Werbung mittels Bilderkennung ermöglichen sollte. Wir beschäftigten uns mit Machine Learning und Labeling und führten sogar Gespräche mit Google, die damals an einem vergleichbaren Produkt arbeiteten.

Wir mussten jedoch feststellen, dass das Thema sowohl in Bezug auf Algorithmen als auch auf Verfügbarkeit von Daten eine Herausforderung darstellte, die wir damals noch nicht meistern konnten. Aus heutiger Sicht würde ich uns als ziemlich naiv bezeichnen. Daten hatten wir vollkommen unterschätzt. Trotzdem war es eine lehrreiche Erfahrung. Daraus entstanden später verschiedene Beratungs- und Schulungsprojekte im Bereich der Digitalisierung, die schließlich zur Gründung des GO! Instituts im Jahr 2019 führten. Unser Schwerpunkt liegt auf der Bedeutung von Daten für Innovation.

2. Um welches Unternehmen und welche Dienstleistung geht es konkret?
Das GO! Institut ist eine Kombination aus Change- und Innovationsberatung, die sich darauf konzentriert, Organisationen bei der Etablierung einer positiven Datenkultur zu unterstützen. Unsere Kunden sind häufig Chief Data Officers (CDOs) oder Leiter von Business Intelligence (BI)-Abteilungen, die großartige Ideen und Initiativen haben, aber oft auf Mitarbeiter stoßen, denen der Wert von Daten nicht bewusst ist. Viele Verantwortliche wissen zudem nicht, wie sie das Thema effektiv in die Fachabteilungen transportiert bekommen.

Wir helfen also dabei das Thema in die Breite der Firma zu tragen, damit Daten und KI für unsere Kunden tragende Rollen in der nahen Zukunft spielen können. Wir helfen dabei die Fragen zu beantworten: Wie kann ich das Thema Daten schmackhaft machen? Wie kann ich (Daten-)Silos aufbrechen? Was muss ich zwingend schulen und vermitteln, um möglichst rasch Daten nutzbar zu machen? Das Thema Daten ist aus unserer Sicht eigentlich noch wichtiger als das Thema KI.

Am Ende stehen konkrete Ziele die erreicht werden sollen oft mit maßgeschneiderten Schulungs- und Informationsveranstaltungen, die das Thema Daten für alle Mitarbeiter sichtbar und attraktiv machen.

3. Bei solchen „weichen“ Faktoren liegt eine Frage nahe: Warum alle? Reicht es nicht einzelne Daten Spezialisten zu beschäftigen?
Unsere Kunden können Datenprojekten oft selbst umsetzen. Jedoch gelingt es nicht allen, die Mehrwerte von Daten in die Sprache der Fachabteilungen zu übersetzen. Wir helfen dabei, Kompliziertes einfach zu erklären um dadurch ein einheitliches Verständnis für das Thema Daten zu etablieren. Am Ende eines solchen Prozess wäre es toll, wenn es in den Fachabteilungen auch Datenverantwortliche gibt, die Daten verstehen und Ergebnisse von Data Scientisten bewerten und hinsichtlich Mehrwertes für die Fachabteilung kompetent einordnen können. Das wäre dann eine gelebte Datenkultur.

Hauptziel unserer Kunden ist es also, die gesamte Organisation für das Thema Daten zu sensibilisieren und zu aktivieren. Denn ohne Daten gibt es keine KI – das ist eine Erkenntnis, die auch ich seit 2012 tief verinnerlicht habe. Vielen Mitarbeitern ist das Potential von Daten und KI einfach nicht bewusst.

4. Was sind Probleme auf die Sie in Unternehmen treffen?
Ein erster Schritt ist es oft, Silos aufbrechen. Auch hier muss man vermitteln, weil manche Silo-Verantwortlichen das gar nicht möchten.
Dies kann z.B. über Podcasts oder kurze Videointerviews gelingen rund um das Thema Daten und Firmeninterne Projekte. Konkret machen wir dafür lieber die „kleinen Leuchttürme“ ausfindig, die inkrementelle aber reale, datengetriebene Verbesserungen gebracht haben.

Damit bilden wir die Grundlage für neue Ideen und Begehrlichkeiten für Dateninnovation in den anderen Fachabteilungen. Auch die Vernetzung rund um das Thema Daten mit anderen Abteilungen versuchen wir zu aktivieren. Je mehr Daten desto mehr Potential für Innovation.

Vorsicht ist allerdings geboten, wenn Menschen gezwungen werden sich für das Thema zu interessieren. Das geht auch, aber die Kunst besteht eher darin die intrinsische Motivation der Mitarbeiter und Führungskräfte zu aktivieren. Das Thema Daten ist extrem spannend und sollte auch so präsentiert werden. Wird einem leitenden Manager die Relevanz von Daten und der Mehrwert für die eigenen Ziele und den eigenen Bereich bewusst, dann folgt das Interesse meinst ganz von alleine. Und dann gibt’s auch keine Probleme mehr - zumindest datenkulturelle.

5. Welche Bedeutung spielt der Fortschritt der KI für Ihr Geschäftsmodell?
Die Frage ist für unser Angebot schwer zu beantworten. Algorithmen die der Künstlichen Intelligenz zugeschrieben werden haben unsere Welt schon massiv verändert und werden dies weiter tun - massiver und noch schneller als wir uns das aktuell vorstellen könne. Sich mit dem Thema KI zu beschäftigen ist also keine Frage der Differenzierung, eher eine Frage des Überlebens. Nur ist es so, dass ich ohne Daten auch keine KI trainieren kann. Zu uns kommt niemand der KI einsetzen will, sondern eher jemand, der das Bewusstsein für die elementare Bedeutung von Daten in der eigenen Organisation verankern möchte. Aktuell ist noch einiges zu tun – ich mache mir daher keine Sorgen um uns. Auch nicht darum ob Menschen von einer KI ersetzt werden. Aber wer sich nicht mit KI beschäftigt wird von einem Menschen ersetzt der weiß wie er KI einsetzen kann. Davon sind wir überzeugt.

6. Auf Ihrer Website sagen Sie „Wir müssen agil sein.“ Warum?
Heute weiß man oft nicht mehr, welche Projekt erfolgreich sein werden. Gleichzeitig entsteht durch die Digitalisierung globaler Wettbewerb und Disruptoren aus vielen Richtungen. Durch das Thema KI wird dies noch einmal beschleunigt.

Als Unternehmer muss ich also innovativ sein, gleichzeitig jedoch nicht auf jeden Trend mit aufspringen. Das ist ein Dilemma. Denn Kompetenzen und Erfahrungen bei Themen wie Daten oder KI kann ich nur aufbauen mit hauseigenen Projekten. Da können jedoch Kosten Nutzen auch mal schnell auseinanderdriften.

Man muss laufend überprüfen und rechtzeitig bereit sein, ein Projekt auch wieder fallen zu lassen oder die Richtung komplett zu ändern, also agil zu handeln. Agilität bedeute für mich, nicht zu verlieren - entweder man gewinnt oder man lernt. In kleinen Inkrementen ist das auch nicht schwer. Problematisch wird es wenn eine komplettes Geschäftsmodell bedroht wird. Da macht KI auch vor den Tech Giganten keine Ausnahme. Ein gutes Beispiel finde ich dazu die aktuelle Reaktion von Google auf ChatGPT von Microsoft. Obwohl Google die Technologie erfunden hat ist die kommerzielle Nutzung von Microsoft jetzt erfolgt. Das Beispiel zeigt gut wie schnell auch die größten Tech Konzerne disruptiert werden können. Nun wird es spannend zu beobachten wie agil Google wirklich ist und darauf reagieren wird.

Durch die Digitalisierung weiß man heutzutage nicht, wo Veränderung herkommen. Digitalisierung ist letztendlich datengetrieben und eigene Daten bedeuten Innovationspotential. Wer das nicht nutzt ist benachteiligt. Das sollte jedem im Unternehmen klar sein

7. Welche Maßnahmen kann ich als Mitarbeiter treffen um die Datenkultur im Unternehmen zu stärken? Und welche in einer leitenden Position?
Um das Thema Datenkultur im Unternehmen zu stärken sollte man zunächst Mitstreiter identifizieren mit Leidenschaft und Sendungsbewusstsein für das Thema. Es ist auch gut, in einem kleinen Team zu arbeiten, um die Relevanz von Daten Stück für Stück intern publik zu machen.

Es kann auch helfen aktuelle Trends aufzugreifen zum Thema Daten und Digitalisierung. Z.B. Was tut sich in dem Bereich und in der Branche? Welche Grundlagen benötige ich? Hier kann auch die Kommunikationsabteilung mit einbezogen werden um zum Beispiel kurze Beiträge oder Videos zu erstellen. Die Botschaft sollte sein: Das Thema ist wichtig, wir beschäftigen uns damit als Firma, wir verfügen über Kompetenzen (oder bauen diese gerade auf) und jede eurer Fragen ist willkommen.

Wir empfehlen auch sich zu Datenprojekten immer wieder Feedback von Mitarbeitern einzuholen, die eher nichts mit Daten zu tun haben. Daran erkennt man auch oft schnell ob die Projekte sinnvoll erscheinen und erreicht durch Partizipation Interesse und Verbundenheit zum Thema.
Eine Führungskraft sollte versuchen Daten möglichst plastisch mit einzubinden und darauf hinweisen, wie wichtig das Thema ist. Das bereitet natürlich Arbeit, erzeugt jedoch Transparenz und vertieft das Wissen und den Umgang mit Daten und deren Interpretation. Eine Möglichkeit ist es zum Beispiel Teammitglieder Statistiken der Woche erstellen zu lassen, die dann im Team vorgestellt und diskutiert werden. Da gibt es viele Varianten – auch Fehler können in solche Daten extra eingebaut werden um das Thema spielerischer aufzuziehen. Interaktive Dashboards zu nutzen, Entscheidungen zu treffen, basierend auf Erfahrungen und belegt durch Daten – oder wiederlegt durch Daten – das wäre der Königsweg.

Und falls es noch nicht geschehen ist, sollte man auf jeden Fall eine zentrale Stelle belegen, an der alle Daten zusammenlaufen und gesammelt werden. Man kann das mit Legosteinen vergleichen. Erstmal braucht man Steine (Daten), damit man etwas bauen kann. Wer es lieber etwas praxisbezogener möchte: Predictive Maintenance – also die Vorhersage eines bestimmten Verhaltens einer Maschine klappt nur, wenn man auf historische Daten zugreifen kann und die daraus gefolgten Begebenheiten. Ohne diesen Datenschatz bringen mir die aktuellen Daten nur wenig um zukünftiges Verhalten vorherzusagen. Das mag für viele trivial klingen, ist jedoch in einigen Betrieben in der breiten Belegschaft eher unbekannt. Solche „kleinen“ Erkenntnisse verändern jedoch oft schon grundlegend den Blick auf die Relevanz von Daten zur Verbesserung diverser Prozesse

8. Welche Vorerfahrungen und Ausgangssituation braucht es für ein solches Training?
Die Grundvoraussetzung ist natürlich der Wunsch im Unternehmen Daten als objektive Stimme zuzulassen, Daten zu nutzen und Daten im Unternehmen zu suchen. Dazu braucht es eine Verantwortliche Person, die nicht nur die Befugnis und den Auftrag hat das Thema zu entwickeln, sondern auch mit entsprechende Kapazitäten ausgestattet ist.

Für ein Training selbst sollte darauf geachtet werden die Teilnehmer dort abzuholen, wo sie stehen. Dazu muss ich natürlich vorab wissen wen ich ansprechen möchte, auf welchem Kenntnisstand die Gruppe ist und welche Kompetenzen und Fähigkeiten in Bezug auf Daten der vermittelt werden sollen. Dementsprechend werden dann die Inhalte so gestaltet, dass eine Vorbereitung nicht erforderlich ist. Gerade bei einem Kulturthema geht es vorrangig darum Leute für ein Thema zu begeistern – das gilt auch für Datenkultur. Wenn ich mich erstmal vorbereiten muss, dann wäre das eher schon eine erste Demotivation die es unbedingt zu vermeiden gilt.

9.  Möchten Sie noch etwas sagen, wozu Sie bisher nicht die Gelegenheit hatten?
Ich möchte betonen, wie wichtig ein Bewusstsein für die fundamentale Bedeutung der eigenen Daten für zukünftige Innovationen, fundierte Entscheidungen und präzise Vorhersagen ist. In jedem Unternehmen sollte eine umfassende und saubere Datenerfassung etabliert sein, vorzugsweise verwaltet und gepflegt von internen Wissensträgern und begleitet von einer positiven Datenkultur in der gesamten Organisation.

Ob das GO! Institut Ihnen dabei helfen kann, kann ich natürlich nicht mit Sicherheit sagen. Wir würden uns jedoch freuen, diese Möglichkeit in einem Gespräch zu erörtern und gemeinsam herauszufinden, wie wir Sie unterstützen können. Denn wir sind stets begeistert, über die faszinierende Welt der Daten zu sprechen und unsere Erfahrungen gerne zu teilen!

Interview mit Dr. Johann Neidl von HORSCH, Schwandorf

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?
Mein Name ist Johann Neidl, seit 2013 bin ich bei der Firma HORSCH tätig. Vorherige Stationen waren bei Siemens Automobiltechnik (Vertrieb, Projektmanagement, strategische Planung), Fa. Grammer (Einkauf, Lieferantenmanagement) und an der Hochschule in Landshut (Professur für Beschaffung und Qualitätsmanagement). Seit 2019 verantworte ich bei der Fa. HORSCH den neu geschaffenen Bereich Digitalisierung. Hierin sind die Einheiten IT, SAP & Applikationen sowie die neu gegründete Einheit d.LAB zusammengefasst. Das Thema Digitalisierung steht seit ca. 4 Jahren im Fokus und ist von strategischer Bedeutung. Die Anwendung von künstlicher Intelligenz ist hier ein Bestandteil der strategischen Ausrichtung. Das Ziel ist, Produkte und Prozesse effizienter zu gestalten und kundenorientiert weiterzuentwickeln.

 

2. Wer ist HORSCH und was hat das mit Digitalisierung zu tun?
HORSCH ist ein familiengeführtes Unternehmen mit aktuell ca. 3k Mitarbeitern. Wir sind Hersteller von landwirtschaftlichen Maschinen und haben zurzeit vier product units – Bodenbearbeitung, Sätechnik, Einzelkorntechnik und Pflanzenschutz. Hinsichtlich Fertigung und Vertrieb operieren wir global.
Bei dem Thema Digitalisierung verfolgen wir primär zwei Richtungen.

  1. Manuelle, wiederkehrende Prozesse zu digitalisieren/automatisieren, unter Einsatz von modernen Technologien.
  2. Unsere Produkte mit digitalen Lösungen auszustatten, um einen maximalen Mehrwert für unsere Kunden zu generieren.

Die ersten Schritte im Bereich KI haben wir über die Bearbeitung von use-cases im Zuge des „KI Transfer Plus“ Programmes gemacht. Sukzessive haben wir dann Struktur und Knowhow aufgebaut, um das Thema Digitalisierung, und hier insb. die Verifizierung und Anwendung von neuen Technologien wie KI, voranzutreiben.

 

3. Wo wird KI im Unternehmen eingesetzt?

Wie erwähnt wollen wir manuelle, wiederkehrende Tätigkeiten so gut es geht digitalisieren/automatisieren. Hierbei prüfen wir genau, ob ein Einsatz von KI sinnvoll ist und einen Mehrwert bringt.


Anbei ein paar Anwendungsbeispiele, bei denen wir aktuell KI einsetzen:
Ein Themenbereich ist die Automatisierung der Anlage und Pflege von Stammdaten, wie z.B. das Anlegen von Schätzpreisen, oder die Definition von Zolltarifnummern. Je nach use-case eliminieren wir dabei komplett Arbeitsprozesse, wie bei der Ermittlung des Schätzpreises, oder nutzen die Ergebnisse als Unterstützung für die Entscheidungsfindung, wie z.B. die Ermittlung von Zolltarifnummern. Die Optimierungspotentiale und Effizienzsteigerungen sind dabei durchwegs sehr hoch.

Ein weiterer use-case war die Entwicklung einer Dispo-KI. Ziel war hier, die Erhöhung des Automatisierungsgrades bei der Abwicklung der Teiledisposition zu realisieren und somit Freiräume für die Einkäufer zu schaffen, um sich mit wertschöpfenderen Tätigkeiten zu beschäftigen, als kontinuierlich Tag ein Tag aus ähnliche Dispotätigkeiten durchzuführen.
Über unser Horsch Connect - IoT Projekt sammeln wir maschinenrelevanten Daten, auf Basis derer wir zukünftig Themen wie predictive maintenance, Ersatzteilprognosen, Ferndiagnose etc. abwickeln wollen.


Bei jedem use-case prüfen wir dabei kritisch, inwieweit es Sinn macht KI einzusetzen und ob die Ergebnisse aus dem KI-Modell valide sind, welches Risiko wir eingehen und wie wir den kontinuierlichen Trainingsprozess des KI-Modells gestalten.

 

4. Welche Algorithmen / Art von KI nutzen Sie?
Wir nutzen sowohl Neuronale Netze, einfache Regressions-Modelle als auch Klassifikationsmodelle. Je nach Komplexität des Problems auch ML-Modelle um Rechenleistung zu sparen. Die Auswahl ist stark abhängig vom jeweiligen Projekt.

 

5. Welchen Mehrwert bietet die KI für den Anwender?
Wie schon angesprochen, ist es unser Ziel, unter Einsatz von neuen Methoden und Ansätzen, Effizienzsteigerungen zu realisieren. Dies ist bei der Anwendung von KI-Lösungen im großen Maße gegeben, um Prozesse zu eliminieren oder zu teilautomatisieren. Hierbei kommt es immer auf den jeweiligen use-case an.

Des Weiteren wollen wir unsere Kunden mit produktspezifischen und ackerbaulichen Informationen versorgen, die ihn bei seiner Entscheidungsfindung behilflich sind, um besser und schneller zu werden. Hierbei setzen wir ebenso KI-gestützte Lösungen ein.

 

6. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?
Die größte Hürde war, schnell notwendiges Know-how aufzubauen. Mit der Unterstützung unseres Partners trinnovative haben wir ein Konzept entwickelt, wie wir diese Hürde schnellstmöglich überwinden, um die geplanten Themen umsetzen zu können.

Eine weitere Hürde war und ist das Thema Datenverfügbarkeit und Datenqualität. Um eine Fragestellung gezielt angehen zu können ist der erste Schritt zu prüfen, ob notwendige Daten überhaupt verfügbar sind und in welcher Qualität, ansonsten steckt man viel Aufwand in etwas, bei dem man zu spät merkt, dass es in der geplanten Form nicht umsetzbar ist.
Eine weitere Erkenntnis, die wir gewonnen haben ist, dass erste Ergebnisse und Erfolge (POCs) sehr schnell realisiert werden können. Die Serienreifmachung, damit die ganze Organisation mit einer Lösung in der gewohnten Stabilität und Sicherheit arbeiten kann, nimmt doch immer einen längeren Zeitraum in Anspruch als erwartet.

 

7. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?
Nein, den Themenbereich KI haben wir neu aufbaut.

Wobei wir im ersten Schritt die Digitalisierung im allgemeinen thematisiert haben. Hier haben wir zum Start interessierte Mitarbeiter aus den unterschiedlichen Bereichen motiviert, in Form eines „virtuellen Teams (loser Haufen)“, sich mit dem Thema Digitalisierung zu beschäftigen.
Dieses „virtuelle Team“ (keine feste Struktur, auf Freiwilligkeit basierend) hat sich regelmäßig getroffen und mit Themen wie der Bedeutung und Auswirkung der Digitalisierung für HORSCH, relevante use-cases, erste POC, Thematik in die Organisation bringen etc. auseinandergesetzt.

Im zweiten Schritt haben wir dann ein kleines Team fest installiert (d.LAB), mit dem Auftrag, relevante Digitalisierungsthemen voranzutreiben. Im Zuge dessen haben wir das Thema KI mehr und mehr in den Fokus genommen. Das virtuelle Team besteht weiterhin und fungiert als Ideengeber, Diskussionsplattform und insbesondere als Transformator in die jeweiligen Bereiche.
Parallel arbeiten wir mit mehreren Start-ups zusammen, um über diese Schiene die Umsetzung der Projekte, den Know-how Aufbau sowie Ausbildung von Mitarbeitern zu forcieren.

 

8. Was hätte Sie in Ihrem Vorhaben, KI zu nutzen, unterstützt? Z.B. Weiterbildungen, GPU-Rechenleistung, Speicherplatz…
Eine große Hilfe war für uns das von der Staatsregierung implementierte KI Transfer Plus Programm. Dadurch konnten wir schnell, auf Basis reeller use-cases, notwendiges Know-how aufbauen. Generell ist wichtig, wenn man sich mit dem Themenbereich KI beschäftigt, schnell eigenes Know-how aufzubauen. Externe Unterstützung ist anfangs sehr sinnvoll, um schnell Fahrt aufzunehmen. Für eine strategisch ausgerichtete Bearbeitung ist die eigene Fachkompetenz aber unabdingbar.
Vorhandene Netzwerke und Cluster zu nutzen ist hier ebenso ein probates Mittel, um schnell in die Umsetzung zu kommen.

 

9. Wie sehen ihre weiteren Schritte aus, was sind die Zukunftspläne?
Wir werden in den nächsten Monaten die genannten Themen wie Dispo-KI, Automatisierung von Stammdatenanlagen, IoT Anwendungen, Übersetzungsplattform etc. sukzessive ausrollen und weiterentwickeln.
Als Basis dient dabei unsere Roadmap, in der wir die strategische Ausrichtung definiert haben.  Themen wie Autonomie, weitere Automatisierung von Prozessen, IoT-Themen stehen dabei im Fokus, mit dem Ziel, für unser Kunden maximalen Nutzen zu generieren.

 

10. Gibt es noch etwas, das Sie sagen möchten, wozu Sie bisher nicht die Gelegenheit hatten?
Unsere wichtigste Erkenntnis der letzten Jahre ist: Wer sich nicht mit KI beschäftigt, dem entgehen viele Optimierungspotenziale, sich weiterzuentwickeln. Wichtig ist hierbei, eine Strategie zu haben, was man damit realisieren möchte, welche Fragen/Themen im Mittelpunkt stehen, um nicht unnötig Ressourcen zu verbrennen.
 

Interview mit Dr. Thomas Kittler, infosteam Software AG, Bubenreuth

1. Stellen Sie bitte kurz sich selbst vor. Wie sieht ihr Werdegang aus, wie kamen sie zur KI?

Mein Name ist Thomas Kittler und ich bin Senior Data Scientist bei der infoteam Software AG. Ich habe an der Friedrich-Alexander-Universität Erlangen-Nürnberg Physik studiert und mich schon damals auf Datenauswertung und Informatik-lastige Themen spezialisiert. Unter anderen habe ich für meine Bachelorarbeit eine Datenauswertung vom ANTARES-Neutrinoteleskop durchgeführt.  Die Astroteilchenphysik ist generell sehr datenintensiv und da bin auch das erste Mal mit Machine Learning in Berührung gekommen. Das fand ich schon damals hochspannend und seither befasse ich mich intensiv mit diesem Bereich. Das hat sich über die Masterarbeit bis hin zur Promotion durchgezogen.
Nach meiner Promotion bin ich 2019 zu infoteam gekommen und arbeite als Data Scientist hauptsächlich an End-to-End-Data-Science-Projekten.

2. Um welches Unternehmen und Produkt / welche Dienstleistung geht es konkret?

infoteam ist Dienstleister für Softwareentwicklung, besteht seit 40 Jahren und beschäftigt rund 350 Menschen an vier Standorten. Der Hauptsitz ist in Bubenreuth nördlich von Erlangen. Die weiteren Standorte sind Dortmund sowie in Griechenland und der Schweiz.
Unsere Kunden teilen sich auf vier Bereiche auf: Industry, Infrastructure, Life Science und Public Service. infoteam als gesamtes Unternehmen entwickelt für sie schwerpunktmäßig „klassische“ Software, insbesondere für Bereiche mit höchsten Sicherheits- und Schutzanforderungen wie beispielsweise der Bahn-, Energie- oder Medizintechnik oder KRITIS-Unternehmen – entsprechend verfügt infoteam auch über die hierfür notwendigen Zertifizierungen.
Das Thema Data Science ist dabei natürlich bereichsübergreifend und kann eigentlich überall Anwendung finden.Unsere Data Scientists arbeiten deshalb auch meist bereichsübergreifend. Mit der Zeit bauen sie so häufig Expertise in bestimmten Domänen auf und sind so prädestiniert für entsprechende Projekte. Auch wenn wir sehr erfahren darin sind, uns schnell projektspezifisches Know-how zu erarbeiten, ist bereits vorhandenes Domänenwissen immer ein zusätzlicher Pluspunkt.

3. Welche Bedeutung spielt KI und Data Science für das Unternehmen?
Die Bedeutung steigt sukzessive. Als ich 2019 zum Unternehmen kam, wurde gerade ein eigenes Data-Science-Team gegründet, um bis dato verteilte Kompetenzen zu bündeln und effizienter für Kunden einzusetzen.

4. Welche Algorithmen / Art von KI nutzen Sie?
Einzelne Kolleginnen und Kollegen haben bestimmte Expertisen in verschiedenen Bereichen, beispielsweise für Reinforcement Learning oder Predictive Maintenance. Dadurch verfügen wir in Summe über ein sehr breites Kompetenzspektrum – unter anderem auch für Natural Language Processing (NLP) für die Nutzung großer Sprachmodelle.

5. Wie kommt es zu den Projekten? Kommen die Kunden und wollen eine Data Science Lösung?

Das ist unterschiedlich. Ich würde schätzen, ungefähr die Hälfte unserer Kundschaft kommt mit konkreten Fragestellungen und Anforderungen auf uns zu. Die andere Hälfte ergibt sich aus Bestandskunden, deren Geschäftsmodell und Anforderungen wir bereits aus früheren Projekten kennen und bei denen wir das Einsatzpotenzial von Data Science erkennen und offen kommunizieren. Das häufigste Beispiel ist, wenn bislang klassische Methoden zum Einsatz kamen, wir aber mit neuen Technologien und Werkzeugen mit großer Wahrscheinlichkeit einen wesentlichen Mehrwert erzeugen können.

6. Welchen Mehrwert bietet die KI für den Anwender? Können Sie einen Use Case vorstellen?

Allgemein hängt der Mehrwert für unsere Kundinnen und Kunden stehts von den projektspezifischen Anforderungen ab. Wenn wir beispielsweise Projekte im Bereich Predictive Maintenance umsetzen, dann geht es meist primär darum, Ausfallzeiten zu minimieren.
Häufig starten wir aber auch damit, dem Kunden erstmal zu zeigen welche Daten er hat und machen Informationen zugänglich, zum Beispiel über ein interaktives Dashboard. So entsteht ein Verständnis für den Wert der Daten, resultierende Potenziale und für uns häufig auch Folgeprojekte, in denen es dann deutlich in die Tiefe der Datenwissenschaften geht.  
Nach so einer theoretischen Antwort möchte ich aber gerne auch noch einen konkreten Anwendungsfalls vorstellen, den wir gemeinsam mit dem GSI Helmholtzzentrum für Schwerionenforschung aus Darmstadt realisiert haben: Nonintrusive Load Monitoring. Das GSI baut dort aktuell mit „FAIR“ einen neuen Teilchenbeschleuniger. Solche Anlagen sind wahnsinnig energieintensiv. Dabei gibt es nicht nur Spitzen im Verbrauch, sondern auch, wenn die Energie wieder in das öffentliche Stromnetz zurückgespeist wird. Das ist eine relativ hohe Belastung für das Stromnetz, weswegen es vom Netzbetreiber sehr strikte Auflagen gibt, um die Stabilität des Stromnetzes zu gewährleisten. Für FAIR ist deshalb das Monitoring des Energiemanagements essenziell.
Ich selbst habe am Nonintrusive Load Monitoring gearbeitet. Die Grundlage dafür sind elektromagnetische Fingerabdrücke, die alle elektrischen Geräte im Leistungsspektrum hinterlassen. Wenn wir an einem Punkt (meistens der Einspeisepunkt) Strom und Spannung messen, können wir anhand dieser Daten identifizieren, welche Geräte dahinter eingeschalten sind – und das, ohne überall Smart Meters zu benötigen. Rein theoretisch könnten wir bei einer vollumfänglichen Nutzung aller verfügbaren Informationen sogar den aktuellen Zustand der Geräte ermitteln – also beispielweise, welchen Inhalt ein Monitor aktuell anzeigt. Das ist natürlich sehr spannend. So könnte ich beispielsweise Verbraucher identifizieren, die zu dem Zeitpunkt nicht eingeschaltet sein müssten. Dieser Aspekt ist aus dem Blickwinkel der Energieeffizienz grundsätzlich für jede Industrie relevant. In der Praxis ist der aktuelle Stand der Technik aber noch nicht so weit. Speziell für FAIR ist das spannend, weil man damit auch den Energieverbrauch und Netzüberlastungen zeitlich vorhersagen könnte. So ließen sich Notabschaltungen großer Bereiche mittels gezielter Abschaltungen einzelner Komponenten verhindern.

7. Hätten Sie das Problem auch mit einem traditionellen Algorithmus ohne KI lösen können? Wenn nein: Warum war eine KI nötig?

Ich bin Physiker, deswegen halte ich mich von absoluten Aussagen meist fern. Aber ohne KI halte ich es für sehr, sehr schwierig.
Wir haben für unsere Lösung das gesamte Frequenzspektrum der Scheinleistung (Strom mal Spannung) analysiert. Wir habe die Tatsache ausgenutzt, dass fast jede Consumer-Elektronik Gleichspannung benötigt. Die Art, wie die Geräte die anliegende Wechselspannung in die benötige Gleichspannung umwandeln, hinterlässt gewisse Peaks im Frequenzspektrum, das wir über eine Fouriertransformation berechnen. Für verschiedene Geräte sind diese Peaks in der Theorie nie exakt gleich und entsprechen deshalb einer Art Fingerabdruck.
Unser Ansatz war, mit eher klassischen Algorithmen die Peaks zu erkennen und dann ein k-Means-Clustering durchzuführen: Wir klassifizieren Änderungen im Frequenzspektrum, indem wir sie einem Cluster zuordnen. Der nächste Schritt wird der Wechsel hin zu einem moderneren Algorithmus sein. Beispielsweise zeigt die aktuelle Forschung, dass auch Transformer-Modelle dafür funktionieren

8. Welche Hürden gab es bei der Implementierung der KI und wie haben Sie diese überwunden?

Hier möchte ich gerne zwei Ebenen betrachten: Die größte Herausforderung beim genannten Projekt ist, dass sehr viele Verbraucher möglich sind. Bereits bei einem normalen Haushalt kommen schnell 500 Verbraucher zusammen, bei Industrieanlagen können es auch rasch 10.000 Verbraucher sein. Wir gehen deshalb nicht von gelabelten Trainingsdaten aus, sondern müssen unsupervised Algorithmen verwenden. Hinzukommt eine zusätzliche Komplexität aufgrund der gewaltigen Datenmengen, die bereits bei einem minimalen Testaufbau entstehen. Das liegt daran, dass wir im Gigaherz-Bereich samplen müssen, da die Informationen in diesem hochfrequenten Bereich stecken. Aufgrund dieses speziellen Anforderungsprofils gibt es kein Standard-Pattern, dem wir folgen können, sondern wir arbeiten eher forschungsnah und teilweise auch mit Learning-by-doing.
Die größte Herausforderung allgemein bei KI-Projekten ist, dass die Datenqualität und Menge an (gelabelten) Daten oftmals verbesserungswürdig sind. Unser Hauptaugenmerk liegt deshalb häufig zunächst darin, unseren Kundinnen und Kunden zu zeigen, dass bereits in den verfügbaren Daten wertvolle Informationen stecken – aber, dass mit strategischer Datensammlung und intensiverer Datenpflege erst die wirklich richtig spannenden Deep Learning Methoden zum Einsatz kommen können. Das gibt häufig einen wichtigen Impuls für zukünftige Projekte.

10. Hatten Ihre Softwareentwickler Vorerfahrungen im Einsatz von KI?

Teils, teils. Grundvoraussetzung ist immer das Interesse. Zudem legen wir viel Wert auf Weiterbildung. Die Entwicklungen im Data-Science- und KI-Umfeld sind so dynamisch, dass sowohl Einsteiger als auch Experten sich ständig weiterentwickeln müssen.
In meinem Team sind etwa die Hälfte Physiker und die Hälfte Mathematiker. Wichtig ist aus meiner Sicht die mathematische Grundlage, vor allem Statistik und lineare Algebra. Die KI-spezifischen Skills lassen sich leichter vermitteln als die mathematischen.

11. Wie haben Sie das Deployment gestaltet?

Das kommt auf die Infrastruktur unserer Kundinnen und Kunden an, in die wir die Lösung integrieren. Wir haben glücklicherweise sehr viel Softwarefachwissen im Unternehmen und können unsere Modelle dadurch in jegliche Infrastruktur integrieren. Hilfreich ist hierbei beispielsweise, dass die TensorFlow-Bibliothek APIs für alle gängigen Programmiersprachen anbietet.
Insgesamt geht der Trend nun zunehmend zu Cloud-Lösungen wie Microsoft Azure beispielsweise in Kombination mit Databricks. Bei solchen Lösungen gewinnt der Datenschutzaspekt noch einmal an Bedeutung und verhindert manchmal auch Arbeiten in der Cloud.

 

Interview mit Dr. Mojdeh Golagha, Infineon Technologies AG

1.    Please introduce yourself. How did you come to work at your current position and with AI?

My name is Mojdeh Golagha and I work on the intersection of AI and software engineering with a focus on quality and the mission of trustworthy systems. I care about how we can use AI to improve the quality of software, and how to use what we have learned in software engineering and testing to develop new methodologies to test AI applications to ensure that they are trustworthy and behave reliably in the real world.
I am originally from Iran. I came to Germany to pursue my Ph.D. in Software Engineering at the Technical University of Munich (TUM). In 2020, I successfully defended my PhD in the field of software testing and debugging, where I implemented AI techniques to reduce failure analysis time.
After completing my Ph.D., I joined fortiss, where I focused on software testing for AI systems. I noticed that even though AI is quickly advancing and being used everywhere, there aren't enough ways, techniques, or methodologies to test and evaluate it before using it in the real world. I thought, there are numerous AI developers and plenty of software test experts, but not enough practitioners pay attention to using software testing methodologies to evaluate AI applications.
So, we started a research group on this topic. After two years in this context of semi-academia, semi-industry I switched to fully industry in January 2022.
I feel really lucky to be in my current role at Infineon: working on improving the robustness of software and AI. We develop and add services to software and AI infrastructures, that help our business lines to evaluate and improve the quality of their AI or software products.
 

2.    How is Infineon using AI – aren’t they mainly a hardware company?

Yes, Infineon is primarily a semiconductor company with a strong focus on hardware. However, we've realized that in order to better serve our customers' needs, we need to take a product-to-system approach. This means that we develop software on top of our hardware to address specific applications for our customers. A significant part of this approach is using AI to ensure we can use the hardware we have to deliver a system that solves our customers' problems and meets their needs.
 

3.    What are some examples of these use cases the customers have?

At Infineon, we have developed AI-powered solutions for smart homes, including voice-activated assistants or home security systems. We are working on different applications, for example, one of the projects I am working on is in collaboration with Radar business line. They have defined different applications for smart home and health monitoring, like monitoring vital signs or detecting human presence in the room and so on. We have also solutions developed for industrial automation and autonomous driving.
It is really cool that we can always come up with new ideas and suggest them to the customers. For example, during COVID, the door was open for new smart home applications.
 

4.    So the importance of AI is rather high nowadays?

Yes! AI is one strategic way to keep up with the market and gain a bigger consumer base. AI is rapidly growing anyway, and we cannot ignore it. Infineon is actually very active on EdgeAI, which allows data processing and analysis to be performed locally on edge devices, rather than relying on cloud processing. Our hardware and software solutions are designed to support the unique requirements of Edge AI.
But again, going back to what I do, another important thing is how to use AI. The EU AI Act will require the AI systems to be trustworthy. We are already working on it, and have this responsible and trustworthy AI as our manifest. AI practitioners need to understand the regulations, different aspects of trustworthiness, which of those are relevant, etc. Therefore, we need to have methodologies to be able to evaluate and improve trustworthiness.
 

5.    It’s great that Infineon is doing pioneer work on this. Are there special tools you have had success with?

I am part of a team that is a central unit providing infrastructure and tools for our business lines to support them in developing applications. We have dedicated teams for software infrastructure and MLOPS. And what some of my colleagues and I do is add trustworthy AI services to MLOPS for instance. It is important to ensure that AI models are trusted because they can have significant impacts on businesses and individuals. By integrating trustworthy AI services into MLOPS, we are helping our business lines develop responsible and effective AI-driven applications.
But, there is no perfect solution. We have different business lines, they work with different hardware, data and have different goals. Some of them are safety-critical, others are not. So, they really have different needs.
Therefore, what we do is developing customizable automated tools that for instance are used to generate test or data. On top of that, we also need to look into data quality, monitor the model to detect a data shift, detect outliers, etc.
And still there are a lot of open questions.
 

6.    What are the benefits for the customers of adding AI-based software to your hardware?

The idea is that, in the past years we were only selling the hardware and other companies came up with the application software. And we have a really wide, nearly endless range of possible applications from all the different domains on how we can help the customers, because we supply so many customers.
A specific example might be sensors that monitor the health of elderly people and give warnings if there is a health problem – this is something we just cannot do with traditional software solutions, we need AI to learn from the data we collect.
Of course, we have to be rather conservative in some areas, because they are critical and need to be error-free.
But we are also having innovation campaigns, where everyone can share creative ideas, and some of them end up as products.
 

7.    What are some problems you encounter in your endeavors?

First, we usually work with embedded devices so we are limited in the selection of models.
Another big challenge everybody encounters is the difference between prototypes and real-world solutions. So, when with the prototype everything works, there is still a big step to do until there is a final, sellable solution.
As mentioned before, the evaluation of non-functional properties like security and robustness (or trustworthiness as a whole) also still has a lot of open questions.  
Lastly, while we do our best to collect enough good data, we can never be sure that there is enough data. We try to mimic situations that will happen in the real world, but this is limited by our imagination. And it is hard to answer how much data is enough. This is why we need to monitor our application after deployment.
 

8.    Talking about the data, from where do you collect it?

This depends on the project. Sometimes we can collect data from a customer who already has deployed our hardware, e.g., based on a prototype as sort of a beta user. Sometimes we run data collection campaigns and have to collect data in our labs.
In any case, we try to collect as much data as we can, measure the diversity in the collected data, find missing scenarios and add them to the data and repeat if needed.
 

9.    Did your ML engineers have previous experience with AI? And how are they working on all these different projects from different domains?

First regarding the background of the ML engineers at Infineon: We know that when hiring someone you cannot be expecting to “have the full package”, someone who knows hardware, and software and AI, and testing, etc.
So, if we want someone to work on AI, we hire someone with the experience or knowledge and give them the opportunity and time to learn the rest. This is something great about working here: You always have the opportunity to learn the domain knowledge, and there are courses and seminars prepared for that. But in the end not all employees have the same level of knowledge or experience, some are new and some are experienced.
Regarding working on different projects, we have different groups with specialization on certain parts of the hardware or on certain domains. So, not all are working on all kind of projects. But of course, it is sometimes really challenging. Because there is often a limited time to do a project, e.g., 3 – 6 months. Also, priorities may change due to external factors.
Therefore, we try to re-use as much as possible, try to collect data to use it in different projects. If we have a way to preprocess the data, build it in a way so that it works in multiple projects.
 

10.    How do you manage the deployment of the models?

I am personally not working on this, but I know that it is a challenging task. As mentioned before, our applications are used in embedded devices and there are experts working on EdgeAI, know how to do it.
 

11.    Looking into the future, what are the next steps, what are you aiming for?

My team and I? We want to provide better services for our colleagues to deploy the newest technology to test their AI products. As in developing a fully functional CI/CD process with an AI test suite, so you can easily be sure that your model fulfills all requirements before deploying it. Another step is supporting our software developers with AI-powered automated tools for testing and debugging.

Also, it is always important to understand and predict the customer's needs.

Another important strategic goal for Infineon is going green. I think especially within the research of AI, which can be really power-consuming, this has to be considered as well.
 

12.    If you can, please tell us one specific success story.

Infineon collaborated with a German startup called Synapticon to create an AI-based solution for controlling electric motors used in industrial automation. The solution incorporated Infineon's power electronics technology with Synapticon's AI software to create a highly responsive and efficient motor control system.
The new system reduced energy consumption by up to 60% compared to traditional motor control systems, resulting in significant cost savings. It also improved motor performance and reduced maintenance requirements.
 

13.    Is there anything else left you want to say?

Thank you for giving me the opportunity to share more about myself and Infineon. Infineon is always interested in working with young talent. If you are a student interested in the AI in semiconductor industry and would like to pursue an internship, student job, or write your Master's thesis at Infineon, please feel free to reach out to me. I would be more than happy to provide further information and connect you with the relevant teams.