KI im FM ist ein Werkzeug unter vielen

Künstliche Intelligenz ist auch im FM ein mächtiges Werkzeug, wenn die Prompts genannten Befehle passend formuliert sind - Bild: Jan/Stock.adobe.com
Künstliche Intelligenz ist auch für FM ein mächtiges Werkzeug, wenn die Prompts genannten Befehle passend formuliert sind – Bild: Jan/Stock.adobe.com

CAFM-NEWS – Welchen Nutzen kann Künstliche Intelligenz (KI) im Rahmen des Facility Managements entfalten? Dr. Alexandra Merkel, CTO der Innomatik AG, ist eine langjährig erfahrene Expertin zum Thema. In unserem Interview erläutert sie den Unterschied zwischen Algorithmen und Künstlicher Intelligenz, verschiedene Ausprägungen von KI, ihre Vorteile und Grenzen und wo KI tatsächlich Nutzen entfaltet.

CAFM-NEWS: Frau Dr. Merkel, wie viele Jahre beschäftigen Sie sich bereits mit KI?

Merkel: Ich persönlich beschäftige mich seit ungefähr 5 Jahren sehr intensiv mit KI – erst im Bereich der Neurowissenschaften und jetzt seit 1,5 Jahren im IT-Umfeld. In unserem Firmengeflecht beschäftigen wir uns allerdings seit inzwischen 10 Jahren mit klassischer KI im Sinne von Computer-Vision- und Machine-Learning-Verfahren und seit mehreren Jahren natürlich auch mit großen Sprachmodellen.

KI basiert auf Algorithmen und ist im Kern ein mathematisches Verfahren. Ist damit praktisch jeder Algorithmus auch eine KI?

Merkel: Grundsätzlich sehen wir KI im klassischen Sinne als Nachahmung bzw. Automatisierung intelligenten Verhaltens in einem Computer. Dabei ist es ganz wichtig, eine Unterscheidung zwischen einfachen Algorithmen zu treffen, die klare, deterministische Aufgaben ausführen, und lernenden Systemen, die komplexe, nicht deterministische Aufgaben bewältigen. Auch wenn heute im Marketing jeder Algorithmus als KI bezeichnet wird, so sehe ich aus IT-Sicht nur lernende Systeme als echte KI an. Ein Teilbereich der KI ist das Maschinelle Lernen (ML), das sich darauf konzentriert, wie Computer aus Daten lernen können. Anstatt explizit programmiert zu werden, um bestimmte Aufgaben auszuführen, entwickeln ML-Algorithmen Modelle auf Basis von Beispieldaten, den sogenannten Trainingsdaten. Diese Modelle können dann verwendet werden, um Vorhersagen oder Entscheidungen zu treffen, ohne dass sie explizit programmiert wurden, um jede einzelne Aufgabe auszuführen. Das heute bekannteste Beispiel dafür ist natürlich ChatGPT, aber ML-Verfahren gibt es schon wesentlich länger.

Welche Anforderungen stellen Sie an eine KI?

Merkel: KI wird heute häufig im Bereich Marketing eingesetzt, um Texte oder Bilder generieren zu lassen. Diese Anwendungsfälle sind zwar mit Vorsicht zu genießen – gleichzeitig sind sie jedoch unkritisch, solange ein Mensch den generierten Text oder das generierte Bild überprüft. In der praktischen Anwendung in Unternehmen sind aber bestimmte Anforderungen absolut notwendig. Dazu gehört die Nachvollziehbarkeit bzw. die Erklärbarkeit der Ergebnisse, die Zuverlässigkeit und Robustheit des Systems, die Erfüllung der hohen Anforderungen an Datenschutz und Sicherheit sowie selbstverständlich die Gewährleistung der Gesetzeskonformität. Darüber hinaus sind eine Nutzerzentrierung und auch eine vollständige Prozessintegration wichtige Aspekte beim Einsatz von KI in professionellen Organisationen.

Für viele Menschen ist KI gleichgesetzt mit dem Large-Language-Model ChatGPT. Welche KI-Modelle spielen neben LLMs noch eine relevante Rolle?

Merkel: Der KI-Hype kam mit den großen Sprachmodellen in der breiten Masse an. Ein wichtiger Vertreter ist sicherlich ChatGPT. Es gibt aber unzählige andere Modelle und Anwendungsfälle. Ein Beispiel ist Convolutional Neural Networks (CNN), das speziell für die Verarbeitung von Bildern und Videos entwickelt wurde. Es findet Anwendung in Aufgaben wie Bildklassifizierung, Objekterkennung und Bildsegmentierung. Weitere Machine-Learning-Modelle werden für die Verarbeitung und Vorhersage kontinuierlicher Zielgrößen eingesetzt, um z. B. Zeitreihen zu überwachen und vorherzusagen oder um Anomalien zu erkennen. Zur Bestimmung von Optimalstrategien eignen sich wiederum Reinforcement-Learning-Modelle, mit welchen Roboter optimierte Arbeitsabläufe erlernen können. Darüber hinaus gibt es natürlich noch weitere Modelle.

Welche KI-Modelle sind für Facility Management überhaupt sinnvoll?

Merkel: Wenn man sich in den zuvor genannten Anwendungsfällen wiederfindet und damit ein bestehendes Problem lösen bzw. einen Prozess optimieren kann, hat jedes dieser Modelle im FM seine Daseinsberechtigung. Im Prinzip gilt aber, dass KI als Teil eines Prozesses eingesetzt werden sollte und nicht als ganzes Produkt – und schon gar nicht als Selbstzweck.

Man sollte auch nicht zwanghaft versuchen, das neuste, beliebteste Modell in jeden Prozess zu integrieren. Zum Beispiel birgt die Datenanalyse mit ChatGPT gravierende Risiken, da generative Modelle zu Halluzinationen neigen, Datensätze also gerne einfach erfinden.

Wir sind überzeugt davon, möglichst kleine und kontrollierbare Modelle anwendungsspezifisch einzusetzen, anstatt zu versuchen, riesige Foundation- und General-Purpose-Modelle für unseren Use Case zurechtzubiegen. Das hat nicht nur Vorteile bezüglich Kosten und Datensicherheit. Grundsätzlich lassen sich diese kleineren Modelle besser für den Anwendungsfall optimieren, in die Prozess-Pipeline integrieren, und in Verbindung mit zusätzlicher Prozesslogik besser kontrollieren und überprüfen.

In welchen Bereichen des FM kann KI am besten unterstützen und wo spart sie am meisten Kosten ein?

Merkel: KI kann in vielen Bereichen gute Unterstützung leisten. Bei der rasanten Entwicklung, die wir in den letzten 24 Monaten gesehen haben, kann ich gar nicht beurteilen, an welchen Stellen zukünftig ein Einsatz sinnvoll ist.

Eine einfach umsetzbare Anwendung ist zum Beispiel die Nutzerunterstützung beim Ticketing, da ein Sprachmodell die Fehler analysieren und eine richtige Zuordnung treffen kann. Hierbei wird die Nutzerinteraktion vereinfacht und eine automatisierte Zuordnung ist in der Regel verlässlicher. Somit entfällt viel Nacharbeit, die sonst aus Eingabefehlern resultiert hätte.

Eine ebenfalls einfach umsetzbare Anwendung, die großen Nutzen und hohe Kosteneinsparungen ermöglicht, ist das Wissensmanagement. Es ist erwiesen, dass Mitarbeiter ein Viertel ihrer Arbeitszeit damit beschäftigt sind, Informationen zu suchen. Mit entsprechend KI-Modellen kann man hier wirklich Arbeitszeit sparen. Dies ist natürlich nicht auf FM beschränkt, aber speziell im FM liegen viele Dokumente vor, die immer und immer wieder gesucht und analysiert werden müssen, wie Anleitungen für bestimmte Tätigkeiten oder Vertragstexte. Hier kann ein Sprachmodell die Nutzerfragen einfach beantworten und mit der entsprechenden Referenz auf das Originaldokument kann sich der Anwender sicher sein, das richtige Dokument gefunden zu haben. Spannend für den FM-Bereich ist, dass sich dieses Informationsmanagement nicht auf Textdokumente beschränkt; es eignet sich auch für die Suche in Plandokumenten und Bildmodellen. Und auch für ein schnelleres Onboarding von neuen Mitarbeitern und den richtigen Umgang des Informationsflusses mit neuen Dienstleistern kann diese Anwendung eingesetzt werden.

Darüber hinaus ist natürlich Predictive Maintenance ein interessantes Thema – hier sind aber verschiedene Aspekte wie Datenqualität, Datenmenge, Ausfallzeiten oder auch falsche Vorhersagen, zu berücksichtigen, die einen Einstieg in die KI schwerer und vor allem kostenintensiver machen.

Dr. Alexandra Merkel hat umfangreiche Erfahrung mit KI im wissenschaftlichen Umfeld wie auch in der Software-Entwicklung - Bild: Innomatik AG
Dr. Alexandra Merkel hat umfangreiche Erfahrung mit KI im wissenschaftlichen Umfeld wie auch in der Software-Entwicklung – Bild: Innomatik AG

Wird KI bereits in nennenswertem Umfang im Alltag des Facility Managements eingesetzt und welche ist das?

Merkel: Nein, so richtig ist KI im Alltag des Facility Managements noch nicht angekommen. Aber das ist auch zu erwarten, da der Weg von der Forschung in die Praxis einige Jahre dauert. Es gibt selbstverständlich einige Leuchtturmprojekte und wir sehen immer mehr Umsetzungen für das Thema Wissensmanagement, da dies einen leichten und nicht zu kostenintensiven Einstieg in die KI-Welt ermöglicht. Dies ist aus meiner Sicht für alle Organisationen wichtig, denn in einigen Jahren werden wir viel mit KI machen und dürfen heute den Anschluss nicht verpassen. Man muss nicht der Erste sein, der „alles mit KI macht“, aber so ganz ignorieren sollte man diesen Trend auch nicht.

In welchem Zeitraum wird KI im FM Ihrer Ansicht nach ein normales Werkzeug unter vielen sein?

Merkel: Gerade setzt sich einiges in Bewegung. Die KI verlässt die Test- und Prototypenphase und an vielen Stellen wird sichtbar, was mit KI erreicht werden kann – und was nicht. Es dauert oft eine ganze Weile, bis sich neue Technologien durchsetzen. Bis sich zum Beispiel BIM wirklich etabliert hat, dauerte es von den ersten Anfängen im 3D-CAD ganze 30 Jahre. Ich gehe nicht davon aus, dass wir hier wieder so lange warten müssen, denn der Technologiefortschritt ist heute wesentlich rasanter, aber einige Jahre wird es mit Sicherheit noch dauern.

Aber der zweite Teil Ihrer Frage ist besonders wichtig. Man darf nicht vergessen, dass KI immer als Teil eines Gesamtprozesses gesehen werden sollte und nicht als das Allheilmittel für jeden Zweck – „ein Werkzeug unter vielen“ eben.

In wieweit sollte bei der Einführung von KI für das FM auch die IT-Abteilung eines Unternehmens mit einbezogen werden?

Merkel: Eine IT-Abteilung muss nicht zwangsläufig umfangreiche KI-Expertise mitbringen, aber sollte im Austausch mit externen Beratern bzw. Dienstleistern einbezogen werden. Sie soll die Anwendung und die Rahmenbedingungen verstehen – das schafft Sicherheit und Offenheit. Außerdem ist das Einbeziehen der IT ohnehin wichtig für die Integration in bestehende Infrastruktur unter Einhaltung der Unternehmensrichtlinien.

Wie lässt sich sicherstellen, dass Daten, die ich für die Arbeit mit KI nutze, nicht anschließend wie bei ChatGPT und anderen kostenlosen Angeboten zu Trainingsdaten werden und allgemein zugänglich sind?

Merkel: Wenn ich absolut sicher gehen will, arbeite ich mit einer in-house Lösung. So landen meine Daten nie außerhalb der eigenen Firewall. Das ist auch letztendlich der einzige Weg eine wirkliche Garantie zu haben, ansonsten kann ich nur auf die Aussagen der Hersteller vertrauen und auf das Beste hoffen.

Am Beispiel von Sprachmodellen muss man für viele Anwendungsfälle vielleicht auch einfach nicht unbedingt riesige Modelle wie ChatGPT über die Schnittstelle von OpenAI nutzen, oder sich für hohe Kosten einen eigenen Klon dieser großen Modelle anschaffen. Alternativ kann man nämlich kleine, für die entsprechende Anwendung optimierte LLMs auf relativ günstigem GPU-Servern nutzen, die oft für den relevanten Kontext ähnliche Leistung bringen und problemlos in der eigenen Infrastruktur laufen. Damit ist KI dann wieder ein Werkzeug (unter vielen) eingebettet in einen Gesamtprozess.

Wo sind Ihrer Meinung nach die Grenzen von KI erreicht?

Merkel: KI hat enormes Potenzial, aber nur wenn man weiß, wo und wie man sie einsetzt. Außerdem sehen wir den größten Mehrwert von KI immer nur in Zusammenarbeit und unter Kontrolle eines menschlichen Anwenders. KI, vor allem generative KI, sollte nie vollständig selbstständig kritische Entscheidungen treffen.

Ein gutes Beispiel für die derzeitigen Grenzen ist das Auswerten von Daten mit generativer KI: es wird damit geworben, dass ChatGPT in Zukunft alle im FM-System vorhandenen Daten auswertet und ich als Anwender somit nur noch Fragen stellen muss und die Antworten schön aufbereitet präsentiert bekomme. Das ist heute leider nur nettes Marketing. Theoretisch ist es möglich, mit ChatGPT Tabellen zu analysieren und ein richtiges Datamining zu betreiben. Aber, und das ist ganz wichtig, so richtig gut funktioniert das in der Praxis nur in 90% der Fälle, ab und an leidet die Datenanalyse unter Halluzinationen und erfindet Daten oder lässt welche weg. Und es ist nicht nachvollziehbar, auch nicht für die Entwickler dieser Systeme, wie das jeweilige Ergebnis zustande kam.

Bisweilen halluziniert KI, sie macht also Fehler. Gibt es belastbare prozentuale Werte, wie häufig das der Fall ist? 

Merkel: Bei KI-Modellen wie LLMs werden sich aufgrund ihrer Funktionsweise als Wahrscheinlichkeitsmodelle Halluzinationen nie ganz ausschließen lassen, denn das ist schlichtweg deren Arbeitsweise. Sie wurden nicht entwickelt, um „die Wahrheit“ zu sagen, sondern um Texte mit der höchsten Wahrscheinlichkeit zu ergänzen. Man kann hier mit Verbesserung der Datenqualität, RLHF (reinforcement learning from human feedback), durch gezieltes Prompting und zusätzliche Leitplanken gegensteuern, aber in einigen Fällen werden die Halluzinationen bleiben. Es gibt auch keinerlei belastbare Werte, wie häufig das passiert. In der Regel hängt dies vom Anwendungskontext ab und lässt sich nicht verallgemeinern. Problematisch ist darüber hinaus, dass die Halluzination nicht reproduzierbar sein muss: dieselbe Eingabe kann eine für mich richtige Antwort oder eben eine falsche Antwort ergeben.

Wie kann der Anwender KI-Fehler erkennen und wie kann man sich dagegen wappnen?

Merkel: Zunächst mal sollte KI in kritischen Entscheidungsprozessen immer unter der Kontrolle eines Experten agieren. Diese Kontrolle sollte so leicht und effektiv wie möglich gemacht werden – zum Beispiel dadurch, dass KI-Systeme immer auf die genutzten Informationsquellen referenzieren können, am besten mit Aktualitätsbezug. Die KI muss also darstellen auf welcher Datengrundlage eine Antwort erzeugt wurde.

Grundsätzlich kann man bei „klassischer“ KI, aber auch im generativen Bereich, immer zusätzliche Kontrolllogik nachlagern. Diese prüft mit einem absolut verlässlichen deterministischen Faktor, ob die Ergebnisse Sinn machen, also in einem bestimmten Bereich liegen oder bspw. auf bestimmte Felder oder Bedingungen gemappt werden können. So kann man die Antwortmöglichkeiten der KI einschränken.

Trendbegriffe werden oft falsch verwendet, um Profite zu generieren – auch und gerade bei Beratern. Gibt es einen Lackmustest, um selbsterklärte Experten von den tatsächlichen Kennern der Materie zu unterscheiden?

Merkel: Ein guter Hinweis ist es, auf ihre Herangehensweise zu achten. Wie eben schon beschrieben, versuchen viele Anbieter den Hype zu nutzen, um ihre KI-Lösungen als Produkte zu verkaufen. KI-Lösungen sollten jedoch immer vollintegrierte Features in einem Teilprozess sein. Ein Berater sollte immer zuerst den aktuellen Prozess, den Workflow und eventuelle Bottlenecks verstehen und anschließend über die Potentiale von KI in diesem Kontext nachdenken.

Wichtig ist, dass die jeweiligen Anbieter realistische Antworten auf kritische Fragen haben, wie zum Beispiel wo befinden sich meine Daten, was passiert mit diesen genau und wie verhindere ich in meinem Prozess schadhafte Fehler. Wenn mir jemand seine KI-Lösung von der Stange als eierlegende Wollmilchsau verkaufen und damit womöglich noch meinen gesamten Prozessablauf umwerfen will, sollte ich auf jeden Fall skeptisch werden.

Wie immer bei neuen Trends wird sich das jedoch erst in der Zukunft zeigen. Die Projekte, die über den Hype verkauft wurden, werden an der Diskrepanz zwischen den geschürten Erwartungen und den tatsächlichen Ergebnissen scheitern. Die Projekte, die mit ehrlichen Zielsetzungen verkauft wurden, werden auch tatsächlich erfolgreich abgeschlossen und den Anwendern einen praktischen Mehrwert bieten.

Vielen Dank für das Gespräch!

Abbildungen: Innomatik AG; Jan/stock.adobe.com

KI im FM ist ein Werkzeug unter vielen - CAFM-News

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert