Was wird heute schon genutzt und welche weiteren Entwicklungsschritte sind zu erwarten?
Sascha Poggemann: Wir verwenden LLMs, um in Echtzeit zu verstehen, was die User sagen, wie sie es sagen und was sie meinen. Daraus leiten die Agenten ab, welche Informationen noch fehlen, welche Systeme angesprochen werden müssen, und welche Schritte folgen. Ein Beispiel aus der Luftfahrt: Bei einer Flugumbuchung übernimmt die KI die Kommunikation zur Authentifizierung per Buchungscode, erfasst die Reisedaten und schlägt personalisierte Optionen vor – immer im Rahmen zuvor definierter Regeln. Auch digital Inhalte, wie z.B. Fotos können eingebracht werden – man spricht dann von Multi-Modalen Systemen. Diese Kombination aus Sprache und visuellem Verständnis bringt uns einer menschenähnlichen Interaktion noch näher.
Lars Schwabe: Bei LHIND setzen wir Agentic AI bereits heute in Kundenprojekten und internen Prozessen ein – zum Beispiel für Chatbots im Service, automatisierte Nachbestellsysteme in der Supply Chain oder bei der IoT-Integration, etwa zur Echtzeitverfolgung von Paketen. Aufgaben, die früher von Disponenten übernommen wurden, werden zunehmend automatisiert. Auch im Bereich IT-Operations und Cybersecurity ergeben sich neue Anwendungsmöglichkeiten, bei denen AI Agents proaktiv handeln können.
Wie stellen wir sicher, dass die Entwicklung ethisch nicht aus dem Ruder läuft und die Akzeptanz erhalten bleibt?
Lars Schwabe: Die Herausforderung liegt in der richtigen Balance. Gute Grundlagen gibt es bereits: Governance-Regeln, Transparenzanforderungen, ethische Richtlinien. Technisch bieten sich Sandbox-Umgebungen an – also begrenzte, kontrollierte Einsatzgebiete, in denen Agenten sicher agieren können. Ich empfehle, AI Agents als eine neue Technologie zu sehen. Nicht mehr. Und auch nicht weniger. Wie bei jeder neuen Technologie sind dann Chancen und Risiken abzuwägen und die möglichen Folgen zu bewerten.
Sascha Poggemann: Unternehmen setzen KI vor allem dort ein, wo sich Prozesse wiederholen. Innovative Anwendungen entstehen aber auch in vielen anderen Bereichen. Für Agentic AI empfehlen wir eine fallbasierte Use-Case-, ROI- und Risikoanalyse. Auch scheinbar einfache Anwendungsfälle wie die Zusammenführung von Benutzereingaben können einen klar messbaren ROI haben. Angesichts der rasanten Entwicklung ist proaktives, agiles Handeln gefragt – starre Regelwerke werden dem nicht mehr gerecht. Unternehmen sollten entweder intern KI-Kompetenz aufbauen oder mit erfahrenen Partnern zusammenarbeiten.
Gibt es Standards oder ist alles zu schnell und zu individuell für die Bedürfnisse der Kunden?
Lars Schwabe: Standards sind entscheidend für die Skalierung – aber sie müssen zum richtigen Zeitpunkt kommen. Die Entwicklung von Technologien in anderen Bereichen hat gezeigt, dass Standards wichtig sind und oft am Ende einer Phase der hoch-dynamischen Innovation kommen und dann wirksam werden. Dieser Prozess ist im Bereich Agentic AI und Conversational Agents noch im Gange. In einigen technischen Teilbereichen entstehen bereits erste Standards.
Sascha Poggemann: Wir unterscheiden zwei Formen der Standardisierung: die formalen, „aus der Regulatorik“ vorgegebenen Zertifizierungen und Normen und die praxisgetriebenen Industriestandards. Die formale Standardisierung mit ihren Audits kann mit dem Innovationstempo kaum Schritt halten. Letztere entstehen oft schneller – wie etwa das Model Context Protocol (MCP), das eine einfache Anbindung von KI-Modellen an externe Dienste ermöglicht. Auch Googles Initiative zur Kommunikation zwischen KI-Agenten scheint sich gerade zu einem De-facto-Standard zu entwickeln. Als Lösungsanbieter ist es wichtig schnell auf derartige Themen reagieren zu können. Daher haben wir unsere Softwareentwicklung mit offenen Schnittstellen und einer sogenannten Microservice Systemarchitektur darauf ausgerichtet, in kürzester Zeit neue Funktionen einbringen und anbieten zu können.
Wie sieht die Aufgabenverteilung bei gemeinsamen Agentic-AI-Projekten von Cognigy und LHIND aus?
Sascha Poggemann: Wir fokussieren uns auf die technologische Weiterentwicklung unserer Plattformen – und das ganz nah am Kunden. Dabei setzen wir gezielt Partner wie LHIND für die Implementierung oder die ganzheitliche Beratung des Kunden ein. Wir sehen nämlich, dass die Technologien meist nicht nur ein Baustein einer einzelnen Anwendung, sondern Teil einer größeren Transformation sind. Daher ist eine aktive Zusammenarbeit mit unseren Partnern wichtig.
Lars Schwabe: Richtig, intensive Zusammenarbeit und ganzheitliche Beratung sind entscheidend. Denn neben einer KI-Lösung wie etwa der von Cognigy gibt es immer noch eine ganze Menge anderer Systeme drum herum, die es zu berücksichtigen und einzubinden gilt. Denn eine echte KI-Transformation ist viel mehr als ein Software-Update, wo der Knopf jetzt halt woanders sitzt.
Was kommt als nächstes – und was sollte vermieden werden?
Lars Schwabe: Die nächsten Schritte sind Skalierung und breite Verfügbarkeit. Neue Qualifikationen sind gefragt, nicht plumper Stellenabbau. Das Ziel muss sein: Interaktionen mit AI Agents soll intuitiv, hilfreich, selbstverständlich und – das wäre mein persönlicher Wunsch– gern auch unterhaltsam und bereichernd sein. Ein Beispiel: Denken Sie an eine wirklich intelligente Assistenz im Alltag, etwa im öffentlichen Nahverkehr.AI Agents sollten im Unternehmensumfeld die Superkräfte der Mitarbeiter:innen freisetzen, indem repetitive Aufgaben an die KI delegiert werden und die wertschätzende und -stiftende Interaktion von Mensch zu Mensch wieder in den Vordergrund tritt.
Sascha Poggemann: Die KI-Technologie hat die Testphase verlassen, ist nun massentauglich und wird von allen führenden Unternehmen gerade in diverse Unternehmensprozesse und Abläufe oder zur Unterstützung der Mitarbeitenden eingeführt. Das stellt neue Anforderungen an Skalierbarkeit, System-Funktionen, Infrastruktur, Prozesse und Sicherheit. Wichtig ist: KI wird die persönliche Beziehung zum Kunden oder zwischen Mitarbeitenden nicht ersetzen, sondern anders gestalten. Zum Beispiel durch kontextbezogene Informationen, die eine qualifiziertere Kommunikation ermöglichen. Anfängliche Probleme wie Halluzinationen sind mittlerweile weitgehend gelöst, auch die Kostenbarrieren sinken. Verbesserungen bei Sprachsynthese, Latenz und Integration ermöglichen nun einen reibungslosen Echtzeitbetrieb.
Lars Schwabe: Wenn wir in einigen Jahren zurückblicken, wird uns die Art und Weise, wie wir im Jahr 2025 Informationen gesucht oder Sitzungen vorbereitet haben, geradezu archaisch erscheinen. Wir werden uns wundern und ärgern über sehr viel unnütz verschenke Lebens- und Arbeitszeit, die wir mittels KI-Technologie dann zurückerobert haben werden.