In den vorangegangenen Beiträgen dieser Reihe haben wir uns mit KI als einem Werkzeug befasst, das auf Eingaben reagiert: Der Projektleiter formuliert einen Prompt, die KI liefert eine Antwort, und der Projektleiter entscheidet, was er damit anfangen möchte. Dieses Modell hat sich in der Praxis bewährt und bietet für viele Aufgaben im Projektalltag einen echten Mehrwert.

Es wäre jedoch ein Fehler, bei diesem Bild stehen zu bleiben. Denn die Entwicklung der künstlichen Intelligenz macht gerade einen Schritt, der über die reaktive Assistenz hinausgeht: KI-Agenten warten nicht auf den nächsten Prompt. Sie erhalten ein Ziel und arbeiten eigenständig darauf hin — indem sie planen, Entscheidungen treffen, auf externe Systeme zugreifen und Schritt für Schritt handeln, ohne dass der Nutzer jeden einzelnen Vorgang anweist.

Das ist kein gradueller Fortschritt gegenüber dem, was wir bisher kennen. Es ist ein qualitativer Sprung, der neue Möglichkeiten eröffnet — und der gleichzeitig neue Anforderungen an den Projektleiter stellt. Beide Seiten verdienen gleichermaßen Beachtung.

Was einen KI-Agenten von einem Prompt unterscheidet

Um den Unterschied zwischen reaktiver KI und einem KI-Agenten greifbar zu machen, bietet sich ein Vergleich aus dem Projektalltag an. Wenn man einer sehr guten Projektassistenz sagt: „Erstelle mir einen Entwurf für das Protokoll des gestrigen Meetings“, wird sie auf der Grundlage der übergebenen Informationen einen Text formulieren und vorlegen. Die Initiative liegt beim Projektleiter, die Assistenz reagiert.

Ein anderes Bild entsteht, wenn man ihr sagt: „Organisiere den nächsten Meilensteinabschluss, einschließlich Terminabstimmung mit allen Beteiligten, Vorbereitung der Unterlagen und Versand der Einladungen.“ In diesem Fall übernimmt sie eigenständig eine Abfolge von Aufgaben. Sie plant, handelt und bringt ein Ergebnis, ohne für jeden Schritt eine neue Anweisung zu benötigen. Genau darin besteht das Prinzip eines KI-Agenten.

Die folgende Übersicht stellt die wesentlichen Unterschiede zwischen reaktiver KI-Nutzung und dem Einsatz von KI-Agenten gegenüber:

Merkmal Reaktive KI KI-Agent
Arbeitsweise Wartet auf jeden weiteren Prompt des Nutzers Plant und führt selbstständig mehrere Schritte aus, ohne Zwischenanweisung
Auslöser Eine konkrete Eingabe des Nutzers Ein definiertes Ziel, das der Nutzer vorgibt
Werkzeugzugriff Keiner — Ausgabe erfolgt ausschließlich als Text E-Mail, Kalender, Datenbanken, externe Systeme und APIs
Sichtbarkeit von Fehlern Sofort erkennbar, da der Nutzer jeden Output prüft Fehler können bereits in Folgeschritten weiterverarbeitet sein
Steuerung durch den Nutzer Der Nutzer steuert jeden einzelnen Schritt Der Nutzer definiert das Ziel und die Rahmenbedingungen
Reifegrad heute Sehr hoch — in der Praxis bewährt Wachsend — erste produktive Einsatzszenarien sind bereits realisierbar

Aus dieser Gegenüberstellung wird deutlich, dass der Einsatz von KI-Agenten erhebliche Effizienzgewinne ermöglicht. Zugleich zeigt sich, dass die Anforderungen an Planung, Steuerung und Qualitätssicherung durch den Projektleiter steigen, nicht sinken. Beides gehört zusammen.

Was KI-Agenten heute leisten können — und wo ihre Grenzen liegen

KI-Agenten sind kein Zukunftsthema mehr. In bestimmten Bereichen sind sie heute produktiv einsetzbar. Gleichzeitig ist eine nüchterne Einschätzung ihrer aktuellen Möglichkeiten und Grenzen unbedingt erforderlich, um Enttäuschungen und Risiken zu vermeiden.

Was heute zuverlässig funktioniert

KI-Agenten eignen sich derzeit besonders gut für Aufgaben, die klar strukturiert sind, auf verlässlichen Datenquellen beruhen und deren Ablauf in eindeutigen Regeln beschrieben werden kann. Dazu gehören beispielsweise:

  • Die Automatisierung wiederkehrender Kommunikationsaufgaben, etwa das Erstellen und Versenden von Erinnerungen zu offenen Punkten aus Protokollen oder das Zusammenfassen von Meeting-Transkripten in strukturierter Form.
  • Das Zusammenführen von Informationen aus mehreren Systemen, etwa die wochentliche Aggregation von Projektdaten zu einem Statusbericht in einem definierten Format.
  • Die Überwachung definierter Kennzahlen und die automatische Benachrichtigung bei Überschreitung von Schwellenwerten, etwa im Rahmen eines einfachen Risiko-Frühwarnsystems.

Wo die Grenzen heute noch klar sind

Aufgaben, die ein situatives Urteilsvermögen erfordern, liegen nach wie vor außerhalb des verlässlichen Leistungsbereichs von KI-Agenten. Das betrifft vor allem:

  • Die Beurteilung mehrdeutiger oder politisch sensibler Situationen, für die Erfahrung, Kontextkenntnis und ein Gespür für die Dynamiken im Projektumfeld erforderlich sind.
  • Kommunikation mit Stakeholdern in kritischen Situationen, etwa in Eskalationen, Verhandlungen oder Gesprächen, in denen die Beziehungsebene über den sachlichen Inhalt hinaus entscheidend ist.
  • Die Qualitätskontrolle des eigenen Outputs: Ein Agent erkennt seine eigenen Fehler nicht zuverlässig. Wenn ein früher Schritt in der Prozesskette fehlerhaft ist, arbeitet der Agent auf dieser fehlerhaften Grundlage weiter, ohne dies anzuzeigen.

Orientierungshilfe: Je klarer die Regeln, je strukturierter die zugrunde liegenden Daten und je geringer der Bedarf an situativem Urteilsvermögen, desto besser eignet sich eine Aufgabe für den Einsatz eines KI-Agenten. Umgekehrt gilt: Wo Erfahrungsurteil, zwischenmenschliche Feinfühligkeit oder ethische Abwägung gefragt sind, bleibt die Entscheidung beim Menschen.

Drei Einsatzszenarien aus dem Projektalltag

Die folgenden drei Szenarien zeigen, wie KI-Agenten heute bereits in der Projektpraxis eingesetzt werden können. Sie erfordern keine Programmierkenntnisse, wohl aber eine sorgfältige Einrichtung und klare Rahmenbedingungen.

Szenario 1

Automatisiertes Besprechungsprotokoll

Einrichtungsaufwand:

Gering — vorausgesetzt, Teams Premium mit Copilot-Lizenz ist vorhanden

Nutzen:

Bis zu einer Stunde Nachbereitungsaufwand pro Besprechung eingespart; höhere Protokollkonsistenz; sofortige Verfügbarkeit der Ergebnisse

Microsoft Teams Premium erstellt während der Besprechung automatisch ein Transkript. Im Anschluss fasst ein Copilot-Agent dieses Transkript zusammen, extrahiert Beschlüsse und offene Punkte, erstellt daraus ein strukturiertes Protokoll im unternehmenseigenen Format und versendet es an alle Teilnehmer. Die gesamte Nachbereitungszeit nach dem Meeting wird auf wenige Minuten reduziert. Allerdings gilt auch hier: Der Projektleiter prüft das Protokoll vor dem Versand. Ein Agent übernimmt die Routinearbeit, nicht die Verantwortung.

Szenario 2

Automatisierter Wochenbericht

Einrichtungsaufwand:

Mittel — Einrichtung ca. zwei bis vier Stunden; danach vollständig automatisiert

Nutzen:

Konsistente Berichtsqualität; keine übersehenen Felder; Zeitersparnis von durchschnittlich 30 Minuten pro Woche

Ein Agent — aufgebaut zum Beispiel mit Microsoft Power Automate oder dem Automatisierungswerkzeug Make — ruft wöchentlich zu einem festgelegten Zeitpunkt Daten aus dem eingesetzten Projektmanagementsystem ab: aktueller Aufgabenstatus, Budgetverlauf, offene Risiken. Diese Daten werden zusammengeführt und in ein strukturiertes Berichtsformat übertragen. Der Projektleiter erhält den Entwurf, prüft ihn, ergänzt bei Bedarf und gibt ihn frei. Die eigentliche Routinearbeit der Datenzusammenführung entfällt vollständig.

Szenario 3

Risiko-Frühwarnmeldung

Einrichtungsaufwand:

Mittel bis hoch — abhängig vom Grad der Digitalisierung der Projektdaten im eingesetzten System

Nutzen:

Frühzeitige Erkennung kritischer Entwicklungen; einheitliche und nachvollziehbare Schwellenwertlogik; Entlastung bei der Überwachungsroutine

Ein Agent überwacht kontinuierlich definierte Kennzahlen im Projekt, etwa den Terminverzug je Phase, die Budgetabweichung oder den Status offener Risiken ohne hinterlegte Gegenmaßnahme. Sobald ein festgelegter Schwellenwert überschritten wird, formuliert der Agent eine kurze Lagebeschreibung, kategorisiert das Risiko nach einer Ampellogik und sendet eine Meldung an den Projektleiter. Das manuelle Überprüfen von Dashboards entfällt; kein Risiko wird übersehen, weil ein Kennzahlen-Überblick zu spät eingesehen wurde.

Die neue Verantwortung des Projektleiters im Umgang mit KI-Agenten

Mit dem Einsatz von KI-Agenten verändert sich die Rolle des Projektleiters in einem wesentlichen Punkt: Er ist nicht länger derjenige, der jeden Schritt eines Arbeitsablaufs selbst anstoßt und steuert. Er ist derjenige, der das Ziel definiert, die Rahmenbedingungen festlegt und die Ergebnisse verantwortet. Die Verantwortung wandert nicht weg vom Menschen. Sie verändert lediglich ihren Charakter.

Das ist ein Unterschied, den man nicht unterschätzen sollte. In einem klassischen Arbeitsablauf mit reaktiver KI prüft der Projektleiter jeden Output, bevor er weiterverwendet wird. Bei einem Agenten kann ein Fehler in einem frühen Schritt bereits in nachgelagerten Schritten weiterverarbeitet worden sein, bevor er sichtbar wird. Das verändert die Anforderungen an die Qualitätssicherung grundlegend.

Was das in der Praxis konkret bedeutet:

  1. Klare Zielvorgaben: Ein Agent ist nur so gut wie das Ziel, das man ihm gibt. Unpräzise oder mehrdeutige Zielvorgaben führen bei einem Agenten nicht zu einer Nachfrage, sondern zu Ergebnissen, die von der eigentlichen Absicht abweichen. Die Qualität der Zielbeschreibung ist deshalb mindestens so wichtig wie die Prompt-Kompetenz beim reaktiven KI-Einsatz.
  2. Menschliche Prüfpunkte im Prozess: Für jeden agentischen Prozess, der Außenwirkung hat — also etwa Statusberichte, Kommunikation nach außen, Risikobewertungen — muss ein klar definierter menschlicher Prüfpunkt vorgesehen sein. Wann erfolgt diese Prüfung? Wer ist dafür zuständig? Was genau wird geprüft? Diese Fragen müssen vor dem Einsatz eines Agenten beantwortet sein, nicht erst dann, wenn ein Problem auftaucht.
  3. Transparenz im Team: Wenn KI-Agenten Aufgaben übernehmen, die bisher von Teammitgliedern erledigt wurden, muss das offen kommuniziert werden. Welche Prozesse laufen automatisiert? Welche Ergebnisse werden von einem Agenten erzeugt? Wer ist bei Fehlern Ansprechpartner? Ohne diese Transparenz entsteht eine Grauzone, die sowohl das Vertrauen im Team als auch die Qualitätssicherung gefährdet.
  4. Eskalationslogik im Voraus definieren: Ein KI-Agent, der bei Unklarheiten oder unerwarteten Situationen eigenständig weitermacht, ist riskanter als einer, der anhält und einen Menschen einbezieht. Es ist deshalb wichtig, im Voraus festzulegen, welche Situationen ein Agent nicht selbstständig lösen darf und wie in diesen Fällen eskaliert wird.

Leitprinzip: Ein KI-Agent übernimmt die Ausführung. Die Verantwortung für das Ergebnis verbleibt beim Projektleiter. Wer diesen Grundsatz verinnerlicht, kann Agenten mit einem guten Gefühl einsetzen und ihren Nutzen voll ausschöpfen.

Wie der Einstieg gelingt — ein schrittweises Vorgehen

Es ist nicht notwendig, sofort mit komplexen Agentenlösungen zu beginnen. Bewährt hat sich ein schrittweises Vorgehen, das die eigene Erfahrung aufbaut und das Vertrauen in die Technologie entwickelt:

  1. Bestandsaufnahme: Viele Unternehmen, die Microsoft 365 mit Copilot-Lizenz nutzen, haben bereits erste agentische Funktionen im Einsatz, ohne es explizit so zu nennen. Die automatische Protokollfunktion in Teams Premium ist ein Beispiel dafür. Es lohnt sich, zunächst zu erkunden, welche Automatisierungen in der eigenen Arbeitsumgebung bereits verfügbar sind.
  2. Einfacher Einstieg: Wer seinen ersten KI-Agenten einrichten möchte, beginnt am besten mit einem einzigen, klar abgegrenzten Prozess — einem, bei dem die Eingangsdaten verlässlich sind, der Ablauf klar definiert ist und der Output leicht überprüft werden kann. Power Automate oder Make ermöglichen dies ohne Programmierkenntnisse.
  3. Erfahrungen auswerten: Nach den ersten Wochen im Praxiseinsatz ist eine bewusste Auswertung sinnvoll: Wo hat der Agent die Erwartungen erfüllt? Wo lagen die Schwachstellen? Was muss am Prozess, an den Zielvorgaben oder an den Prüfpunkten angepasst werden? Dieses Lernen aus der Erfahrung ist die Voraussetzung für einen verlässlichen Einsatz.
  4. Governance festhalten: Spätestens bevor ein Agentenprozess dauerhaft in den Projektalltag integriert wird, sollten die wesentlichen Rahmenbedingungen schriftlich festgehalten sein: Welche Prozesse laufen automatisiert? Was dürfen die Agenten, was nicht? Wer prüft die Ergebnisse? Was passiert bei Fehlern? Dieses Dokument muss kein umfängliches Regelwerk sein — aber es muss existieren.

Im nächsten Beitrag dieser Reihe steht die Recherche-Kompetenz im Mittelpunkt: Warum KI-gestützte Recherche grundlegend anders funktioniert als eine herkömmliche Suche im Internet — und welche Haltung und Prüfroutine erforderlich sind, um die Ergebnisse wirklich einordnen und beurteilen zu können.

Andreas Frick ist Geschäftsführer der Projektforum Rhein Ruhr GmbH, IPMA Level A zertifizierter Trainer und Autor der Bücher „Projektkompetenz I & II“ (Springer, 2025). Er begleitet seit Jahren Projektmanager auf dem Weg zur IPMA-Zertifizierung und entwickelt praxisnahe Lernformate an der Schnittstelle von Projektmanagement und digitaler Transformation.