Die meisten Projektmanager, mit denen ich in meinen Seminaren zusammenarbeite, haben KI längst ausprobiert. ChatGPT für einen ersten Textentwurf, Microsoft Copilot für eine Zusammenfassung, vielleicht auch Perplexity für eine schnelle Recherche. Das Ergebnis war „ganz okay“ — und damit war es dann auch meist erledigt. KI als gelegentliches Hilfsmittel, irgendwo zwischen Rechtschreibprüfung und Suchmaschine.
Das ist kein Vorwurf, sondern eine nachvollziehbare Konsequenz. Wer KI ohne eine klare Methode ausprobiert, wird in der Regel gemischte Erfahrungen machen: ein paar brauchbare Ergebnisse, einige enttäuschende, und am Ende den Eindruck, dass der Hype möglicherweise übertrieben ist. Dieser Eindruck ist verständlich — aber er ist, wie ich in diesem Beitrag zeigen möchte, vermeidbar.
Denn der Unterschied zwischen einem KI-Ergebnis, das kaum verwendbar ist, und einem, das wirklich nützlich ist, hängt in den meisten Fällen nicht vom gewählten Tool ab. Er hängt von der Qualität des Prompts ab — also von der Art und Weise, wie der Auftrag formuliert wird.
Warum KI die eigene Unschärfe zurückspiegelt
Es gibt einen Grundsatz, der für den Umgang mit KI-Systemen uneingeschränkt gilt: Wer einen unpräzisen Auftrag erteilt, erhält eine unpräzise Antwort. Das klingt trivial, hat aber weitreichende Konsequenzen für die Praxis.
Ein Large Language Model wie ChatGPT oder Claude berechnet auf der Grundlage der eingegebenen Informationen diejenige Antwort, die statistisch am wahrscheinlichsten passt. Wenn der Prompt wenig Kontext enthält, füllt das Modell die verbleibenden Lücken mit dem, was in ähnlichen Situationen typischerweise erwartet wird: allgemeine Formulierungen, generische Strukturen, Standardantworten. Das Ergebnis ist handwerklich oft korrekt — aber ohne Bezug zur konkreten Situation.
Ein Vergleich aus dem Projektalltag verdeutlicht das: Wenn man einer erfahrenen Projektassistenz sagt „Schreib mir einen Statusbericht“, wird sie nachfragen. Für wen ist der Bericht gedacht? Welchen Zeitraum soll er abdecken? Welche Aspekte stehen im Vordergrund? Welchen Ton erwartet der Adressat? Ein KI-System fragt in der Regel nicht nach. Es füllt die fehlenden Informationen mit plausiblen Annahmen — und liefert ein Ergebnis, das zum eigenen Projekt nur zufällig passt.
Daraus folgt ein einfacher, aber wichtiger Grundsatz: Je mehr relevante Informationen der Prompt enthält — über Kontext, Ziel, Format und Ton — desto weniger muss das Modell raten, und desto besser wird das Ergebnis. Das ist keine Frage des richtigen Tools, sondern eine Frage der Methode.
Woran die meisten Prompts scheitern
In der Praxis lassen sich die häufigsten Schwachstellen in Prompts auf vier Ursachen zurückführen:
- Fehlende Rollendefinition: Wenn der Prompt keine Perspektive vorgibt, aus der die KI antworten soll, wählt sie eine generische. Ein Auftrag wie „Schreib einen Text über Risikomanagement“ ergibt ein völlig anderes Ergebnis als „Du bist ein erfahrener Projektleiter in einem Industrieunternehmen. Erklär einem neuen Teammitglied, wie wir Risiken in der Planungsphase systematisch erfassen.“ Die Rollendefinition gibt dem Modell Haltung, Ton und Tiefe vor.
- Fehlender Kontext: Ein KI-System kennt das eigene Projekt nicht. Es weiß nicht, in welcher Phase sich das Projekt befindet, wer der Auftraggeber ist oder welche Besonderheiten zu berücksichtigen sind. Was das Modell nicht weiß, ergänzt es mit allgemeinen Annahmen — die zufällig zutreffend sein können, es aber nicht müssen.
- Fehlende Formatvorgabe: Ohne konkrete Vorgabe zum Format liefert das Modell das, was es für eine typische Antwort hält. Für einen Lenkungskreis benötigt man vielleicht drei Sätze und eine Ampelbewertung. Für ein Projektprotokoll eine strukturierte Tabelle mit offenen Punkten und Zuständigkeiten. Beides muss explizit vorgegeben werden, wenn es zuverlässig erscheinen soll.
- Kein eigener inhaltlicher Input: KI ist kein Autor, der aus dem Nichts heraus relevante Inhalte erfindet. Sie strukturiert, formuliert und verdichtet — aber auf der Grundlage dessen, was ihr mitgegeben wird. Wer erwartet, dass das Modell ohne eigene Stichpunkte, Einschätzungen oder Rohdaten ein zutreffendes Ergebnis liefert, wird regelmäßig enttäuscht werden.
Ein Grundgerüst für wirksame Prompts
Für die meisten Aufgaben im Projektalltag hat sich ein einfaches, aber wirkungsvolles Grundmuster bewährt. Es schließt systematisch jene Informationslücken, die zu schwachen Ergebnissen führen, und gibt dem Modell alles, was es für eine nützliche Antwort benötigt:
Rolle: Aus welcher Perspektive soll die KI antworten? (z. B. „erfahrener Projektleiter“, „Change-Management-Berater“, „technischer Redakteur“)
Aufgabe: Was soll konkret entstehen? Eine klare Benennung des gewünschten Outputs ist wichtiger als eine ausführliche Beschreibung des Vorhabens.
Kontext: Projekttyp, aktuelle Phase, Adressat des Ergebnisses, relevante Besonderheiten
Format: Gewünschte Struktur, Länge, Ton sowie — wenn relevant — konkrete Gliederungsvorgaben oder Tabellenformate
Input: Die eigenen Stichpunkte, vorhandenen Daten oder Textpassagen, auf deren Grundlage das Modell arbeiten soll
Das klingt nach mehr Aufwand als ein spontan eingetippter Auftrag. In der Praxis benötigt ein nach diesem Muster aufgebauter Prompt drei bis fünf Minuten. Was er an Nacharbeit erspart, übersteigt diesen Aufwand in der Regel deutlich.
Ein Beispiel: Statusbericht mit schwachem und starkem Prompt
Der folgende Vergleich zeigt, wie deutlich der Unterschied zwischen einem ungenauen und einem präzise formulierten Prompt ausfallen kann — bei identischer Aufgabenstellung.
Ungenaurer Prompt:
Schreib mir einen Statusbericht für mein Projekt.
Das Ergebnis ist ein generisches Dokument mit Platzhaltern, das weder den Adressaten noch die Projektspezifik berücksichtigt. Es muss vollständig überarbeitet werden. Der Zeitgewinn gegenüber einer eigenen Ausarbeitung ist gering.
Präzis formulierter Prompt:
Du bist ein erfahrener Projektleiter in einem mittelständischen Industrieunternehmen. Erstelle einen Statusbericht für das monatliche Lenkungskreis-Meeting. Der Adressat ist der Geschäftsführer. Er erwartet klare, knappe Aussagen und hat kein technisches Vorwissen im Detail des Projekts. Format: – Zusammenfassung (max. 3 Sätze) – Ampelstatus für Kosten, Termin und Qualität (Farbe + 1 Satz Begründung je Dimension) – Offene Punkte: Was | Wer | Bis wann – Nächste Schritte (max. 3) Meine aktuellen Stichpunkte: – Lieferant hat eine Verzögerung von ca. 2 Wochen gemeldet – Budget liegt 3 Prozent über Plan; die Ursache ist bekannt und dokumentiert – Abnahme Teilgewerk A wurde erfolgreich abgeschlossen – Risiko: möglicher Ressourcenengpass im November
Das Ergebnis ist ein managementtauglicher Berichtsentwurf, der die wesentlichen Punkte zutreffend abbildet und in wenigen Minuten finalisiert werden kann. Der Unterschied liegt nicht im verwendeten Tool, sondern in der Qualität der Eingabe.
Was das für den Projektalltag bedeutet
Es lohnt sich, über diesen Zusammenhang einen Moment nachzudenken. KI-Systeme verbessern sich nicht dadurch, dass man auf eine neuere Modellversion wartet. Sie liefern bessere Ergebnisse, wenn die Eingaben präziser und strukturierter werden. Die Verantwortung dafür liegt beim Nutzer — und das ist, bei näherer Betrachtung, eine gute Nachricht. Denn diese Fähigkeit ist erlernbar.
Es zeigt sich dabei häufig eine interessante Nebenwirkung: Wer lernt, gute Prompts zu formulieren, denkt zwangsläufig klarer über die eigene Aufgabe nach. Was genau soll entstehen? Für wen? In welchem Format? Das sind Fragen, die jede Projektleiterin und jeder Projektleiter ohnehin stellen sollte. Die KI macht sie lediglich sichtbar und erzwingt eine Antwort.
Ein weiterer Aspekt verdient Beachtung: Gute Prompts sind nicht nur einmalig nützlich. Wer einmal einen zuverlässigen Prompt für den Statusbericht entwickelt hat, kann ihn für jedes Folgeprojekt verwenden und anpassen. Wer eine bewährte Vorlage für die Risikoanalyse hat, gibt sie ins Team weiter. Auf diese Weise entsteht ein wachsender Fundus an Methoden — kein KI-Hype, sondern echte Praxis.
Ein Vorschlag für die nächste Woche: Wähle eine Aufgabe, die in der nächsten Woche ohnehin anfallen wird — einen Bericht, ein Protokoll, eine Risikoliste — und formuliere dafür einen Prompt nach dem oben beschriebenen Muster. Vergleiche das Ergebnis mit dem, was du bisher bei ähnlichen Eingaben erhalten hast. Der Unterschied wird in den meisten Fällen deutlich ausfallen.
Was ein Projektleiter über KI wissen muss — sieben Kompetenzfelder
Prompt-Kompetenz ist der wichtigste erste Schritt — aber nicht der einzige. Wer KI im Projektalltag verantwortungsvoll und wirksam einsetzen will, benötigt ein breiteres Fundament. Die folgende Übersicht zeigt die sieben Kompetenzfelder, die zusammen den roten Faden dieser Blogreihe bilden. Sie stehen jeweils für konkrete Fähigkeiten und Entscheidungen, mit denen Projektleiterinnen und Projektleiter heute bereits konfrontiert sind — oder in absehbarer Zeit konfrontiert sein werden.
| 01
KI verstehen & anwenden Wie funktionieren Large Language Models? Wo liegen ihre Stärken, wo ihre Grenzen? Prompt-Kompetenz als zentrale Grundlage für den produktiven Einsatz im Projektalltag. |
02
KI-Tools & Anwendungsfelder Welches Tool eignet sich für welche Aufgabe? Ein strukturierter Überblick über die relevante KI-Landschaft: Texterstellung, Recherche, Visualisierung, Automatisierung. |
03
KI-Agenten Wenn KI nicht mehr auf Eingaben wartet, sondern selbstständig handelt: autonome Agenten verändern die Anforderungen an Steuerung, Governance und Verantwortung. |
| 04
Recherche-Kompetenz KI als Denkpartner im Rechercheprozess, nicht als Suchmaschine. Wie man Quellen einfordert, Ergebnisse einordnet und Halluzinationen erkennt — eine eigenständige, erlernbare Kompetenz. |
05
Rechtlicher Rahmen Was Projektleiter über den EU AI Act, die DSGVO und das Urheberrecht wissen müssen, um im Projektalltag rechtssicher zu handeln — ohne juristisches Fachstudium. |
| 06
Verantwortung im Projekt Wer trägt die Verantwortung, wenn KI-generierte Inhalte ungeprüft übernommen werden? Governance, Kommunikation und Führung im Umgang mit KI im Projektteam. |
07
Qualität & kritisches Urteil Wie werden KI-Outputs zuverlässig bewertet? Wann ist der Einsatz von KI sinnvoll, wann nicht? Das Urteilsvermögen des Projektleiters bleibt auch im KI-Zeitalter unverzichtbar. |
Diese sieben Felder stehen nicht unverbunden nebeneinander. Wer KI-Systeme einsetzen will, ohne den rechtlichen Rahmen zu kennen, übernimmt unkontrollierte Risiken. Wer KI-Agenten einsetzt, ohne Governance-Fragen geklärt zu haben, gibt Kontrolle ab, ohne es zu bemerken. Und wer KI-Outputs nicht kritisch prüft, trägt die Verantwortung für Fehler, die das Modell gemacht hat. Erst im Zusammenspiel aller sieben Felder entsteht eine KI-Kompetenz, die im Projektalltag wirklich trägt.
Die Themen dieser Blogreihe — ein Überblick
Die folgenden Beiträge dieser Reihe nehmen jedes der sieben Kompetenzfelder systematisch in den Blick — stets mit dem Fokus auf das, was für Projektleiterinnen und Projektleiter in der Praxis tatsächlich relevant ist. Jeder Beitrag ist so aufgebaut, dass er für sich gelesen und unmittelbar in den eigenen Projektalltag übertragen werden kann. Wer die gesamte Reihe verfolgt, erhält einen systematischen Überblick über alle Kompetenzfelder.
| Nr. | Kompetenzfeld | Thema | Schwerpunkt |
| 1 | Anwenden | KI im Projektmanagement: Du nutzt sie schon — aber nutzt du sie wirklich? | Warum unsystematische KI-Nutzung zu enttäuschenden Ergebnissen führt — und wie Prompt-Qualität den Unterschied macht. |
| 2 | Tools & Felder | Die KI-Landschaft im Überblick | Welches Tool eignet sich für welche Aufgabe? Texterstellung, Recherche, Visualisierung und Automatisierung — strukturiert eingeordnet. |
| 3 | KI-Agenten | KI, die selbständig handelt: Was Projektleiter wissen müssen | Von der reaktiven Assistenz zum autonomen Agenten — was sich ändert, welche Chancen entstehen und welche Verantwortung damit einhergeht. |
| 4 | Anwenden | Fünf Prompts, die jeder Projektleiter kennen sollte | Ausgearbeitete Prompt-Vorlagen für Statusbericht, Protokoll, Risikoanalyse, Stakeholderanalyse und Projektplanentwurf. |
| 5 | Recherche | KI als Denkpartner: Wie Recherche wirklich funktioniert | Warum KI-Recherche grundlegend anders funktioniert als eine Internetsuche — und welche Prüfroutine zuverlässige Ergebnisse sichert. |
| 6 | Qualität | Wenn KI halluziniert | Wie Halluzinationen entstehen, wie man sie erkennt und welche einfachen Maßnahmen davor schützen, fehlerhafte Inhalte zu übernehmen. |
| 7 | Unternehmensrahmen | Was das Unternehmen leisten muss | Fünf Voraussetzungen, die erfüllt sein müssen, bevor KI im Projekt verantwortungsvoll genutzt werden kann — und was Projektleiter einfordern dürfen. |
| 8 | Recht | KI und Recht: Was du wissen musst | EU AI Act, DSGVO und Urheberrecht — Orientierungswissen für den Projektalltag, aufbereitet ohne juristische Fachsprache. |
| 9 | Verantwortung | KI im Team: Wer haftet, wenn etwas schiefgeht? | Verantwortung, Governance und das Gespräch, das Projektleiter mit ihrem Team über den Umgang mit KI führen müssen. |
| 10 | Verantwortung | KI einführen ohne Reibungsverluste | Wie KI-Nutzung im Team so eingeführt wird, dass weder unkritische Begeisterung noch stille Verweigerung die Arbeit bestimmen. |
| 11 | Qualität | Wann du KI bewusst nicht einsetzen solltest | Ein konkreter Kriterienkatalog für Situationen, in denen der Verzicht auf KI die bessere Entscheidung ist. |
| 12 | Ausblick | KI und ICB 5.0: Was auf Projektleiter zukommt | KI als künftiges Kompetenzelement in der ICB 5.0 — was sich heute bereits abzeichnet und wie man sich darauf vorbereiten kann. |
Es empfiehlt sich, mit dem Beitrag zu beginnen, der am nächsten an einer aktuellen Frage oder Herausforderung liegt. Wer die gesamte Reihe verfolgt, wird feststellen, dass die einzelnen Themen aufeinander aufbauen und sich wechselseitig ergänzen.
Andreas Frick ist Geschäftsführer der Projektforum Rhein Ruhr GmbH, IPMA Level A zertifizierter Trainer und Autor der Bücher „Projektkompetenz I & II“ (Springer, 2025). Er begleitet seit Jahren Projektmanager und Projektmanagerinnen auf dem Weg zur IPMA-Zertifizierung und entwickelt praxisnahe Lernformate an der Schnittstelle von Projektmanagement und digitaler Transformation.
