Wer die vorangegangenen Beiträge dieser Reihe gelesen hat, kennt die Möglichkeiten, die KI im Projektalltag eröffnet:
Statusberichte in einem Bruchteil der üblichen Zeit, strukturierte Risikoanalysen als Diskussionsgrundlage, Protokolle, die sich fast von selbst schreiben, Recherchen, die in Minuten einen Überblick liefern, der sonst Stunden beansprucht hätte. Es ist ein erhebliches Potenzial.
Dieser Beitrag stellt eine andere Frage. Nicht: Wie nutze ich KI möglichst gut? Sondern: Wann sollte ich KI bewusst nicht einsetzen? Diese Frage zu stellen, ist kein Rückschritt. Es ist ein Zeichen von Reife im Umgang mit dem Werkzeug. Wer ein Werkzeug wirklich beherrscht, weiß auch, für welche Aufgaben es nicht geeignet ist.
Im Folgenden werden sieben Kriterien beschrieben, die darauf hinweisen, dass der Verzicht auf KI in einer bestimmten Situation die bessere Entscheidung ist. Sie sind kein Plädoyer gegen KI. Sie sind ein Plädoyer für ein differenziertes Urteilsvermögen.
Sieben Kriterien für den bewussten Verzicht
| 1 | Wenn die Beziehungsebene entscheidend ist
Es gibt Gespräche und Situationen im Projekt, bei denen es nicht auf die präziseste Formulierung ankommt, sondern auf die persönliche Verbindung zwischen den Beteiligten. Ein schwieriges Feedbackgespräch mit einem Teammitglied, ein Krisengeräch mit einem Auftraggeber, ein Konfliktgespräch zwischen Stakeholdern: Diese Situationen leben davon, dass der Projektleiter präsent ist, zuhört und reagiert. Wer in solchen Momenten auf KI-vorbereitete Formulierungen zurückgreift, riskiert, authentisch zu wirken, obwohl er es nicht ist. Und das spüren die meisten Menschen. Beispiel: Ein Teammitglied hat persönliche Schwierigkeiten, die seine Arbeit beeinträchtigen. Das Gespräch darüber gehört dem Projektleiter, nicht einem KI-generierten Leitfaden. |
| 2 | Wenn echte Vertraulichkeit gefordert ist
Es gibt Informationen, die unter keinen Umständen das Unternehmen verlassen dürfen: laufende Verhandlungen, persönliche Informationen über Mitarbeitende, strategische Entscheidungen, die noch nicht kommuniziert sind, Inhalte aus vertraulichen Verträgen. Auch wenn Business-Versionen von KI-Tools datenschutzrechtlich besser abgesichert sind als Consumer-Versionen, gilt die Frage: Ist das Risiko, diese Information in ein externes System einzugeben, wirklich vertretbar? In manchen Fällen ist die Antwort Nein. Beispiel: Ein Unternehmenskauf, der sich in der Prüfungsphase befindet. Die Projektdokumentation zu diesem Vorhaben gehört nicht in ein KI-System, solange keine gesicherte rechtliche Grundlage vorliegt. |
| 3 | Wenn fachliches Urteilsvermögen unverzichtbar ist
KI strukturiert, formuliert und verdichtet. Sie ersetzt nicht das fachliche Urteil, das aus Erfahrung, Kontextwissen und dem Verständnis für die spezifische Situation entsteht. Wer eine technische Risikobewertung, eine juristische Einschätzung oder eine strategische Entscheidungsvorlage benötigt, die belastbar sein muss, kommt am menschlichen Fachurteil nicht vorbei. KI kann als erste Orientierung dienen. Die Verantwortung für das abschließende Urteil trägt ein Mensch. Beispiel: Die Einschätzung, ob ein bestimmtes technisches Risiko im Projekt akzeptiert oder eskaliert werden soll, erfordert das Urteil des zuständigen Fachexperten, nicht eines KI-Systems. |
| 4 | Wenn Kreativität und Originalität erwartet werden
KI generiert auf der Grundlage von Mustern, die aus Millionen von Texten gelernt wurden. Was dabei entsteht, ist statistisch wahrscheinlich und häufig qualitativ ordentlich. Was dabei in der Regel nicht entsteht, ist echte Originalität. Wenn ein Auftraggeber, ein Kunde oder ein Partner erwartet, dass eine Idee, ein Konzept oder eine Positionierung die spezifische Handschrift des Projekts und seines Teams trägt, ist KI-Unterstützung möglicherweise der falsche Ausgangspunkt. Beispiel: Ein Innovationsworkshop, in dem das Team aufgefordert wird, völlig neue Lösungsansätze zu entwickeln. Die Ideen sollten aus dem Team kommen, nicht aus einem KI-generierten Brainstorming-Katalog. |
| 5 | Wenn die Prüfung mehr aufwendet als die Erstellung
KI ist dann besonders nützlich, wenn sie Aufwand einspart. Sie ist weniger nützlich, wenn der Aufwand für die Prüfung des Outputs den Aufwand übersteigt, den man für eine direkte Erstellung gebraucht hätte. Das ist kein theoretischer Ausnahmefall. Es kommt vor, wenn der Kontext sehr spezifisch ist und viele Korrekturen notwendig werden, wenn das KI-System keinen ausreichenden Kontext hatte und das Ergebnis weitgehend umgeschrieben werden muss, oder wenn die Qualitätsanforderungen so hoch sind, dass jeder Satz geprüft werden muss. Beispiel: Ein stark reglementierter Vertragstext, für den sehr spezifische Formulierungen erforderlich sind. Hier ist es häufig effizienter, direkt zu schreiben, als einen KI-Entwurf vollständig umzuarbeiten. |
| 6 | Wenn ethische Abwägungen im Mittelpunkt stehen
Ethische Entscheidungen erfordern moralisches Urteilsvermögen, das aus Werten, Erfahrung und dem Verständnis für die Konsequenzen des eigenen Handelns entsteht. KI-Systeme können ethische Perspektiven darstellen und Argumente strukturieren. Sie können jedoch keine ethische Verantwortung übernehmen. Wer eine Entscheidung treffen muss, die moralische Abwägungen erfordert, etwa im Umgang mit schwierigen Personalentscheidungen, mit dem Umgang mit Projektfehlern oder mit dem Interessenkonflikt zwischen verschiedenen Stakeholdern, muss diese Verantwortung selbst tragen. Beispiel: Die Entscheidung, ob ein Projektfehler, der noch nicht bekannt ist, proaktiv kommuniziert wird oder abgewartet wird, ob er sich von selbst klärt. Diese Abwägung erfordert ein persönliches ethisches Urteil. |
| 7 | Wenn Schnelligkeit wichtiger ist als Qualität
Das mag paradox klingen, ist es aber nicht. KI braucht Zeit: Zeit für den Prompt, Zeit für die Ausgabe, Zeit für die Prüfung und Anpassung. Für sehr kurze, einfache Aufgaben, die jemand in zwei Minuten direkt erledigen kann, ist der Umweg über ein KI-System oft länger als der direkte Weg. Das gilt für kurze E-Mails in vertrauter Sprache, für Notizen nach einem Gespräch, für schnelle interne Absprachen. Der Werkzeugkasten bestimmt nicht, welches Werkzeug verwendet wird. Die Aufgabe bestimmt es. Beispiel: Eine kurze Bestätigungsmail an ein Teammitglied über einen Besprechungstermin. Diese zwei Sätze direkt zu schreiben, ist schneller als einen Prompt zu formulieren und das Ergebnis zu prüfen. |
Was diese sieben Kriterien gemeinsam haben
Bei näherer Betrachtung lassen sich die sieben Kriterien auf zwei Grundgedanken zurückführen.
Der erste ist die Frage nach der Verantwortung. Bei allem, was moralisches Urteil, persönliche Authentizität oder fachliche Kompetenz erfordert, lässt sich Verantwortung nicht delegieren, weder an ein Teammitglied noch an ein KI-System. Wer versucht, sie zu delegieren, übersieht, was den Kern professioneller Führung ausmacht.
Der zweite ist die Frage nach der Effizienz. KI ist dann nützlich, wenn sie Aufwand einspart und Qualität erzeugt. Ist das nicht der Fall, weil der Kontext zu spezifisch ist, die Prüfung zu aufwändig wird oder der direkte Weg schneller ist, dann ist KI in dieser Situation das falsche Werkzeug.
Eine Haltung, keine Checkliste: Die sieben Kriterien sind kein starres Schema, das für jede Entscheidung durchgearbeitet werden muss. Sie beschreiben eine Haltung: das Urteilsvermögen, situativ zu entscheiden, wann KI hilft und wann sie hindert. Dieses Urteilsvermögen entwickelt sich mit Erfahrung. Es ist der Kern dessen, was echte KI-Kompetenz ausmacht.
Der Zusammenhang mit den anderen Kompetenzfeldern
Dieser Beitrag steht nicht für sich allein. Er schließt den Kreis zu dem, was diese Reihe von Anfang an vermitteln wollte: KI-Kompetenz ist nicht die Fähigkeit, möglichst viel mit KI zu erledigen. Sie ist die Fähigkeit, KI so einzusetzen, dass sie dem Projekt und seinen Beteiligten tatsächlich dient.
Wer gute Prompts schreibt, weiß, was KI für ihn tun kann. Wer Halluzinationen erkennt, weiß, wo er ihr nicht vertrauen darf. Wer den rechtlichen Rahmen kennt, weiß, wo Grenzen gesetzt sind. Und wer die sieben Kriterien dieses Beitrags verinnerlicht hat, weiß, wann er das Werkzeug weglegt und selbst die Verantwortung übernimmt.
Der abschließende Beitrag dieser Reihe richtet den Blick nach vorn: Was bedeutet es, dass KI mit großer Wahrscheinlichkeit ein eigenständiges Kompetenzelement in der ICB 5.0 werden wird? Und wie können sich Projektmanagerinnen und Projektmanager heute darauf vorbereiten?
Andreas Frick ist Geschäftsführer der Projektforum Rhein Ruhr GmbH, IPMA Level A zertifizierter Trainer und Autor der Bücher „Projektkompetenz I & II“ (Springer, 2025). Er begleitet seit Jahren Projektmanagerinnen und Projektmanager auf dem Weg zur IPMA-Zertifizierung und entwickelt praxisnahe Lernformate an der Schnittstelle von Projektmanagement und digitaler Transformation.


