Ein Projektleiter, der selbst gelernt hat, KI kompetent einzusetzen, steht an einem bestimmten Punkt vor einer neuen Frage: Was gilt für sein Team?
In den meisten Projekten nutzen Teammitglieder KI bereits, oft eigenständig, oft ohne abgestimmte Spielregeln und manchmal ohne zu wissen, was dabei erlaubt ist und was nicht. Das ist kein Vorwurf an das Team. Es ist eine Konsequenz davon, dass KI-Tools so einfach zugänglich sind, dass ihre Nutzung weit schneller voranschreitet als die organisatorische und räumliche Rahmensetzung.
Dieser Beitrag befasst sich mit der Frage, was es bedeutet, wenn KI im Projektteam genutzt wird: Wer trägt die Verantwortung, wenn ein KI-generierter Output fehlerhaft ist und ungeprüft verwendet wurde? Wie lässt sich eine einfache, pragmatische Governance für das Team aufbauen? Und wie führt man das Gespräch, das nötig ist, damit KI im Team wirklich funktioniert?
Wer haftet, wenn etwas schiefgeht?
Die Antwort auf diese Frage ist unbequem, aber eindeutig: Der Projektleiter haftet. Nicht das KI-System, nicht der Anbieter des Tools, nicht das Teammitglied, das den Prompt formuliert hat. Die fachliche und organisatorische Verantwortung für die Ergebnisse des Projekts liegt beim Projektleiter, und diese Verantwortung erstreckt sich auch auf KI-generierte Outputs, die im Projekt entstanden und verwendet wurden.
Das klingt streng. Es ist aber keine neue Logik, sondern eine bekannte. Ein Projektleiter haftet heute auch dafür, wenn ein Teammitglied eine Kalkulation falsch durchgeführt hat und das Ergebnis ungeprüft in ein Angebot eingeflossen ist. Er haftet dafür, wenn ein Protokoll falsch mitgeschrieben und eine Entscheidung darauf aufbauend getroffen wurde. KI ändert die Frage nach der Verantwortung nicht. Sie verändert lediglich die Geschwindigkeit, mit der Fehler entstehen und sich verbreiten können.
Drei Szenarien aus der Praxis
Die folgenden drei Szenarien zeigen, wie Verantwortungsfragen im KI-Kontext konkret werden.
| Szenario 1 | Falscher Wert im Statusbericht
Situation: Ein Teammitglied nutzt KI, um einen Statusbericht zu erstellen. Die KI halluziniert eine Budgetzahl, die im Prompt nicht angegeben war. Das Teammitglied übernimmt den Entwurf ohne sorgfältige Prüfung. Der Bericht geht an den Lenkungskreis. Konsequenz: Der Projektleiter hat den Bericht freigegeben oder zumindest nicht verhindert, dass er so verwendet wird. Die Verantwortung für den fehlerhaften Inhalt liegt beim Projekt, nicht beim KI-System. |
| Szenario 2 | Personenbezogene Daten in einem Consumer-Tool
Situation: Ein Teammitglied gibt Namen und Leistungsdaten von Projektmitarbeitenden in ChatGPT Free ein, um einen Ressourcenplan zu erstellen. Es gibt keinen Auftragsverarbeitungsvertrag mit dem Anbieter. Konsequenz: Es liegt ein Verstoß gegen die DSGVO vor. Die Verantwortung liegt beim Unternehmen, in letzter Konsequenz aber auch beim Projektleiter, der keine klaren Spielregeln für sein Team definiert hatte. |
| Szenario 3 | KI-generierter Text in einem externen Dokument
Situation: Ein Teammitglied erstellt mit KI-Unterstützung einen Abschnitt für ein Angebot an einen Kunden. Der Text enthält eine sachlich falsche Aussage über eine technische Spezifikation. Das Angebot wird abgegeben und vom Kunden akzeptiert. Konsequenz: Das Unternehmen ist an den Angebotsinhalt gebunden. Der Fehler entstand durch ungeprüfte Übernahme eines KI-Outputs. Die Verantwortung liegt beim Projektleiter und beim Unternehmen. |
Diese Szenarien sind keine Konstruktionen für den Ausnahmefall. Sie beschreiben Situationen, die heute in Projekten vorkommen. Die entscheidende Frage ist nicht, ob solche Fehler passieren. Die Frage ist, ob das Team die Routinen hat, sie zu vermeiden.
Der Grundsatz: Ein KI-System übernimmt Ausführung, keine Verantwortung. Die Verantwortung für jeden Output, der im Projekt verwendet wird, bleibt beim Menschen, der ihn verwendet oder freigegeben hat.
Einfache Governance für das Projektteam
Governance klingt nach Verwaltungsaufwand. Für ein Projektteam muss es das nicht sein. Eine pragmatische KI-Governance im Projekt braucht keine umfangreichen Dokumente. Sie braucht Klarheit in drei Fragen: Was dürfen wir? Was müssen wir prüfen? Und wer ist wofür zuständig?
Was dürfen wir?
Diese Frage lässt sich nur beantworten, wenn die organisatorischen Voraussetzungen aus Artikel 7 dieser Reihe erfüllt sind: klare Tool-Freigabe, Datenschutzvertrag mit dem Anbieter, unternehmensweite KI-Policy. Fehlen diese Voraussetzungen, ist es Aufgabe des Projektleiters, für sein Team zumindest eine provisorische Antwort zu geben: Welche Tools sind mit vertretbarem Risiko einsetzbar? Was darf unter keinen Umständen eingegeben werden?
Eine einfache Regel, die ohne juristische Expertise auskommt: In nicht-abgesicherte Consumer-Tools gehören ausschließlich Informationen, die auch öffentlich zugänglich sein dürften. Alles andere wird anonymisiert oder bleibt außen vor.
Was müssen wir prüfen?
Nicht jeder KI-Output erfordert dieselbe Prüfintensität. Eine erste Gliederung für ein internes Brainstorming-Dokument stellt ein anderes Risiko dar als ein Statusbericht für den Lenkungskreis oder ein Abschnitt in einem Kundenangebot. Ein einfaches Stufenmodell schafft Klarheit:
– Interner Gebrauch, niedriges Risiko: KI-Output kann als Arbeitsgrundlage genutzt werden; Prüfung auf Plausibilität genügt. Beispiele: Ideensammlungen, erste Gliederungen, interne Notizen.
– Interner Gebrauch, mittleres Risiko: KI-Output wird inhaltlich geprüft, konkrete Zahlen und Fakten werden verifiziert. Beispiele: Protokolle, Risikolisten, Projektpläne.
– Externer Gebrauch oder Entscheidungsgrundlage: KI-Output wird vollständig gelesen, fachlich bewertet und vor der Verwendung vom Projektleiter oder einem benannten Verantwortlichen freigegeben. Beispiele: Statusberichte für den Lenkungskreis, Angebote, Vertragsunterlagen.
Wer ist wofür zuständig?
In einem Projektteam muss klar sein, wer KI-generierte Outputs für welche Verwendungszwecke freigeben darf. Das muss keine komplexe Regelung sein. Es genügt, wenn im Team besprochen und festgehalten ist: Outputs, die nach außen gehen oder als Grundlage für Entscheidungen dienen, werden vor der Verwendung vom Projektleiter oder einer benannten Person geprüft. Alles andere kann das Teammitglied eigenverantwortlich einsetzen.
Empfehlung für die Praxis: Halte diese drei Fragen in einem kurzen Dokument fest, das das Team kennt. Es muss keine Seite überschreiten. Wichtig ist nicht die Vollständigkeit, sondern dass alle Beteiligten wissen, was gilt, und dass es bei Fragen eine klare Anlaufstelle gibt.
Das Gespräch, das du mit deinem Team führen musst
Spielregeln für KI im Team können nicht per E-Mail versandt werden und damit als geklärt gelten. Sie brauchen ein Gespräch. Dieses Gespräch hat drei Ziele: Klarheit über die Regeln schaffen, ein gemeinsames Verständnis über den sinnvollen Umgang mit KI aufbauen und Raum für Fragen und Bedenken geben.
Das Gespräch ist auch deshalb wichtig, weil KI im Team häufig zwei gegenteilige Reaktionen auslöst: Überbegeisterung bei denjenigen, die KI als universelle Lösung für alle Aufgaben betrachten, und stille Zurückhaltung bei denjenigen, die unsicher sind, ob KI-Nutzung erwartet wird, oder die befürchten, dass ihre eigene Arbeit dadurch entwertet wird. Beide Haltungen können den produktiven Einsatz von KI im Team behindern, wenn sie nicht angesprochen werden.
Was in das Gespräch gehört
– Warum das Thema besprochen wird. Nicht weil KI ein Problem ist, sondern weil der Projektleiter sicherstellen will, dass das Team KI sinnvoll und sicher einsetzen kann. Das ist eine andere Rahmung als eine Anordnung und führt zu einem anderen Gespräch.
– Welche Tools freigegeben sind und warum. Nicht nur die Entscheidung, sondern auch die Begründung. Wer versteht, warum Consumer-Versionen für bestimmte Inhalte ungeeignet sind, wird die Regel eher einhalten als jemand, der nur eine Vorschrift kennt.
– Was geprüft werden muss und was nicht. Das Stufenmodell aus dem vorigen Abschnitt eignet sich gut als Grundlage. Konkrete Beispiele aus dem eigenen Projekt machen es greifbarer.
– Wie mit Fehlern umgegangen wird. Wer einen KI-Fehler entdeckt oder einen Datenschutzverstoß bemerkt, soll ihn melden können, ohne Konsequenzen fürchten zu müssen. Eine Kultur, in der Fehler vertuscht werden, ist gefährlicher als eine, in der sie offen angesprochen werden.
Raum für Fragen und Erfahrungen. KI-Nutzung im Projektalltag ist für viele Teammitglieder neu. Wer Fragen stellen kann und Erfahrungen teilen darf, lernt schneller und macht weniger Fehler. Das Gespräch ist auch ein Lernformat.
Wie das Gespräch nicht sein sollte
Ein häufiger Fehler: Das Gespräch über KI im Team wird als Sicherheitsunterweisung gestaltet. Eine Liste von Verboten, ein Hinweis auf die Datenschutzrichtlinie, und das war es. Das verfehlt das Ziel. Ein solches Gespräch erzeugt Zurückhaltung statt Kompetenz und führt dazu, dass Teammitglieder KI entweder gar nicht oder heimlich nutzen.
Das Gespräch sollte eine echte Auseinandersetzung mit dem Thema sein: Was nutzen wir bereits? Wo hat es geholfen, wo hat es nicht funktioniert? Was brauchen wir, um es besser zu nutzen? Dieser Austausch baut das gemeinsame Verständnis auf, das keine Richtlinie ersetzen kann.
Ein konkreter Vorschlag: Plane für das Gespräch über KI im Team eine halbe Stunde im nächsten Teammeeting ein. Nicht als Tagesordnungspunkt „KI-Policy“, sondern als offene Runde: Was nutzt ihr bereits? Was hat funktioniert, was nicht? Dann die Spielregeln vorstellen und begründen. Dieser Einstieg ist wirksamer als jede schriftliche Anweisung.
Was du als Projektleiter konkret tun kannst
Aus den drei Themenblöcken dieses Beitrags lassen sich vier unmittelbar umsetzbare Schritte ableiten.
– Das Gespräch über KI im Team einplanen. Nicht warten, bis ein Fehler passiert. Das Gespräch sollte stattfinden, bevor KI-Nutzung im Team zur Selbstverständlichkeit wird, ohne dass jemand weiß, was dabei gilt.
– Drei Fragen schriftlich beantworten. Was dürfen wir einsetzen? Was müssen wir prüfen? Wer ist wofür zuständig? Diese drei Antworten auf einer halben Seite sind ausreichend als Governance-Grundlage für ein Projektteam.
– Prüfpunkte in bestehende Prozesse einbauen. Die Prüfung von KI-generierten Outputs muss keine neue Bürokratie sein. Sie lässt sich in bestehende Freigabeprozesse integrieren: Wer einen Bericht oder ein Dokument zur Freigabe vorlegt, gibt dabei an, ob und wie KI eingesetzt wurde.
– Selbst Vorbild sein. Wer als Projektleiter offen über seine eigene KI-Nutzung spricht, welche Ergebnisse gut waren, wo er nachgebessert hat, wo er KI bewusst nicht eingesetzt hat, schafft eine Atmosphäre, in der das Team ähnlich reflektiert vorgehen kann.
Der nächste Beitrag setzt an einem anderen Punkt an: nicht bei den Regeln, sondern bei der Frage, wie die Einführung von KI im Projektalltag so gestaltet werden kann, dass sie tatsächlich angenommen wird. Denn zwischen dem, was möglich ist, und dem, was im Team wirklich genutzt wird, liegt oft mehr als eine Schulung.
Andreas Frick ist Geschäftsführer der Projektforum Rhein Ruhr GmbH, IPMA Level A zertifizierter Trainer und Autor der Bücher „Projektkompetenz I & II“ (Springer, 2025). Er begleitet seit Jahren Projektmanagerinnen und Projektmanager auf dem Weg zur IPMA-Zertifizierung und entwickelt praxisnahe Lernformate an der Schnittstelle von Projektmanagement und digitaler Transformation.



