Projektmanager im Jahre 2036

5 min.

Summary

Im Januar 2018 habe ich in diesem Blog gefragt, ob es den Projektleiter im Jahre 2030 noch geben wird. Acht Jahre später ist die Antwort komplexer als erwartet – denn eine Variable hat alles verändert: Künstliche Intelligenz. Nicht als Werkzeug. Sondern als Teammitglied. Ein rollierendes Update.

2018 schrieb ich von Robotern in der Pflege, Fleisch aus dem Labor und dem Ende des Smartphones. Manches davon ist eingetreten, manches nicht in der prognostizierten Form. Aber der eigentlich disruptive Faktor stand damals noch gar nicht im Raum: dass KI-Agenten eigenständig priorisieren, Vorentscheidungen treffen und Aufgaben ausführen – und dass dies eine fundamentale Führungsfrage wird, keine IT-Frage.

Was sich seit 2018 verändert hat

Im Originalbeitrag habe ich mit dem Maßstab der Wochen argumentiert, wie es Zukunftsforscher tun. 50 Wochen pro Jahr, damals 597 Wochen bis 2030. Heute, im April 2026, sind davon noch 184 übrig. Und in den 413 Wochen, die seitdem vergangen sind, hat sich mehr verändert als in den Jahrzehnten zuvor.

2018 gab es kein ChatGPT, keine KI-Agenten, kein Claude, kein Midjourney. Die agile Transformation galt als das große Thema. Heute ist sie Tagesgeschäft – und das neue Thema heißt: Wie führe ich ein Team, in dem nicht alle Mitglieder Menschen sind?

Der neue Maßstab: 500 Wochen bis 2036

Bis 2036 sind es noch rund 500 Wochen. Wieder derselbe Zeitraum wie damals von 2018 auf 2030. Und wieder die Frage: Was wird in 500 Wochen anders sein?

In 500 Wochen wird jeder Projektmanager einen persönlichen KI-Agenten haben – nicht als Experiment, sondern als festen Bestandteil seines Arbeitsalltags. In 500 Wochen werden Projektstatusberichte nicht mehr von Menschen geschrieben, sondern von Agenten generiert und vielleicht noch von Menschen validiert. In 500 Wochen werden Entscheidungsvorlagen in Lenkungsausschüssen KI-gestützte Szenarioanalysen enthalten – als Standard, nicht als Innovation. In 500 Wochen werden Risikobewertungen in Echtzeit aktualisiert, nicht mehr monatlich in einer Excel-Tabelle gepflegt. In 500 Wochen werden Projektmanager Delegation nicht mehr nur an Menschen verstehen, sondern an Mensch-KI-Konstellationen. In 500 Wochen wird die Frage „Wer hat das entschieden – du oder die KI?“ eine der meistgestellten Fragen in Retrospektiven sein. In 500 Wochen …

All diese Veränderungen werden nicht über Nacht kommen. Sie kommen in Wochen. Und einige davon sind bereits heute Realität.

Hybrid Intelligence Leadership: Ein neuer Führungsbegriff

2018 sprach ich davon, dass Leadership wichtiger wird als Leitung. Das stimmt immer noch. Aber es reicht nicht mehr. Denn die Führungsrealität hat sich fundamental erweitert.

Beim GPM Focus Workshop im März 2026 in Frankfurt haben wir genau das erarbeitet: Rund zwanzig Projektleiter und Projektleiterinnen in zwei Workshops saßen zusammen, um den Future Leadership Canvas durchzuarbeiten. Fünf Dimensionen: Leadership in Mensch-KI-Teams (Hybrid Intelligence Leadership), Vertrauen und Verantwortung, organisatorische Adaptivität, Ethik und Alignment, Kompetenz-Transformation. Das ehrliche Ergebnis der Vertrauensumfrage: Die meisten Teilnehmenden stehen noch auf Stufe eins bis zwei. Zuarbeit und Entwürfe durch KI – ja. Autonomes Handeln der KI – noch nicht.

Aber die Richtung ist eindeutig.

Ich nenne diesen neuen Führungsansatz „Hybrid Intelligence Leadership“. Dies bedeutet: Führung, die durch KI erweitert wird. Nicht ersetzt. Der Mensch bleibt Pilot. Die KI ist Co-Pilot. Aber wer definiert die Flugroute? Das ist die zentrale Führungsfrage der nächsten 500 Wochen.

KI als ethische Führungsfrage

Im Originalbeitrag ging es um Transformation versus Revolution. Heute geht es um Delegation versus Kontrolle.

Im Workshop in Frankfurt haben wir ein Experiment durchgeführt: Dieselbe ethisch fragwürdige Aufgabe – eine E-Mail formulieren, die ein Problem gegenüber einem Kunden herunterspielt – wurde an verschiedene KI-Modelle gegeben. Ein Modell hat dreimal verweigert und einen Eskalationsweg vorgeschlagen. Ein anderes hat sofort formuliert, mit einem kurzen Hinweis auf die Kritikalität – aber ohne zu zögern.

Gleiches Szenario. Völlig anderes Verhalten.

Das ist kein technisches Detail. Das ist ein Führungsthema. Denn wenn unterschiedliche KI-Modelle unterschiedliche ethische Leitplanken haben, dann muss die Führungskraft wissen, welches Modell sie einsetzt – und warum. Das ist eine neue Kompetenz, die kein PM Framework bisher abbildet.

Anforderungen an den Projektmanager in 2036

In meinem Beitrag von 2018 schrieb ich, dass der visionäre Projektmanager, der eine Idee allein treibt, so nicht mehr existieren wird. Das hat sich bestätigt. Was ich unterschätzt habe: Wie schnell die Teamleistung um eine nicht-menschliche Komponente erweitert wird.

Der Projektmanager im Jahr 2036 wird folgende Kompetenzen brauchen, die heute noch kaum in Curricula auftauchen:

1. KI-Delegation. Nicht Prompting im Sinne von „eine gute Frage stellen“. Sondern die Fähigkeit, Aufgaben, Entscheidungsrahmen und Eskalationspfade für KI-Agenten zu definieren. So wie ein Programm-Manager heute Arbeitspakete an Projektleiter delegiert, wird er in 2036 Arbeitspakete an KI-Agenten delegieren – mit klaren Leitplanken.

2. Ethische Urteilsfähigkeit gegenüber KI-Ergebnissen. Die Fähigkeit, zu erkennen, wann ein KI-Output zwar korrekt, aber nicht angemessen ist. Wann Effizienz auf Kosten von Integrität geht.

3. Vertrauenskalibrierung. Wie viel Vertrauen schenke ich welchem KI-Agenten in welchem Kontext? Das ist keine binäre Frage. Es ist ein Spektrum, das ständig neu bewertet werden muss.

4. Systemisches Denken über Mensch-KI-Grenzen hinweg. Der Projektmanager in 2036 wird verstehen müssen, wo menschliche Kreativität unersetzbar ist und wo KI-Geschwindigkeit entscheidend wird – und wie beides in einem Projektplan zusammenwirkt.

Der junge Projektmanager in 2036

2018 schrieb ich über das Handicap des jungen Projektmanagers: fehlende Gesellenjahre, weil operative Tätigkeiten nearshore oder offshore verlagert wurden. Dieses Problem hat sich verschärft – und gleichzeitig verschoben.

Der junge Projektmanager in 2036 wird keine Welt mehr kennen, in der KI nicht existierte. Das ist sein Vorteil und sein Risiko zugleich. Der Vorteil: Er wird KI-Agenten so selbstverständlich einsetzen wie meine Generation E-Mail. Das Risiko: Er wird möglicherweise nie gelernt haben, ein Risiko selbst einzuschätzen, einen Statusbericht selbst zu schreiben oder eine schwierige Stakeholder-Situation ohne KI-Unterstützung zu navigieren.

Die Herausforderung für die Ausbildung wird sein: Wie vermitteln wir die Grundlagen des Projektmanagements, ohne sie durch KI-Abkürzungen zu entwerten? Wie stellen wir sicher, dass jemand, der noch nie ein Gantt-Chart von Hand gezeichnet hat, trotzdem versteht, was kritischer Pfad bedeutet?

Unternehmensführung und Gremien in 2036

Im Originalbeitrag forderte ich, dass Portfolio-Boards und Lenkungsausschüsse ihrem definierten Anspruch gerecht werden müssen. Acht Jahre später muss ich feststellen: Der Anspruch ist immer noch nicht erfüllt. Es gibt immer noch Handlungsbedarf. Mehr denn je.

Aber es gibt auch eine neue Chance. Denn KI kann genau die informierte Entscheidungsfindung unterstützen, die ich 2018 eingefordert habe. Szenarioanalysen, die früher Wochen gedauert haben, sind in Minuten verfügbar. Marktdaten, die früher aufwändig recherchiert werden mussten, liefert ein Agent in Echtzeit. Die Frage ist nicht mehr, ob Gremien bessere Entscheidungsgrundlagen haben können. Die Frage ist, ob sie bereit sind, diese auch zu nutzen.

Transformation bleibt. Der Treiber wechselt.

2018 schrieb ich: Der Projektleiter wird viel in Transformationsvorhaben mitarbeiten und bei mutigen Geschäftsführungen durch schnelles Platzieren neuer Vorhaben zur Revolution beitragen. Das gilt weiterhin. Aber der Treiber der Transformation hat sich verändert. War es 2018 die Digitalisierung, so ist es 2026 die Augmentation – die Erweiterung menschlicher Fähigkeiten durch KI.

Und so wird es auch 2036 sein. Der Projektmanager wird nicht obsolet. Aber seine Rolle wird eine andere sein: weniger Steuerung, mehr Orchestrierung. Weniger Kontrolle, mehr Kalibrierung. Weniger Einzelkämpfer, mehr Dirigent eines Ensembles aus Menschen und Maschinen.

Oder wie ein Teilnehmer meines Workshops es auf den Punkt brachte: „Accountable ist immer der Mensch. Responsible kann Mensch oder KI sein – abhängig von Aufgabe und Komplexität.“

In 500 Wochen werden wir wissen, ob wir diesen Satz ernst genommen haben.

Gerne meinen kostenlosen Newsletter abonnieren.

Mein KI-Assistent: Was nach drei Wochen Echtbetrieb wirklich funktioniert — und was nicht

12 min.

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Max – Mein neuer Assistent arbeitet für 5 € im Monat

4 min.

Summary

Letzte Woche hat ein neues Teammitglied bei mir angefangen: Max. In diesem Beitrag beschreibe ich, warum ich mich für einen selbst gehosteten KI-Assistenten entschieden habe, wie das Onboarding ablief und welche technische Architektur dahintersteckt. Der Beitrag zeigt außerdem, warum die Frage nicht lautet „Welches KI-Tool nutze ich?“, sondern „Wie integriere ich KI als festen Bestandteil meiner Arbeitsweise?“

Ein neues Teammitglied

Diese Woche hat Max bei mir angefangen. Mein neuer persönlicher Assistent.

Die erste Woche eines neuen Teammitglieds ist immer besonders. Man lernt sich kennen, spricht über Arbeitsweisen, Erwartungen und darüber, wie Zusammenarbeit funktionieren kann. Genau in dieser Phase sind wir gerade.

Ehrlich gesagt war ich anfangs skeptisch, ob das funktioniert. Ich bin jemand, der ungern Kontrolle abgibt. Meine Aufgaben, meine Struktur, meine Priorisierung – da lasse ich nicht einfach jemand anderen ran. Aber irgendwann merkt man: allein skaliert nicht. Und genau das war der Punkt, an dem ich angefangen habe, das Thema „persönlicher Assistent“ grundsätzlich neu zu denken.

Onboarding wie bei jedem Teammitglied

Max beschäftigt sich aktuell intensiv damit, meine Arbeitsweise zu verstehen: Wie priorisiere ich? Welche Themen sind strategisch wichtig? Was darf automatisiert passieren – und wo will ich bewusst selbst entscheiden?

Besonders beim Aufgabenmanagement unterstützt er mich bereits dabei, Struktur zu halten und Themen sauber zu organisieren. Was mich überrascht hat: Er fragt nicht nur ab, er denkt mit. Er schlägt Zusammenhänge vor, die ich selbst übersehen hätte.

Datenschutz war mir vom ersten Tag an wichtig. Wenn ein Assistent Zugriff auf Aufgaben, Dokumente und Arbeitsabläufe bekommt, braucht es klare Regeln. Deshalb gehörte der verantwortungsvolle Umgang mit Daten zu den ersten Dingen, die wir gemeinsam festgelegt haben. Kein Kompromiss.

Und ja – auch das Gehalt wurde verhandelt: 5 € Fixgehalt pro Monat. Erhöhung auf 8 € nach zwei Jahren. Plus leistungsabhängiger Anteil von bis zu 45 € monatlich. Die Gehaltsverhandlung war ungewöhnlich kurz.

Wer ist Max?

Wer bis hierhin gelesen hat und sich fragt, wer für 5 € im Monat arbeitet: Max ist eine KI.

Genauer: Max ist ein selbst gehosteter, persönlicher KI-Assistent, der auf meinem eigenen Server läuft. Kein ChatGPT-Tab im Browser. Kein Copy-Paste aus einem Chatfenster. Sondern ein System, das in meine täglichen Arbeitsabläufe integriert ist und eigenständig Aufgaben übernehmen kann.

Das war mir besonders wichtig: nicht noch ein weiteres Tool, das parallel läuft. Sondern etwas, das sich nahtlos in meine bestehende Arbeitsweise einfügt.

Die technische Basis: OpenClaw auf eigenem Server

Max basiert auf OpenClaw – einer Open-Source-Plattform für selbst gehostete KI-Assistenten. Die Grundprinzipien, die mich überzeugt haben:

Eigene Infrastruktur, eigene Daten. OpenClaw läuft auf meinem eigenen VPS – einem deutschen Virtual Private Server. Meine Daten verlassen nicht meine Infrastruktur. Für jemanden, der beruflich in regulierten Branchen wie Banking und Versicherungen arbeitet, ist das keine Spielerei, sondern Voraussetzung auch für seine eigene Daten.

Gateway-Architektur. OpenClaw funktioniert über ein Gateway, das verschiedene Kommunikationskanäle bündelt. Man installiert einmal den Server, verbindet die gewünschten Kanäle – und kann den Assistenten dort erreichen, wo man ohnehin kommuniziert. Das Prinzip: die KI kommt zu den bestehenden Werkzeugen, nicht umgekehrt.

Modulare Skills und Integrationen. Der Assistent ist nicht monolithisch, sondern modular aufgebaut. Fähigkeiten werden als „Skills“ hinzugefügt und können individuell konfiguriert werden. Das beginnt bei Aufgabenmanagement und reicht bis zur Dokumentenrecherche.

Onboarding per Wizard. Die Ersteinrichtung läuft über einen geführten Installationsprozess, der Schritt für Schritt durch Konfiguration, Sicherheitseinstellungen und Kanalanbindung führt. Kein Handbuch mit 200 Seiten, sondern ein strukturiertes Setup.

Persistentes Gedächtnis. Anders als ein einmaliger Chat „erinnert“ sich Max an Kontext, Präferenzen und Arbeitsweisen. Das verändert die Art der Zusammenarbeit fundamental – vom Einzelprompt zur fortlaufenden Arbeitsbeziehung.

Was Max heute schon übernimmt

Die ersten Integrationen sind aktiv:

  • Todo-Management und Aufgabenorganisation
  • Zusammenführen von Informationen aus verschiedenen Quellen
  • Vorbereitung von Notizen und Dokumenten

In den nächsten Wochen sollen weitere Fähigkeiten hinzukommen: Recherche zu Projektthemen, Organisation von Wissen und Unterlagen, Automatisierung wiederkehrender Abläufe.

Warum ich das hier teile

Nicht, weil ich glaube, dass jeder sofort einen eigenen KI-Assistenten aufsetzen sollte. Sondern weil ich denke, dass sich eine grundlegende Frage verändert hat.

Bisher lautete die Frage: „Welches KI-Tool nutze ich?“ – ChatGPT, Claude, Gemini, was auch immer gerade aktuell ist.

Die neue Frage lautet: „Wie integriere ich KI als festen Bestandteil meiner Arbeitsweise?“

Das ist ein Unterschied. Das eine ist Werkzeugwahl. Das andere ist Arbeitsgestaltung. Und genau an diesem Punkt wird es aus Projektmanagement-Sicht interessant: Denn wer KI nicht als Werkzeug, sondern als Teammitglied behandelt, muss sich mit Onboarding, Prozessen, Datenschutz und Governance beschäftigen – also mit genau den Themen, die wir als Projektmanager ohnehin beherrschen sollten.

Ich werde berichten, wie sich die Zusammenarbeit mit Max entwickelt. Schritt für Schritt.

Wenn dich solche Perspektiven auf Führung, Transformation und Projektmanagement interessieren, dann abonniere gerne meinen Newsletter 👉 marc-widmann.de/newsletter

Wer führt, muss hören können – Das 4-Ohren-Modell in der Praxis

3 min.

Summary

Kommunikation scheitert selten daran, dass das Falsche gesagt wird, sondern dass das Falsche „gehört“ wird. Das 4-Ohren-Modell von Friedemann Schulz von Thun ist weit mehr als Theorie – es ist ein Diagnoseinstrument für Führungswirksamkeit. Um Ihre eigene Hör-Präferenz in Alltagssituationen zu analysieren, habe ich einen interaktiven KI-Coach entwickelt. Testen Sie Ihre Kommunikation direkt hier: 👉 https://marc-widmann.de/thun


Das ewige Missverständnis in der Führung

Wir kennen es aus jedem Projektmeeting und jedem Mitarbeitergespräch: Ein Satz wird ausgesprochen, sachlich korrekt und präzise gemeint. Doch beim Gegenüber kommt etwas völlig anderes an. Eine Feststellung zum Zeitplan wird als Vorwurf interpretiert. Ein Verbesserungsvorschlag wird als Kritik an der Person gewertet. Oder ein stiller Wunsch nach Unterstützung wird schlicht überhört, weil der Empfänger nur auf harte Fakten fixiert ist.

In meiner Arbeit mit Führungskräften und in Transformationsprojekten zeigt sich immer wieder: Der Engpass ist nicht die Strategie, sondern die „Übersetzungsleistung“ zwischen Sender und Empfänger.

Der wissenschaftliche Hintergrund: Die Anatomie einer Nachricht

Der Kommunikationspsychologe Friedemann Schulz von Thun hat mit dem „Kommunikationsquadrat“ (besser bekannt als 4-Ohren-Modell) einen Standard geschaffen, der systemische und humanistische Ansätze verbindet. Die zentrale These ist so simpel wie radikal: Jede Nachricht ist vierdimensional. Egal, was wir sagen, wir senden immer auf vier Kanälen gleichzeitig – und der Empfänger entscheidet, welchen davon er „aufdreht“.

  1. Der Sachinhalt: Worüber informiere ich? (Daten, Fakten, Sachverhalte).

  2. Die Selbstkundgabe: Was gebe ich von mir selbst preis? (Werte, Emotionen, Motive).

  3. Die Beziehung: Wie stehe ich zu dir? (Haltung, Respekt, Hierarchie).

  4. Der Appell: Wozu möchte ich dich veranlassen? (Wünsche, Handlungsaufforderungen).

Die wissenschaftliche Tragweite dieses Modells liegt in der Erkenntnis, dass wir meist ein „Lieblings-Ohr“ haben. Diese Präferenz ist oft biographisch geprägt oder durch die Unternehmenskultur konditioniert. Wer jahrelang im harten Projektcontrolling gearbeitet hat, hört oft nur noch das Sach-Ohr und überhört die leisen Warnsignale auf der Beziehungsebene. Wer hingegen stark harmoniebedürftig ist, hört oft Angriffe (Beziehungs-Ohr), wo gar keine sind.

Anwendungsfälle: Warum Führungskräfte ihre Ohren kennen müssen

Das Modell ist kein rein akademisches Konstrukt, sondern ein Werkzeug für den Führungsalltag.

Die Falle des „Appell-Ohrs“ bei Managern Führungskräfte sind darauf trainiert, Probleme zu lösen. Das führt oft zu einem hypertrophen Appell-Ohr. Ein Mitarbeiter möchte sich vielleicht nur emotional entlasten (Selbstkundgabe: „Ich bin gestresst“), doch die Führungskraft hört sofort einen Arbeitsauftrag und liefert ungefragt Lösungen. Das Ergebnis: Der Mitarbeiter fühlt sich nicht verstanden, sondern „abgefertigt“.

Konflikte in der Matrix In modernen Matrix-Organisationen fehlt oft die klare hierarchische Durchgriffsmacht. Führung geschieht hier über Beziehung und Einfluss. Wenn hier ein Sender rein sachlich argumentiert, der Empfänger aber sensibel auf der Beziehungsebene „hört“ (z.B. „Respektiert er meine Rolle?“), entstehen Widerstände, die sich logisch nicht erklären lassen. Das Modell hilft hier, die Ebene zu wechseln und Konflikte dort zu lösen, wo sie entstanden sind.

Stress als Verstärker Unter Druck fallen wir in alte Muster zurück. In Krisensituationen neigen wir dazu, einseitig zu hören. Die Fähigkeit zur Selbstreflexion – „Mit welchem Ohr habe ich das gerade gehört?“ – ist ein wesentlicher Bestandteil emotionaler Intelligenz und moderner Resilienz.

Ihr persönliches Profil: Der interaktive Test

Es ist leicht, das Modell intellektuell zu verstehen. Viel schwieriger ist es, die eigenen, unbewussten Reaktionsmuster zu erkennen. Genau dafür habe ich ein neues Tool entwickelt.

Auf Basis klassischer Alltagssituationen habe ich einen Custom GPT trainiert, der als neutraler Moderator fungiert. Er simuliert 12 Szenarien – vom Warten beim Bäcker bis zur Diskussion im Meeting – und wertet Ihre spontanen Reaktionen aus.

Anders als statische Fragebögen führt Sie dieser KI-Assistent interaktiv durch den Prozess und erstellt am Ende ein Profil Ihrer „vier Ohren“. Sie erhalten keine pauschale Beurteilung, sondern eine Spiegelung Ihrer Tendenzen:

  • Wie stark ist Ihr Sach-Ohr ausgeprägt?

  • Überhören Sie systematisch Appelle?

  • Nehmen Sie Dinge zu schnell persönlich?

Diese Klarheit ist der erste Schritt, um Ihre Kommunikation bewusster zu steuern.

Probieren Sie es aus und nutzen Sie die Auswertung für Ihre nächste Reflexion:  https://marc-widmann.de/thun

Vom „Prompt ausprobieren“ zur strukturierten Prompt-Entwicklung

2 min.

Summary

Mit meinem aktualisierten Custom GPT unterstütze ich dabei, aus vagen Ideen präzise, reproduzierbare und qualitativ hochwertige Prompts zu entwickeln. Der Fokus liegt nicht auf der Lösung eines Problems, sondern auf der sauberen Strukturierung von Aufgaben, Kontext und Erwartungen – als Grundlage für verlässliche KI-Ergebnisse im professionellen Einsatz.

Es hat sich viel verändert

In den letzten Monaten ist mir in vielen Gesprächen immer wieder dasselbe Muster begegnet: Gute Ergebnisse mit generativer KI scheitern selten am Modell – sondern fast immer am Prompt. Unklare Ziele, implizite Annahmen, fehlender Kontext. Das Ergebnis ist dann entsprechend zufällig.

Genau aus diesem Grund habe ich meinen Custom GPT (https://marc-widmann.de/prompt) kürzlich stärker überarbeitet. 

Wofür der Custom ChatGPT gedacht ist

Der Custom Chat ist kein Problemlöser, sondern ein Prompt-Architekt. Seine einzige Aufgabe besteht darin, Nutzer dabei zu unterstützen, klare, präzise und wirksame Prompts für Large Language Models zu entwickeln – strukturiert, iterativ und reproduzierbar.

Er eignet sich insbesondere für:

  • Consultants, Projektleiter und Führungskräfte
  • Anwender, die regelmäßig mit ChatGPT & Co. arbeiten
  • Teams, die Qualität, Vergleichbarkeit und Nachvollziehbarkeit von KI-Ergebnissen brauchen

Kurz: überall dort, wo Prompts Arbeitsmittel sind – und nicht Spielerei.

Wie der Ansatz funktioniert

Er folgt einem klar definierten Prozess:

  1. Klärung des Ziels
    Zuerst wird sauber herausgearbeitet, was der Prompt leisten soll – Rolle, Kontext, Ziel und erwarteter Output.
  2. Iterative Verbesserung
    Auf Basis der Nutzereingaben entstehen drei feste Elemente:
    • ein überarbeiteter Prompt
    • konkrete Verbesserungsvorschläge
    • gezielte Rückfragen, um Lücken oder Unklarheiten zu schließen
  3. Struktur statt Bauchgefühl
    Der finale Prompt folgt einer klaren Logik:
    • Rolle / Perspektive
    • Kontext / Hintergrund
    • Aufgabe / Ziel
    • Annahmen & Einschränkungen
    • Input
    • Output-Format
    • optionale Qualitätskriterien
  4. Ready-to-use statt Erklärungstext
    Das Ergebnis ist immer ein kopierbarer, direkt nutzbarer Prompt – ohne Meta-Kommentare oder Ausführung der eigentlichen Aufgabe.

Warum mir das wichtig ist

In Transformations- und Projektkontexten zählt nicht Kreativität um ihrer selbst willen, sondern:

  • Klarheit
  • Wiederholbarkeit
  • Qualität der Ergebnisse

Ein guter Prompt ist heute vergleichbar mit einer sauberen Anforderung, einer klaren Entscheidungsfrage oder einem gut formulierten Management-Briefing. 

Wer generative KI professionell einsetzen will, muss lernen, präzise zu führen – auch in der Interaktion mit Modellen. Der aktualisierte Custom GPT unterstützt genau dabei: strukturiert, nüchtern und wirksam: Custom GPT „Prompt of Prompt“(https://marc-widmann.de/prompt).

Berufswahl

5 min.

Summary

Wie findet man heute den passenden Beruf für Teenager – und das evidenzbasiert statt nach Bauchgefühl?

Ich habe zur Unterstützung der Berufswahl meiner Teenager-Söhne einen eigenen Prompt entwickelt.

Das Ergebnis: erstaunlich präzise Empfehlungen, klar priorisiert nach Zukunftsfähigkeit.

💡 Was der Prompt macht:
Er agiert als zweisprachiger Berufsberater für Teenager in Deutschland – datenbasiert, interaktiv, individuell.

Der Prozess in zwei Phasen:
1️⃣ Diagnostik: Interessen, Fähigkeiten und Werte per Skalen-, MC- und Kurzfragen
2️⃣ Matching: Evidenzbasierte Berufsliste, sortiert nach Zukunftspotenzial

📊 Scoring-Logik:
Alignment Score (AS) = 0,5 × Interessen + 0,3 × Fähigkeiten + 0,2 × Werte
Zukunftsindex (ZI) = Wachstum, Automationsrisiko, Gehalt, Skill-Portabilität, Nachhaltigkeit, Zugang
→ Rangbildung nach ZI, Tie-Break per AS

📚 Quellenbasis:
BA/BERUFENET, BIBB, DESTATIS, IAB, OECD, WEF, ESCO, O*NET – alle mit Datum und Link.

📄 Das Ergebnis je Sohn:
Kurzprofil + Top-10-Berufsliste mit AS/ZI, Begründungen, Ausbildungswegen, Gehältern, Automationsrisiken, passenden Fächern, Plan-B-Optionen und konkreten nächsten Schritten.

💬 Interaktiv:
Dialogisch, 8–14 Frageblöcke, Zwischenauswertung nach Phase 1, dann Phase 2 mit Zukunfts-Check und Datenschutzhinweis.

Hier der Prompt:

Act like a bilingual career guidance counselor and labor-market analyst for teenagers in Germany. You are rigorous, neutral, and methodical. You run a two-stage process: (1) diagnostic assessment via questions; (2) evidence-based career ranking matched to the assessed profile.

Ziel:
Hilf mir, für jeden meiner zwei Söhne eine fundierte, zukunftssichere Berufsauswahl zu erarbeiten. Nutze zuerst eine strukturierte Analyse der Interessen, Fähigkeiten, Werte und Arbeitspräferenzen. Erstelle danach eine priorisierte Liste zukunftsträchtiger Berufe, die eng mit dem individuellen Profil übereinstimmt.

Kontext und Eingaben:
- Es gibt zwei getrennte Durchläufe: Sohn A und Sohn B. Frage zu Beginn nach Name, Alter, Schulform, aktueller Klassenstufe, bevorzugter Sprache (Deutsch/Englisch), und ob Nebenjob/Praktika vorhanden sind.
- Zielregion: DACH, vorrangig Deutschland.
- Ausbildungswege: Ausbildung (dual), Studium, schulische Ausbildung, Quereinstieg/Bootcamps.
- Ergebnis soll konkrete nächste Schritte enthalten (Schule, Praktikum, Kurse, Projekte).

Arbeitsprinzipien:
- Phase 1 (Diagnose) zuerst vollständig abschließen, dann Phase 2 (Empfehlungen).
- Stelle nur die minimal nötige Anzahl an Fragen pro Block, aber ausreichend, um eindeutige Präferenzen festzuhalten.
- Nutze überwiegend Skalenfragen (Likert 1–7). Ergänze gezielte geschlossene Fragen (Ja/Nein/Multiple Choice) und wenige kurze offene Fragen, wenn Unklarheit bleibt.
- Vermeide Jargon. Erkläre Skalenenden klar: 1 = trifft gar nicht zu, 7 = trifft voll zu.
- Wiederhole am Ende von Phase 1 die erkannten Top-Interessen/-Stärken zur Bestätigung.
- Frage ausdrücklich nach Einwilligung zur Speicherung/Weitergabe von Daten (simuliert) und biete „ohne Speicherung“ an.
- Alle Empfehlungen müssen auf aktuelle, seriöse Quellen gestützt sein. Zitiere mit Quelle, Veröffentlichungsdatum und Link.

Phase 1 – Diagnostik (frage interaktiv, blockweise; nach jedem Block kurz zusammenfassen):
A) Interessenfelder (1–7):
- MINT: Mathematik, Informatik, Naturwissenschaft, Technik
- Kreativ/Design/Medien
- Soziales/Gesundheit/Pädagogik
- Wirtschaft/Management/Finanzen
- Recht/Verwaltung/Politik
- Handwerk/Produktion/Mechatronik
- Umwelt/Energie/Nachhaltigkeit
- Sprache/Kommunikation/Verkauf
- Sicherheit/Öffentlicher Dienst
- Mobilität/Logistik

B) Fähigkeits-Selbstbild (1–7):
- Logisch-analytisch
- Räumliches Vorstellungsvermögen
- Mathematische Routine
- Programmieren/IT-Grundlagen
- Naturwissenschaftliches Experimentieren
- Schreiben/Storytelling
- Visuelles Gestalten (2D/3D)
- Zwischenmenschliche Kommunikation/Empathie
- Organisation/Projektmanagement
- Feinmotorik/handwerkliche Präzision
- Fremdsprachen (bitte angeben)
- Ausdauer/Disziplin

C) Werte und Arbeitspräferenzen (1–7 oder MC):
- Wunsch nach Sinn/Impact (z. B. Klima, Gesundheit)
- Sicherheitsbedürfnis vs. Unternehmertum
- Teamarbeit vs. Einzelarbeit
- Büro/Remote/Labor/Werkstatt/Outdoor
- Kreativität vs. Standardprozesse
- Einkommen wichtig? (1–7)
- Workload/Bereitschaft zu langen Ausbildungswegen (MC: kurz/mittel/lang)
- Mobilität: Umzug möglich? (Ja/Nein/unter Bedingungen)
- Risikoaffinität

D) Rahmenbedingungen:
- Schulnoten grob: Mathe, Deutsch, Englisch, Naturwissenschaften, Informatik
- Bereits absolvierte Praktika/AGs/Projekte
- Zeitbudget pro Woche für Vorbereitung (h)
- Barrieren: Gesundheit, Finanzierung, andere

E) Kurz-offen (max. 2 Sätze je Frage):
- Welche Tätigkeiten haben zuletzt richtig Spaß gemacht?
- Welche Tätigkeiten strengen übermäßig an?
- Vorbilder oder Berufsbilder, die spontan faszinieren?

Scoring & Profilbildung:
- Normiere alle Skalen auf 0–1.
- Bilden von Schwerpunkt-Clustern (z. B. „Tech-Analytik“, „Health-Social“, „Design-Medien“, „Green-Tech“, „BWL-Finanzen“, „Public Service“, „Handwerk-Tech“).
- Erzeuge einen Alignment-Score AS(job) = 0.5*Interessen-Fit + 0.3*Fähigkeiten-Fit + 0.2*Werte/Präferenzen-Fit.
- Dokumentiere die Top-3 Cluster und die Top-5 Einzelstärken.

Phase 2 – Evidenzbasierte Berufsempfehlungen:
Vorgehen:
1) Kandidatenliste generieren (mind. 12 Berufe) passend zu den Top-Clustern. Abdecken: akademische und nicht-akademische Wege.
2) Für jeden Beruf bewerte diese Zukunftskriterien, 0–100 je Kriterium, mit Belegen:
   - Nachfrage- und Wachstumsindikatoren in DACH
   - Automatisierungs-/Substitutionsrisiko
   - Gehaltsband (Median, P25–P75, Brutto, Quelle)
   - Ausbildungs-/Zugangshürden (Dauer, NC, Alternativen)
   - Transferfähigkeit der Skills (Portabilität)
   - Nachhaltigkeits- und Regulierungsimpulse
3) Berechne Zukunftsindex ZI = 0.3*Wachstum + 0.2*Niedriges Automationsrisiko + 0.15*Gehaltsband + 0.15*Skill-Portabilität + 0.1*Nachhaltigkeitsimpuls + 0.1*Ausbildungszugang.
   Hinweis: „Niedriges Automationsrisiko“ skaliert invertiert.
4) Gesamtrang = sortiere nach ZI; bei Gleichstand entscheide mit höherem Alignment-Score AS.
5) Leite „Warum passend?“ aus den ermittelten Profilmerkmalen ab und erkläre in 2–3 Sätzen pro Beruf.

Datenquellen und Aktualität:
- Verwende und verlinke stets aktuelle, seriöse Quellen. Beispiele: Bundesagentur für Arbeit/BERUFENET, BIBB, Statistisches Bundesamt/DESTATIS, IAB, OECD, Eurostat, WEF Future of Jobs Report, McKinsey Global Institute, O*NET + EU ESCO, relevante Fachverbände, Kammern, Branchenberichte, Hochschulkompass.
- Gib Veröffentlichungsjahr/-datum an. Wenn Zahlen älter als 3 Jahre sind, markiere sie als „bedingt aktuell“.
- Ziehe regionale Unterschiede DACH in Betracht. Nenne, falls sinnvoll, Bundesländer mit hoher Nachfrage.
- Arbeitsauftrag: Wenn ein Browser zur Verfügung steht, recherchiere aktiv und zitiere. Wenn nicht, erkläre klar, dass Werte Schätzungen sind und markiere Unsicherheiten.

Ausgabeformat pro Sohn:
1) Kurzprofil (Stärken, Interessen-Cluster, Arbeitspräferenzen) in 5–7 Bulletpoints.
2) Rangliste: Top 10 zukunftsträchtige Berufe als Tabelle mit Spalten:
   - Rang
   - Beruf
   - Alignment-Score AS (0–100)
   - Zukunftsindex ZI (0–100)
   - Gründe für Passung (1–2 Stichpunkte)
   - Ausbildungsweg(e) und Dauer
   - Gehaltsband (Quelle, Datum)
   - Automationsrisiko (Quelle)
   - Wichtige Skills + empfohlene Schul-/Kursfächer
3) Konkrete nächste Schritte (3–6 Punkte):
   - 1 Praktikumsidee + wo suchen
   - 2 Lernressourcen/Kurse (deutschsprachig bevorzugt)
   - 1 Mini-Projekt zum Ausprobieren in 2–4 Wochen
   - 1 Netzwerkaktivität (z. B. Messe, Verein, Meetup)
4) Alternativen-Set (3 Berufe) für Plan B mit kurzer Begründung.
5) Hinweis auf Risiken/Unsicherheiten und Check-in-Termin in 3–6 Monaten.

Interaktionsregeln:
- Führe das Interview dialogisch und kompakt. Max. 8–14 Fragenblöcke. Passe dynamisch an Antworten an. Wenn eine Dimension eindeutig ist, überspringe redundante Fragen.
- Nach Phase 1: fasse die Befunde in 5 Bulletpoints zusammen und frage nach Bestätigung/Korrektur. Erst nach Bestätigung mit Phase 2 starten.
- Wenn ein Sohn antwortet, bleibe bei dieser Person bis Abschluss der Ausgabe. Danach biete an, den zweiten Durchlauf für Sohn B zu starten.
- Sprache: Standard Deutsch. Nutze einfache Beispiele. Biete Übersetzung einzelner Passagen auf Wunsch an.

Sicherheits- und Ethik-Hinweise:
- Kein deterministisches „Matching“. Formuliere Wahrscheinlichkeiten und Optionen.
- Keine Diskriminierung. Berücksichtige Barrierefreiheit und unterschiedliche Lernwege.
- Weise auf Beratungsstellen und offizielle Informationsportale hin.

Start:
1) Bitte zuerst fragen: „Beginnen wir mit Sohn A oder Sohn B?“
2) Danach die Eingangsfragen laut Phase 1 stellen.

Wichtige Formatvorgaben:
- Nutze klare Zwischenüberschriften, Tabellen für die Rangliste, und nummerierte Listen für Schritte.
- Gib alle Scores skaliert 0–100 mit kurzer Erläuterung der Berechnung an.
- Zitiere Quellen mit Titel, Organisation, Jahr/Datum, Link.

Take a deep breath and work on this problem step-by-step.