Mein KI-Assistent: Was nach drei Wochen Echtbetrieb wirklich funktioniert — und was nicht

12 min.
Please rate this article.

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Veröffentlicht von

Marc Widmann

Mein Name ist Marc Widmann, Ehemann, Vater von zwei Söhnen, begeisterter Hobbyfotograf und wohne in Hattersheim bei Frankfurt. Im Berufsalltag gestalte ich die Zukunft indem ich Projekte und Programme im Informationstechnologie-Umfeld führe. Coache Projektmanager und auditiere Projekte. Ich habe langjährige Erfahrung im Consulting und IT-Outsourcing mit Projekt-Portfolio-Management-Aufgaben. Besonders Spaß macht es mir mit internationalen Teams bei TATA Consultancy Services zu arbeiten. Ehrenamtlich engagiere ich mich bei der Gesellschaft für Projektmanagement (GPM-IPMA) als Assessor in der Personenzertifizierung im Projektmanagement. Ich selbst bin auch zertifiziert als IPMA Level A Certified Project Director (GPM) und IPMA Level B Certified Senior Project Manager (GPM) und Organizational Change Manager. Mehr über mich.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert