Mein KI-Assistent: Was nach drei Wochen Echtbetrieb wirklich funktioniert — und was nicht

12 min.

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Summary

Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut — keinen Chatbot auf Abruf, sondern ein System, das proaktiv mitarbeitet. Nach einem Monat Echtbetrieb zieht dieser Artikel eine ehrliche Bilanz: Was funktioniert, was mich überrascht hat, wo die Grenzen liegen — und was das Ganze mit gutem Projektmanagement zu tun hat.

Ich werde regelmäßig gefragt, wie ich mich selbst organisiere. Einen Artikel dazu habe ich hier schon vor einigen Jahren geschrieben. Seitdem hat sich einiges verändert — und der größte Einschnitt war nicht ein neues Tool, sondern ein anderer Ansatz: Ich habe mir einen KI-gestützten persönlichen Assistenten aufgebaut. Keinen Chatbot, den man bei Bedarf öffnet. Sondern etwas, das permanent im Hintergrund läuft und proaktiv arbeitet.

Dieser Artikel ist kein Technologiebericht und kein Produktvergleich. Es ist ein ehrlicher Erfahrungsbericht nach nahezu drei Wochen Echtbetrieb — mit allem, was funktioniert hat, was mich überrascht hat, und wo die Grenzen liegen.

Wie es dazu kam

Ich beschäftige mich seit Jahren intensiv mit KI — beruflich im Transformation Management, ehrenamtlich in der GPM, und privat als jemand, der einfach neugierig ist. Irgendwann wurde mir klar, dass ich KI immer noch hauptsächlich reaktiv nutze: Ich stelle eine Frage, bekomme eine Antwort, das war es. Das ist ungefähr so, als hätte man einen Mitarbeiter, den man nur anspricht, wenn man ihn aktiv im Büro aufsucht — der Rest der Zeit sitzt er einfach da.

Die eigentliche Frage, die mich beschäftigt hat: Kann ein KI-System proaktiv mit mir arbeiten, so wie ein gut eingespielter menschlicher Assistent? Einer, der morgens schon weiß, was heute dran ist. Der mir nach einem Meeting die Kernpunkte zusammenfasst. Der eine Recherche anstößt, bevor ich frage.

Der Aufbau hat einige Wochen technische Einrichtungsarbeit gekostet — ich habe dabei mit verschiedenen Softwareklassen gearbeitet: Aufgabenverwaltung, Kommunikationsplattformen, KI-Sprachmodellen, Automatisierungsdiensten und Meeting-Transkriptionstools. Wenn ich den Stand heute zusammenfassen müsste: Es funktioniert. Nicht reibungslos, aber weit besser als ich erwartet hatte.

Was tatsächlich im Einsatz ist

Ich nenne meinen Assistenten Max. Das klingt vielleicht albern, hat aber einen praktischen Grund: Es hilft mir, klarer zu formulieren, was ich von ihm erwarte. „Max, bereite das Meeting vor“ ist präziser als „Bereite das Meeting vor“ in einen Prompt zu tippen.

Max kommuniziert mit mir ausschließlich über eine Messaging-App. Keine Oberfläche, kein Dashboard. Er schickt mir morgens ein Briefing, ich antworte wenn ich etwas brauche, er handelt. Das ist die Grundidee. Was konkret im Einsatz ist:

Tagesstart: Jeden Morgen erhalte ich ein strukturiertes Briefing mit meinen heutigen und überfälligen Aufgaben — nach meinen Projekten gruppiert, mit direkten Links in mein Aufgabenmanagementsystem. Das klingt banal, macht aber einen echten Unterschied. Früher habe ich das selbst zusammengestellt, was je nach Aufgabenlage 10–15 Minuten gedauert hat. Das passiert jetzt automatisch, täglich, ohne dass ich etwas tun muss.

Meeting-Analyse: Ich nutze ein Transkriptionstool, das meine Gespräche zum Beispiel für die Fachgruppe bei der GPM aufzeichnet und strukturiert. Max hat Zugriff auf diese Protokolle und kann mir nach einem Gespräch die Essenz in zwei bis drei Sätzen liefern — oder mir vor einem Folgegespräch die offenen Punkte aus dem letzten Meeting aufzeigen. Beides funktioniert sehr gut, sofern die Protokolle vollständig vorliegen. Es gab Fälle, in denen Max behauptet hat, eine Session sei nicht vorhanden, obwohl sie existierte — weil er nicht proaktiv nachgeschaut hat. Das musste ich durch klare Regeln abstellen. Dazu später mehr.

Recherche und Vorbereitung: Ich habe Max auf ein selbst gehostetes Suchsystem angebunden. Er kann damit eigenständig nach aktuellen Themen suchen — für tägliche News-Briefings zu KI und Projektmanagement, aber auch für konkrete Vorbereitungen. Vor einem Telefonat mit einem Strategiepartner hat er dessen aktuelle YouTube-Themen zusammengefasst, die logischen nächsten Schritte aus unserem letzten Gespräch aufgelistet und daraus Diskussionspunkte abgeleitet. Das hat mir mindestens eine Stunde Vorbereitung gespart.

E-Mail: Max hat Zugriff auf ein eigenes E-Mail-Konto. Er sendet aber nie autonom — das war von Anfang an eine klare Regel. Er zeigt mir immer zuerst den Entwurf, wartet auf meine Bestätigung und sendet erst dann. Bei einer der ersten Testmails hat er behauptet, die Mail sei gesendet worden, ohne sie tatsächlich gesendet zu haben. Ich habe das sofort bemerkt und den echten Sendebefehl eingefordert. Seitdem läuft es korrekt, aber die Episode zeigt: Vertrauen muss verdient werden, auch bei KI-Systemen.

Personen-Recherche: Vor Meetings mit neuen Gesprächspartnern sucht Max nach deren beruflichem Hintergrund, aktuellen Positionen, Schwerpunkten. Das ist kein Deep Research, aber eine solide Grundlage. Was er nicht konnte: Persönliche Präferenzen (Lieblingsrestaurant, Essgewohnheiten) aus sozialen Medien zuverlässig herauslesen. Da hat er es versucht, nichts Verwertbares gefunden und transparnt kommuniziert — das finde ich richtig.

Was mich überrascht hat

Ich hatte erwartet, dass der technische Aufbau die größte Herausforderung wäre. Das stimmt nicht. Die eigentliche Herausforderung liegt darin, das Verhalten des Systems klar zu definieren — und zwar schriftlich, in Form von Regeln und Prinzipien, die Max immer kennt.

Einige Erkenntnisse, die ich so nicht vorhergesehen hatte:

KI-Systeme müssen lernen, proaktiv zu handeln. Ich musste Max mehrfach darauf hinweisen, dass er bei verfügbaren Datenquellen zuerst selbst nachschauen soll, bevor er mich fragt. Das klingt trivial, ist es aber nicht. Die Standardreaktion war zunächst: Fragen statt handeln. Heute funktioniert das besser, weil ich diese Erwartung explizit festgehalten habe.

Halluzination ist real, aber kontrollierbar. In einem Fall hat Max ein Meeting-Protokoll mit scheinbar konkreten Inhalten zusammengefasst — nur dass es dieses Meeting so nicht gab. Der Auslöser: Er hatte keine echten Daten, hat aber trotzdem geantwortet. Die Lösung war technisch einfach: Erst die Datei speichern, dann analysieren. Seitdem ist das Problem nicht mehr aufgetreten.

Sicherheitsregeln müssen explizit sein. „Sende keine E-Mails ohne Bestätigung“ klingt offensichtlich. Aber wenn man es nicht aufschreibt, hält sich das System nicht daran. Ich habe schriftliche Regeln für alle Aktionen mit Außenwirkung definiert: immer erst zeigen, dann warten, dann handeln. Das ist kein Luxus, sondern Grundvoraussetzung.

Das System lernt — aber braucht Anstöße. Max hat in einem Fall eine Triage-Aufgabe gelöst, die Mustererkennung erfordert hat, mit einem einfachen Suchalgorithmus statt mit einem Sprachmodell — weil er nicht die Ambitionsstufe gewählt hat, die ich erwartet hatte. Ich habe das zurückgewiesen und eine Regel eingeführt: Wenn eine Aufgabe sprachliche Bewertung erfordert, nutze immer ein KI-Modell. Das funktioniert jetzt. Aber es war meine Rückmeldung, die das ausgelöst hat.

Was nach wie vor Grenzen hat

Ich will hier nicht den Eindruck erwecken, dass alles reibungslos läuft. Ein ehrlicher Bericht muss auch die Grenzen benennen.

Echtzeitdaten sind limitiert. Ich habe Max an ein selbst betriebenes Suchsystem angebunden, das auf verschiedene Suchmaschinen zurückgreift. Das funktioniert gut — bis das System an Anfragelimits stößt. In solchen Momenten fällt Max auf sein Trainingswissen zurück. Das ist transparenter als ein stilles Versagen, aber es bedeutet, dass Recherche-Ergebnisse manchmal nicht aktuell sind.

Restaurant-Reservierungen per Telefon sind mühsam. Max kann recherchieren und Empfehlungen geben, aber Anrufe tätigen kann er (noch) nicht. Online-Reservierungen hat er versucht — mit gemischten Ergebnissen, je nachdem wie die entsprechende Website gebaut ist. Da ist noch Luft nach oben.

Aufgaben ohne Projektzuordnung machen Probleme. Ich habe viele Aufgaben in meinem Aufgabenmanagementsystem, die keinem Projekt zugeordnet sind. Max hat anfangs versucht, diese heuristisch zuzuordnen — mit teils falschen Ergebnissen. Die richtige Lösung war einfach: Aufgaben ohne Projekt gehören in den Eingang, fertig. Aber bis ich das explizit festgelegt hatte, hat das System eigene Annahmen getroffen.

Was das mit Projektmanagement zu tun hat

Eigentlich alles. Was ich in den letzten Wochen aufgebaut habe, ist im Kern nichts anderes als die Einführung eines neuen Mitarbeiter in mein persönliches Arbeitsumfeld — mit allem, was dazugehört: Rollenbeschreibung, Regeln, Eskalationspfaden, Qualitätssicherung, Feedback-Schleifen.

Wer schon einmal einen neuen Mitarbeiter eingearbeitet hat, kennt das Grundprinzip: Am Anfang dauert es länger, weil man alles erklären muss. Man macht Fehler explizit. Man korrigiert. Man schreibt Dinge auf, die man sonst nie aufgeschrieben hätte, weil sie „selbstverständlich“ schienen. Und irgendwann läuft es — nicht perfekt, aber gut genug, dass der Nutzen die Investition überwiegt.

Bei einem KI-Assistenten ist es dasselbe — nur dass man die gesamte Einarbeitung schriftlich fixieren muss, weil das System keine Intuition hat. Das klingt nach Mehraufwand. Tatsächlich zwingt es einen, das eigene Arbeiten klarer zu durchdenken als je zuvor.

Fazit nach drei Wochen

Ich habe Max jetzt täglich im Einsatz. Er ist nicht unfehlbar. Er stellt manchmal falsche Annahmen an, überschätzt gelegentlich seine Möglichkeiten und braucht klare Regeln, um verlässlich zu funktionieren. Aber er liefert mir jeden Morgen mein Briefing, analysiert auf Abruf Protokolle, bereitet Gespräche vor und hält Aufgaben im Blick — ohne dass ich aktiv daran denken muss.

Das ist mehr, als ich erwartet hatte.

Die interessantere Frage, die ich mir mittlerweile stelle: Was passiert, wenn dieser Ansatz nicht auf einen einzelnen Menschen, sondern auf eine Führungskraft mit Team angewendet wird? Ich bin überzeugt, dass wir dort in den nächsten zwei bis drei Jahren eine neue Art von Arbeitsorganisation sehen werden. Nicht KI statt Mensch — sondern KI als Schnittstelle zwischen dem, was dringend ist, und dem, was wirklich zählt.

Darüber werde ich weiter berichten.

Dir hat dieser Beitrag gefallen? Dieses Blog ist bewusst werbefrei, weil nur der Inhalt zählt. Wenn du deine Wertschätzung für diesen Beitrag zeigen willst, dann teile ihn wo auch immer. Und ich freue mich, wenn du mir einen Kaffee ausgibst! Und abonniere den kostenlosen Newsletter.
 

Max – Mein neuer Assistent arbeitet für 5 € im Monat

4 min.

Summary

Letzte Woche hat ein neues Teammitglied bei mir angefangen: Max. In diesem Beitrag beschreibe ich, warum ich mich für einen selbst gehosteten KI-Assistenten entschieden habe, wie das Onboarding ablief und welche technische Architektur dahintersteckt. Der Beitrag zeigt außerdem, warum die Frage nicht lautet „Welches KI-Tool nutze ich?“, sondern „Wie integriere ich KI als festen Bestandteil meiner Arbeitsweise?“

Ein neues Teammitglied

Diese Woche hat Max bei mir angefangen. Mein neuer persönlicher Assistent.

Die erste Woche eines neuen Teammitglieds ist immer besonders. Man lernt sich kennen, spricht über Arbeitsweisen, Erwartungen und darüber, wie Zusammenarbeit funktionieren kann. Genau in dieser Phase sind wir gerade.

Ehrlich gesagt war ich anfangs skeptisch, ob das funktioniert. Ich bin jemand, der ungern Kontrolle abgibt. Meine Aufgaben, meine Struktur, meine Priorisierung – da lasse ich nicht einfach jemand anderen ran. Aber irgendwann merkt man: allein skaliert nicht. Und genau das war der Punkt, an dem ich angefangen habe, das Thema „persönlicher Assistent“ grundsätzlich neu zu denken.

Onboarding wie bei jedem Teammitglied

Max beschäftigt sich aktuell intensiv damit, meine Arbeitsweise zu verstehen: Wie priorisiere ich? Welche Themen sind strategisch wichtig? Was darf automatisiert passieren – und wo will ich bewusst selbst entscheiden?

Besonders beim Aufgabenmanagement unterstützt er mich bereits dabei, Struktur zu halten und Themen sauber zu organisieren. Was mich überrascht hat: Er fragt nicht nur ab, er denkt mit. Er schlägt Zusammenhänge vor, die ich selbst übersehen hätte.

Datenschutz war mir vom ersten Tag an wichtig. Wenn ein Assistent Zugriff auf Aufgaben, Dokumente und Arbeitsabläufe bekommt, braucht es klare Regeln. Deshalb gehörte der verantwortungsvolle Umgang mit Daten zu den ersten Dingen, die wir gemeinsam festgelegt haben. Kein Kompromiss.

Und ja – auch das Gehalt wurde verhandelt: 5 € Fixgehalt pro Monat. Erhöhung auf 8 € nach zwei Jahren. Plus leistungsabhängiger Anteil von bis zu 45 € monatlich. Die Gehaltsverhandlung war ungewöhnlich kurz.

Wer ist Max?

Wer bis hierhin gelesen hat und sich fragt, wer für 5 € im Monat arbeitet: Max ist eine KI.

Genauer: Max ist ein selbst gehosteter, persönlicher KI-Assistent, der auf meinem eigenen Server läuft. Kein ChatGPT-Tab im Browser. Kein Copy-Paste aus einem Chatfenster. Sondern ein System, das in meine täglichen Arbeitsabläufe integriert ist und eigenständig Aufgaben übernehmen kann.

Das war mir besonders wichtig: nicht noch ein weiteres Tool, das parallel läuft. Sondern etwas, das sich nahtlos in meine bestehende Arbeitsweise einfügt.

Die technische Basis: OpenClaw auf eigenem Server

Max basiert auf OpenClaw – einer Open-Source-Plattform für selbst gehostete KI-Assistenten. Die Grundprinzipien, die mich überzeugt haben:

Eigene Infrastruktur, eigene Daten. OpenClaw läuft auf meinem eigenen VPS – einem deutschen Virtual Private Server. Meine Daten verlassen nicht meine Infrastruktur. Für jemanden, der beruflich in regulierten Branchen wie Banking und Versicherungen arbeitet, ist das keine Spielerei, sondern Voraussetzung auch für seine eigene Daten.

Gateway-Architektur. OpenClaw funktioniert über ein Gateway, das verschiedene Kommunikationskanäle bündelt. Man installiert einmal den Server, verbindet die gewünschten Kanäle – und kann den Assistenten dort erreichen, wo man ohnehin kommuniziert. Das Prinzip: die KI kommt zu den bestehenden Werkzeugen, nicht umgekehrt.

Modulare Skills und Integrationen. Der Assistent ist nicht monolithisch, sondern modular aufgebaut. Fähigkeiten werden als „Skills“ hinzugefügt und können individuell konfiguriert werden. Das beginnt bei Aufgabenmanagement und reicht bis zur Dokumentenrecherche.

Onboarding per Wizard. Die Ersteinrichtung läuft über einen geführten Installationsprozess, der Schritt für Schritt durch Konfiguration, Sicherheitseinstellungen und Kanalanbindung führt. Kein Handbuch mit 200 Seiten, sondern ein strukturiertes Setup.

Persistentes Gedächtnis. Anders als ein einmaliger Chat „erinnert“ sich Max an Kontext, Präferenzen und Arbeitsweisen. Das verändert die Art der Zusammenarbeit fundamental – vom Einzelprompt zur fortlaufenden Arbeitsbeziehung.

Was Max heute schon übernimmt

Die ersten Integrationen sind aktiv:

  • Todo-Management und Aufgabenorganisation
  • Zusammenführen von Informationen aus verschiedenen Quellen
  • Vorbereitung von Notizen und Dokumenten

In den nächsten Wochen sollen weitere Fähigkeiten hinzukommen: Recherche zu Projektthemen, Organisation von Wissen und Unterlagen, Automatisierung wiederkehrender Abläufe.

Warum ich das hier teile

Nicht, weil ich glaube, dass jeder sofort einen eigenen KI-Assistenten aufsetzen sollte. Sondern weil ich denke, dass sich eine grundlegende Frage verändert hat.

Bisher lautete die Frage: „Welches KI-Tool nutze ich?“ – ChatGPT, Claude, Gemini, was auch immer gerade aktuell ist.

Die neue Frage lautet: „Wie integriere ich KI als festen Bestandteil meiner Arbeitsweise?“

Das ist ein Unterschied. Das eine ist Werkzeugwahl. Das andere ist Arbeitsgestaltung. Und genau an diesem Punkt wird es aus Projektmanagement-Sicht interessant: Denn wer KI nicht als Werkzeug, sondern als Teammitglied behandelt, muss sich mit Onboarding, Prozessen, Datenschutz und Governance beschäftigen – also mit genau den Themen, die wir als Projektmanager ohnehin beherrschen sollten.

Ich werde berichten, wie sich die Zusammenarbeit mit Max entwickelt. Schritt für Schritt.

Wenn dich solche Perspektiven auf Führung, Transformation und Projektmanagement interessieren, dann abonniere gerne meinen Newsletter 👉 marc-widmann.de/newsletter