Von der Vision zur Sackgasse und zurück

Wie ich mit KI ein komplexes Notion-Dashboard entwickelte

n diesem ersten Teil meiner zweiteiligen Serie nehme ich dich mit auf den Anfang meiner Reise: Von der ersten Idee, mit KI ein komplexes Notion-Dashboard zu entwickeln, über den methodischen Aufbau meines KI-Setups, bis zu den Hochs und Tiefs der ersten Entwicklungswochen. Du erfährst, wie ich verschiedene KI-Modelle eingesetzt habe, welche schmerzhaften Lektionen ich lernen musste und wie ich methodisch vorgegangen bin, um am Ende ein funktionierendes System zu erschaffen. Der Weg war alles andere als geradlinig – aber genau das macht diese Geschichte wertvoll für alle, die selbst mit KI arbeiten.

Einstieg: Der Traum vom „einfach machen lassen“

Auf der Suche nach einem Ersatz für Evernote hatte ich ein YouTube-Video über Notion geschaut. Seiten, Datenbanken, Timeline-Ansichten – alles klang perfekt für meine Wunschanwendungen. Seit Jahren coache ich Studierende durch ihre Abschlussarbeiten und kenne jeden typischen Meilenstein, jede kritische Phase, jede Aufgabe, die getan werden muss. Meine Idee: Warum nicht dieses Wissen in ein Notion-Template packen und damit noch Kunden gewinnen?

Weil ich es richtig machen wollte, nutzte ich erst einen Meta-Agenten, der mir half, einen Notion-Agenten zu erstellen. Mit dem Ergebnis startete ich dann in TypingMind: „Erstelle mir eine Datenbank in Notion, die Meilensteine und Phasen einer Abschlussarbeit mit den zugehörigen Aufgaben als Timeline anzeigen kann.“ In TypingMind habe ich verschiedene Modelle per API eingebunden, von OpenAI über Gemini und Antropic bis Mistral, und Plugins wie Perplexity und Webpage Reader integriert. Ich entschied mich für ChatGPT 5.

Die Antwort erschlug mich: Eine Liste mit 27 Punkten auf 4 Scrollseiten. Datenbanken für Phasen, Meilensteine, Aufgaben. Properties. Rollups. Erste Formeln. Verknüpfungen. Relations. Das war keine „einfache Datenbank“ mehr.

Aber ich machte weiter. Iterativ – natürlich. Und dann kam mir die Idee, die alles noch komplizierter – und wertvoller – machte: Was, wenn Nutzer:innen nur ihren Projektnamen, Start- und Enddatum eingeben müssen und der Rest automatisch generiert wird? Die meisten Notion-Templates sind schöne, aber leere Hüllen. Datenbanken, die man selbst befüllen muss. Ich wollte das Gegenteil: Mein Wissen – welche Meilensteine wann kommen, wie lange welche Phase dauert, welche Aufgaben in welcher Reihenfolge – sollte direkt eingebaut sein. Individualisiert, automatisiert, sofort einsatzbereit.

Das Ergebnis nach acht Wochen: Sechs verknüpfte Datenbanken. Über 50 Formeln. Fünf verschiedene KI-Modelle. Drei spezialisierte Agenten. Stunden in Sackgassen, weil die KI mir überzeugend Features vorschlug, die Notion nicht kann. Ein halber Tag Aufräumen von Chaos. Und die zentrale Erkenntnis: KI ist brillant – aber nur, wenn man ihre Grenzen kennt und methodisch validiert.

Was dabei schiefging, was funktionierte und warum „einfach die KI fragen“ bei komplexen Projekten in die Irre führt – hier meine Learnings.

TOOL-INFO: TYPINGMIND

TypingMind ist eine fortschrittliche Chat-Oberfläche für verschiedene KI-Modelle, die es ermöglicht:

  • Zwischen verschiedenen KI-Modellen (GPT-4, Claude, Gemini, etc.) im selben Chat zu wechseln
  • Eigene Agenten mit spezifischen Instruktionen zu konfigurieren
  • Plugins wie Web-Suche oder Bild-Upload zu nutzen
  • Längere Kontexte zu verarbeiten als in Standard-Interfaces
  • Chats zu speichern und zu organisieren

Ein Schlüsselvorteil für komplexe Projekte: Der Kontext bleibt erhalten, auch wenn man das Modell wechselt – ideal für vergleichende Analysen und frische Perspektiven bei Problemlösungen.

Das Projekt: Ein Dashboard für wissenschaftliche Abschlussarbeiten

Jeden Tag sehe ich, wie Studierende mit ihrer Abschlussarbeit kämpfen. Besonders die, die berufsbegleitend oder dual studieren. Nicht, weil ihnen die Kompetenz fehlt, sondern die Struktur und Orientierung. Sie fragen mich: Wann muss ich mit der Literaturrecherche fertig sein? Wie viel Zeit sollte ich für die Methodik einplanen? Was genau bedeutet eigentlich Grobrecherche, und welche konkreten Schritte gehören dazu?

Die meisten Zeitpläne im Netz sind starr. Woche eins bis vier: Thema finden. Woche fünf bis acht: Literatur recherchieren. Aber was, wenn du nur acht Wochen insgesamt hast? Oder sechzehn? Oder sechsundzwanzig? Was, wenn du am fünfzehnten März anfängst und am einunddreißigsten August abgeben musst? Diese standardisierten Pläne helfen nicht weiter.

Meine Vision war ein Dashboard, das auf Basis der individuellen Termine einen kompletten, Fahrplan generiert. Mit allen Meilensteinen, allen Phasen und vor allem mit konkret ausformulierten Aufgaben und Unteraufgaben, die auch Praktiker ohne wissenschaftliche Vorbildung verstehen und umsetzen können.

Was das Dashboard können sollte

Das Dashboard sollte auf einen Blick zeigen, wo man steht. Eine Eckdaten-Box mit der Frage: Wie lange noch bis Abgabe? Darunter der aktuelle Fortschritt in Prozent. Direkt daneben die Aufgaben der aktuellen Phase: Was ist heute zu tun? Was kommt in den nächsten vier Wochen? Und rechts davon der Meilenstein-Überblick: Welche großen Deadlines stehen in den nächsten sechs Wochen an?

Dann die Timeline-Visualisierung. Alle acht Phasen von Vorbereitung über Exposé, Recherche, Theorie, Empirie, Analyse bis Abschluss und Puffer auf einer Zeitachse dargestellt. Dazu die elf Meilensteine: Start, Kick-Off, TTF-Check-In, Exposé fertig, Theorie Probekapitel, Forschungsplan, Erhebung fertig, Auswertung fertig, Text fertig und schließlich Abgabe. Alles individuell berechnet basierend auf dem Start- und Enddatum, das die Nutzerin eingibt.

Aber das Herzstück sollten die konkreten Aufgaben mit ihren Unteraufgaben sein. Nicht einfach „Feinrecherche machen“, sondern präzise Handlungsschritte: Bibliografien und Sekundärliteratur prüfen, KI-Tools testen und auswählen, Datenbanken sichten. Jede Aufgabe hat eine Detailseite mit einem Überblick, was das Ziel dieser Aufgabe ist, mit konkreten Hinweisen aus meiner Coaching-Erfahrung, was bei dieser Aufgabe wichtig ist, und mit nützlichen Links zu meinen Kompaktkursen, Vorlagen und Checklisten. Und in meiner Vorstellung sollte sich das in Notion eigentlich relativ einfach bauen lassen…

TOOL-INFO: NOTION-GRUNDLAGEN

Notion ist eine flexible Produktivitätsplattform mit diesen Schlüsselelementen:

  • Datenbanken: Tabellarische Sammlungen von Einträgen mit konfigurierbaren Properties
  • Relations & Rollups: Verknüpfungen zwischen verschiedenen Datenbanken
  • Formeln: Berechnungen basierend auf Properties, ähnlich wie Excel-Formeln
  • Views: Verschiedene Darstellungsformen der gleichen Daten (Tabelle, Kanban, Timeline, Kalender)
  • Templates: Vorkonfigurierte Arbeitsräume, die dupliziert werden können

Die Stärke von Notion liegt in der Verknüpfung dieser Elemente zu komplexen, aber benutzerfreundlichen Systemen.

Die technische Komplexität dahinter

Was harmlos als eine Datenbank mit Timeline begann, wurde zu einem technischen Monster. Ich brauchte am Ende sechs verknüpfte Datenbanken. Eine für Projekte, in der Start- und Enddatum sowie der Projektname gespeichert werden. Eine für die acht Phasen mit automatisch berechneten Start- und Enddaten. Eine für die elf vordefinierten Meilensteine, die ebenfalls automatisch terminiert werden. Eine Schedule-Datenbank, die Duplikate von Phasen und Meilensteinen enthält, nur für die Timeline-Darstellung. Eine Datenbank mit über vierzig vordefinierten Aufgaben, jeweils mit Status, Fälligkeitsdatum und Phasenzuordnung. Und schließlich eine Datenbank für Unteraufgaben, die granulare Schritte zu jeder Aufgabe enthält.

Der Zeitaufwand? Ich arbeitete fünf Wochen an der ersten funktionierenden Version. Dann noch drei Wochen Beta-Testing und Optimierung. Meine Annahme am Anfang? Zwei Wochen, maximal.

Das KI-Setup: Wie ich methodisch vorgegangen bin

Ich wusste von Anfang an, dass ich das nicht mit einem einfachen Chat schaffen würde. Nicht bei dieser Komplexität. Also begann ich damit, einen Agenten für einen Agenten zu bauen. Einen Meta-Agenten sozusagen, der mir helfen sollte, den eigentlichen Notion-Agenten richtig aufzusetzen.

Mein Prompt an diesen Meta-Agenten war präzise: Ich möchte ein Notion-Template für meine Kunden entwickeln. Der Agent soll sich durch verschiedene potenzielle Anforderungen durchfragen und auch von mir Beispiele der Konkurrenz einfordern, entweder als Seiten oder als Screenshots. Am Ende soll eine aufgeräumte Oberfläche entstehen, die den Prozess einer Abschlussarbeit in den für WeKnow typischen Phasen abarbeitet, zu den entsprechenden Zeitpunkten auf die notwendigen Videos verweist, weitere Templates, Seiten und Checklisten als Mehrwert bietet und ein guter Grund ist, sich für eine Mitgliedschaft mit Zugang zu den Videos zu entscheiden.

Mit diesem vorbereiteten Agenten startete ich dann die eigentliche Arbeit in TypingMind (s.Tool-Info).

Die Modell-Strategie: Jedes für seinen Zweck

Mit der Zeit entwickelte ich eine Art Arbeitsteilung zwischen den verschiedenen KI-Systemen, je nachdem, was ich gerade brauchte.

Für komplexe Lösungen nutzte ich GPT-5. Wenn es darum ging, eine schwierige Formel zu entwickeln oder die Logik für die automatische Terminierung der Meilensteine zu durchdenken, war GPT-5 mein Arbeitspferd. Die Antworten waren durchdacht, strukturiert und gingen auf die Komplexität ein.

Für einfaches Feedback zu dem, was ich bereits erstellt hatte, reichte GPT-5 Chat. Ich wollte oft nur wissen: Funktioniert diese Verknüpfung so? Ist diese Struktur logisch? Dafür brauchte ich keine tiefe Analyse, sondern schnelle Rückmeldung.

Gemini Flash Lite nutzte ich für schnelle Zusatzinfos. Wenn ich mitten in der Arbeit war und nur kurz wissen wollte, ob eine bestimmte Notion-Funktion überhaupt existiert oder wie die Syntax für einen bestimmten Rollup aussieht, wechselte ich zu Gemini. Kurze Frage, direkte Antwort, zurück zu GPT-5.

Und für Texte war Claude meine erste Wahl. Meist arbeitete ich mit Claude 3.7, manchmal mit Claude 4, auch wenn das über die API deutlich teurer war. Aber die Qualität der Texte rechtfertigte den Aufwand. Wenn ich Erklärungen für die Aufgaben schrieb oder die Überblicks-Texte formulierte, klangen die Claude-Texte natürlicher, zugänglicher, weniger technisch.

Der Token-Trick: CSV statt Beschreibungen, Screenshots für Übersichten

Eine wichtige Erkenntnis kam etwa auf halber Strecke: Wie ich Informationen an die KI übergebe, macht einen enormen Unterschied. Am Anfang beschrieb ich meine Datenbanken in Worten: Diese Datenbank hat folgende Properties: Name als Text, Datum als Date, Status als Select mit den Optionen offen, in Arbeit, erledigt. Das fraß Token und führte oft zu Missverständnissen.

Dann entdeckte ich: Ich kann einfach einen CSV-Export aus Notion machen und direkt in den Chat einfügen. Das spart nicht nur Token, sondern die KI versteht die Struktur sofort präziser. Keine Interpretationsfehler mehr bei Property-Typen oder Verknüpfungen.

Für die Übersichten nutzte ich Screenshots. Die Struktur eines komplexen Dashboards in Text zu beschreiben, hätte Hunderte Wörter gebraucht. Ein Screenshot zeigt auf einen Blick, wie die Views angeordnet sind, welche Filter aktiv sind, wie die Timeline aussehen soll. Und Screenshots brauchten noch weniger Token als die CSVs.

Was ich bereits im Vorfeld festgestellt hatte, war der Unterschied zwischen vagen und präzisen Agenten-Instruktionen. Wenn ich einfach frage: Wie mache ich das in Notion? bekomme ich generische und nichtssagende Antworten. Lange Listen mit Möglichkeiten. Theoretische Erklärungen. Aber wenn mein Agent präzise wusste, dass es um ein Template für wissenschaftliche Arbeiten geht, dass ich automatische Terminierung brauche, dass die Zielgruppe berufsbegleitend Studierende sind, dann wurden die Antworten plötzlich unfassbar durchdacht und spezifisch.

Die Zeit, die ich in den Meta-Agenten und dann in die Konfiguration meines Notion-Agenten investiert hatte, zahlte sich jeden Tag aus. Aber nur am Anfang. Denn dann kam die Phase, in der auch der beste Agent an seine Grenzen stieß.

Die Achterbahn: Vom schnellen Erfolg zur schleichenden Ernüchterung

Wenn man von außen auf KI-gestützte Entwicklung schaut, sieht es einfach aus. Man stellt eine Frage, bekommt eine Lösung, setzt sie um, fertig. Die Realität ist anders. Meine acht Wochen mit dem Notion-Template waren eine Achterbahnfahrt zwischen schnellen Erfolgen, schleichenden Problemen und falschen Hoffnungen. Und genau hier liegt die zentrale Erkenntnis: KI klingt immer überzeugend, auch wenn sie falsch liegt oder am Ziel vorbei antwortet. Ohne methodische Validierung baut man auf Sand.

Phase 1: Der verführerische Start

Die ersten Tage waren berauschend. Mein Notion-Agent verstand sofort, was ich wollte. Ich beschrieb meine Vision, und die KI lieferte: Datenbanken wurden angelegt, Properties vorgeschlagen, erste Formeln geschrieben. Ich kopierte, fügte ein, es funktionierte. Genau so hatte ich mir das vorgestellt. KI als perfekter Assistent, der mein fehlendes Notion-Wissen kompensiert. Ich dachte ernsthaft, in zwei Wochen wäre ich fertig.

Phase 2: Die schleichende Stagnation

Nach den ersten Erfolgen wurde es zäh. Die Formeln wurden komplexer und mussten immer häufiger mit Notions eigener KI nachbearbeitet werden, weil sie nicht ganz passten. Der Chat wurde länger und länger, und dann begann das eigentliche Problem: Die KI vergaß zunehmend, was wir bereits gebaut hatten. Sie schlug Properties vor, die schon existierten. Verknüpfungen passten nicht mehr zur tatsächlichen Struktur. Die Lösungen wurden Allgemeinplätze, weniger auf mein konkretes Setup bezogen. Der Kontext war verloren. Das erste Learning: Ein einziger langer Chat ist bei komplexen Projekten kontraproduktiv. Nicht neu – aber dass es sich so krass auswirken würde, habe ich nicht erwartet.

Phase 3: Das Formular-Fiasko – Wenn Lösungen nur auf dem Papier existieren

Der erste echte Rückschlag kam bei einer scheinbar einfachen Anforderung. Ich wollte, dass Nutzer ihr individuelles Start- und Enddatum ins Projekt eingeben können. Der Agent schlug ein Notion-Formular vor. Klang perfekt, elegant, genau richtig. Ich baute das Formular. Testete es. Optimierte. Stunden vergingen. Dann die ernüchternde Erkenntnis: Formulare funktionieren nicht mit Datenbankvorlagen. Die ganze elegante Lösung war in der Praxis unmöglich umzusetzen. Die KI hatte eine Funktion vorgeschlagen, die in der Theorie existiert, aber für meinen Use Case nicht funktioniert.

Phase 4: Der Reset – Buttons statt Formulare

Frustriert, aber auch neugierig startete ich meinen Agenten neu, leer, von Anfang an neu aufgesetzt mit den aktuellen CSVs – diesmal mit einem anderen Modell. Frischer Kontext, andere Perspektive. Und plötzlich: Warum nutzt du nicht Notion Buttons? Buttons? Davon hatte der erste Agent nie gesprochen. Ich recherchierte, und ja, genau das war die Lösung. Mit Buttons konnte ich einen Monster-Button bauen, der automatisch alle individuellen Phasen, Meilensteine und Schedule-Einträge basierend auf den eingegebenen Daten anlegte. Das zweite Learning: Ein Agent-Reset in einem neuen Chat bringt oft völlig neue Lösungsansätze.

Phase 5: Das große Aufräumen – Technische Schuld wächst schneller als man denkt

Der Button funktionierte, endlich Fortschritt. Aber dann bemerkte ich ein schleichendes Problem: Meine Datenbanken waren ein Chaos. Bei jedem fehlgeschlagenen Versuch hatte ich Properties hinzugefügt, getestet und dann einfach liegengelassen, statt sie zu löschen. Verknüpfungen zeigten auf nicht mehr genutzte Felder. Rollups bezogen sich auf alte Strukturen. Ein halber Tag Aufräumarbeit war nötig. Jede Datenbank durchgehen, alte Properties entfernen, Verknüpfungen neu prüfen. Das vierte Learning: Bei KI-gestützter Entwicklung entsteht schnell technische Schuld. Regelmäßiges Refactoring ist nicht optional.

Phase 6: Die verzweifelte Update-Suche – Wenn KI Features halluziniert

Das Template funktionierte, aber ich wollte mehr. Wenn ich Verbesserungen einbaue, sollten Nutzer, die mein Template bereits dupliziert haben, diese Updates auch bekommen können. Die KI schlug eine verlinkte Datenbank vor. Perfekt, dachte ich. Ich baute sie auf. Problem eins: Die verlinkte Datenbank ließ sich nicht filtern. Stunden vergingen, bis mir klar wurde, das ist eine Notion-Limitation. Problem zwei: Die verlinkte Datenbank wird in duplizierten Templates überhaupt nicht angezeigt. Die Wahrheit: Die KI hatte mir ein Feature vorgeschlagen, das in ihrem Trainingsmaterial vielleicht erwähnt wurde, aber in der Realität schlicht nicht so funktioniert. Das kostete mich Tage. Am Ende: Ein simpler Link im Template, auf den Nutzer klicken können. Nicht elegant, aber funktional.

Phase 7: Der kritische Agent – Der Gamechanger

Nach dieser Erfahrung richtete ich einen zweiten Agenten ein: Den Kritiker. Seine Aufgabe war, Vorschläge zu hinterfragen, Limitationen aufzuzeigen, Realitätschecks zu machen. Ich fütterte ihn mit meinen Verbesserungsideen. Seine Antworten waren ernüchternd und Gold wert: Das ist ein bekanntes Problem, Notion kann das nicht. Dieses Feature ist für 2026 geplant, aktuell nicht verfügbar. Diese Formel-Kombination führt zu Fehlern. Das fünfte Learning: Ein kreativ-lösungsorientierter Agent braucht einen kritisch-validierenden Gegenpart. Zwei Perspektiven bedeuten weniger Sackgassen.

Fünf zentrale Takeaways aus Teil 1

  1. Methodische Validierung ist Pflicht: KI klingt immer überzeugend – auch wenn sie falsch liegt. Validiere jeden Vorschlag, bevor du stundenlang daran arbeitest.

  2. Agent-Setup zahlt sich aus: Die Zeit, die du in die präzise Konfiguration deines KI-Agenten investierst, sparst du später vielfach ein.

  3. Multi-Modell-Strategie gewinnt: Verschiedene Modelle für verschiedene Aufgaben nutzen und bei Problemen das Modell und ab und zu in einen neuen Chat  wechseln, bringt frische Perspektiven.

  4. Kritische Reflexion einbauen: Richte einen zweiten, kritischen Agent ein, der Vorschläge hinterfragt und Limitationen aufzeigt.

  5. Regelmäßige Resets bei Komplexität: Bei komplexen Projekten verliert die KI den Kontext. Starte regelmäßig neu für frische Perspektiven.

In Teil 2 werde ich dir zeigen, was KI in der Template-Entwicklung wirklich kann – und was nicht, welche konkreten Dos & Don’ts ich nach acht Wochen Entwicklung empfehlen kann, und welches Ergebnis am Ende entstanden ist.

Du willst mehr über achtsame Arbeit mit KI und Notion erfahren? Im Notion-Workshop zeige ich dir, wie du dein eigenes Dashboard für wissenschaftliches Arbeiten aufbaust – ganz nach deinen Bedürfnissen und mit meiner Expertise im Hintergrund.