Ein Solopreneur verbringt täglich fast eine Stunde mit der Suche nach relevanten Tech-News. Doch was nützt es, wenn man am Abend zwar viel gelesen, aber wenig verstanden hat? Die Lösung: ein selbstgebautes KI-System, das gezielt relevante Informationen filtert und aufbereitet. Wie das konkret aussieht – von der Architektur bis zu den Kosten.
Warum herkömmliche News-Aggregatoren scheitern
Für Solopreneurs und kleine Teams ist der tägliche Informationsfluss überflüssig. Statt 50 Links zu durchforsten, braucht man eine klare Empfehlung: Was ist heute wirklich wichtig – und warum? Viele Tools sammeln zwar Daten, liefern aber keine handlungsrelevanten Erkenntnisse. Ein einfacher Link-Aggregator ist damit keine Lösung, sondern eine zusätzliche Ablenkung.
Daher entwickelte ein Solopreneur ein System, das nicht nur sammelt, sondern editiert. Das Ergebnis: ein personalisiertes Morgenbriefing, das in nur zwei Minuten die wichtigsten Tech-Trends des Tages zusammenfasst. Kein Scrollen, kein Raten – nur relevante Erkenntnisse.
Die Architektur: Vier Phasen für ein stabiles System
Das System namens Tavily Intel Pulse läuft als cron-Job um 7 Uhr morgens (Kolumbien-Zeit) und generiert ein strukturiertes Briefing in fünf Abschnitten. Die Architektur besteht aus vier klar getrennten Phasen, die jeweils ihre Daten speichern – für maximale Stabilität.
Phase 1: Datensammlung – 20 Quellen, eine API
Mithilfe der Tavily-API werden täglich 20 Quellen durchsucht, darunter:
- Produktstarts auf Product Hunt
- Hacker News Top-Stories
- Reddit-Communities wie r/AI_Agents oder r/webdev
- GitHub-Trends
- Tech-Medien wie TechCrunch oder The Verge
- Funding-Runden über Crunchbase
Die API nutzt einen kostenlosen Tarif mit 1.000 Credits pro Monat. Die gesammelten Daten werden als JSON-Datei gespeichert (tmp/f1_items_YYYYMMDD.json), sodass die nächste Phase auf bereits vorhandenen Daten aufsetzen kann.
Phase 2: Analyse durch KI – Transparente Bewertung statt Blackbox
Jeder gesammelte Eintrag durchläuft einen Bewertungsscore, der auf klaren Kriterien basiert. Dazu gehören:
- MRR ≥ 45 (mindestens 45 US-Dollar monatlicher wiederkehrender Einnahmen)
- Upvotes ≥ 100 (Community-Interesse)
- Stars ≥ 1.000 (GitHub-Popularität)
- Funding ≥ 10 Mio. USD (Investitionsvolumen)
- Nutzer ≥ 10.000 (Skalierung)
- SaaS-Mention (Relevanz für Software-as-a-Service)
- Agent/MCP-Mention (KI- oder Modul-Interface-Bezug)
- Solopreneur-Mention (Zielgruppe)
Negative Punkte werden bei generischem Inhalt vergeben. Der maximale Score liegt bei 100 Punkten, wobei nur Einträge mit mindestens 20 Punkten weiterverarbeitet werden. Die Top-3-News werden anschließend mit GPT-4o-mini analysiert – einem günstigen und schnellen Modell, das für redaktionelle Zwecke ausreicht.
Die Analyse umfasst drei Teile:
- Die Fakten (Was ist passiert?)
- Warum es wichtig ist (Relevanz für das eigene Business)
- Chance für dich (Wie kann man das nutzen?)
Phase 3: Integration in Notion – Strukturierte Wissensdatenbank
Das finale Briefing wird in einer Notion-Datenbank abgelegt. Die Struktur umfasst:
- Eine klare Überschrift
- Eine KI-generierte Zusammenfassung
- Quelle, Datum, Relevanz und erwartete Auswirkungen
- Fünf Unterabschnitte mit den formatierten Inhalten
Diese Datenbank dient als zentrale Wissensquelle, auf die jederzeit zugegriffen werden kann – ohne manuelles Suchen oder Speichern.
Phase 4: Benachrichtigung per Telegram – Sofortige Handlungsaufforderung
Ein kurzer Telegram-Hinweis informiert den Nutzer über das neue Briefing:
📰 *Morgenbriefing: YYYY-MM-DD*
{Überschrift}
❓ {Frage des Tages}
→ Notion-Ansicht öffnenDie Nachricht enthält einen direkten Link zum Notion-Eintrag, sodass der Nutzer sofort handeln kann.
Die wichtigsten Erkenntnisse aus dem Projekt
Das System durchlief mehrere Iterationen – von instabilen Versionen bis zur aktuellen, robusten Lösung. Dabei kristallisierten sich vier zentrale Lessons heraus:
1. Phasenarchitektur ist unverzichtbar
In früheren Versionen führte ein Fehler in einer Phase zum kompletten Ausfall des Systems. Die aktuelle Version speichert nach jeder Phase die Zwischenergebnisse. Fällt Phase 2 aus, kann der nächste Durchlauf bei Phase 2 wieder aufsetzen – ohne Datenverlust. Das war besonders hilfreich, als Tavily unerwartet API-Keys rotierte.
2. Transparente Bewertungssysteme schaffen Vertrauen
Viele KI-Systeme wirken wie eine Blackbox. Doch in diesem Projekt entscheidet kein undurchsichtiger Algorithmus, sondern ein Punkte-System mit klaren Regeln. Möchte man etwa MRR stärker gewichten, lässt sich das einfach anpassen – ohne aufwendiges Modell-Training.
3. Editorialer Fokus schlägt Datenmenge
Ein Aggregator liefert 50 Links – ein Editor hingegen sagt: „Dieses KI-Framework mit 4.000 Upvotes löst genau dein Problem mit deiner Notion-Pipeline.“ Die entscheidende Frage lautet nicht „Was gibt es Neues?“ sondern „Was ist für mich relevant?“ – und genau das beantwortet das System.
4. Die Kosten bleiben minimal
Trotz hochwertiger KI-Tools hält sich der finanzielle Aufwand in Grenzen:
- Tavily: Kostenloser Tarif (1.000 Credits/Monat)
- GPT-4o-mini: ~0,15 US-Dollar pro Briefing
- Notion API: Kostenlos
- Telegram-Bot: Kostenlos
Insgesamt kostet das System weniger als 5 US-Dollar pro Monat – ein geringer Preis für eine tägliche, personalisierte Wissensaufbereitung.
Technische Umsetzung: Ein Hermes-Agent als Steuerzentrale
Das gesamte System ist als Hermes-Agent-Skill (tavily-intel-pulse) dokumentiert. Die Implementierung umfasst:
- Ein Python-Skript (
morning_briefing.py, Version 5.0) - Eine cron-Job-Konfiguration für die tägliche Ausführung
- Die Notion-Datenbank-Struktur
- Das Bewertungssystem mit Caps
- Fehlerbehandlung pro Phase
- API-Key-Rotation
Die Dateistruktur sieht wie folgt aus:
~/.hermes/scripts/
├── morning_briefing.py # Hauptskript (v5.0)
├── data/
│ └── dedup_history.json # Deduplizierungshistorie (3-Tage-Fenster)
└── tmp/
├── f1_items_YYYYMMDD.json # Rohdaten
├── f2_enriched_YYYYMMDD.json # Analysierte Daten
├── f3_notion_id_YYYYMMDD.txt # Notion-Einträge
└── f4_telegram_sent_YYYYMMDD.txt # Telegram-BenachrichtigungenWarum Solopreneurs von diesem System profitieren
Unabhängige Entwickler und Gründer treffen täglich Entscheidungen zu Produkten, Preisen und Technologiestacks. Doch ohne Marktintelligenz-Team fehlt oft der Kontext. Dieses System liefert genau das:
- Kontext statt Information: Welche Product-Hunt-Launches könnten Konkurrenten sein?
- Frühwarnsystem: Wann gewinnt ein KI-Framework an Bedeutung?
- Handlungsimpulse: Braucht mein aktuelles Produkt ein MCP-Server?
Es ersetzt nicht das eigene Denken, sondern beschleunigt es. Statt stundenlang zu recherchieren, erhält man in zwei Minuten die wichtigsten Erkenntnisse – und kann sofort handeln.
Frage des Tages
Wie viel Zeit verbringst du täglich mit dem Konsum von Informationen, die du am Ende nicht nutzt?
Die Antwort könnte überraschend sein – und der erste Schritt zu einer effizienteren Wissensaufbereitung.
In einer Welt, in der jeder Klick und jedes Scrollen Zeit kostet, ist ein solches System kein Luxus, sondern eine Notwendigkeit. Denn Zeit ist die knappste Ressource für Solopreneurs – und sie sollte nicht mit irrelevanten Informationen verschwendet werden.
KI-Zusammenfassung
Sabahları saatlerce harcadığınız haber taramasını sadece 2 dakikada özetleyen otomatik bir sistem nasıl oluşturulur? Ücretsiz API'ler ve basit puanlama kurallarıyla çalışan bu yapı, bağımsız girişimciler için nasıl devrim yaratabilir?