Ein erfolgreicher Indie-Maker oder Tech-Entrepreneur muss täglich über neue Entwicklungen in der Branche informiert sein. Doch die manuelle Suche nach relevanten Nachrichten in Hacker News, Produktankündigungen oder Finanzierungsrunden frisst wertvolle Zeit. Ein selbstgebautes KI-System namens Tavily Intel Pulse übernimmt diese Aufgabe nun automatisch – und liefert jeden Morgen ein strukturiertes Briefing mit den wichtigsten Insights.
Warum Standard-Newsletter nicht ausreichen
Die meisten Tech-Newsletter und Aggregatoren bieten zwar eine Fülle an Links, aber selten einen echten Mehrwert. Sie listen einfach nur Schlagzeilen auf, ohne zu erklären, warum eine Meldung für den eigenen Geschäftsbereich relevant sein könnte. Genau hier setzt die Lösung des Indie-Makers an: Statt stundenlang durch unzählige Quellen zu scrollen, erhält er jeden Morgen ein redaktionell aufbereitetes Briefing mit klaren Handlungsempfehlungen.
Das System kombiniert mehrere Datenquellen und filtert gezielt nach Relevanzkriterien wie Funding-Runden, Nutzerwachstum oder spezifischen Technologien. So entsteht ein personalisiertes Frühstücksmenü aus Tech-Nachrichten – ohne Ballast.
Die vierstufige Architektur des KI-Briefings
Das System durchläuft täglich vier klar definierte Phasen, die jeweils ihre Zwischenergebnisse speichern. Fällt eine Phase aus, wird sie beim nächsten Lauf automatisch neu gestartet – ohne dass der gesamte Prozess von vorne beginnen muss. Diese Resilienz war ein entscheidender Lernpunkt in der Entwicklung.
Phase 1: Automatisierte Datenerfassung
Morgens um 7 Uhr startet das Skript und sammelt zunächst strukturierte Daten aus 20 verschiedenen Quellen. Dazu gehören:
- Produktstarts auf Product Hunt
- Top-Stories von Hacker News
- Trends auf GitHub
- Finanzierungsrunden über Crunchbase
- Relevante Subreddits wie r/AI_Agents oder r/webdev
- Artikel von TechCrunch und The Verge
Die Daten werden zunächst in Rohform gespeichert, bevor sie weiterverarbeitet werden. Besonders wichtig: Jede URL wird mit einem Hash-Wert erfasst, um Dubletten zu vermeiden und die Effizienz zu steigern.
Phase 2: Intelligente Bewertung der Inhalte
Nicht alle Nachrichten sind gleich relevant. Deshalb durchläuft jeder Eintrag einen Scoring-Algorithmus, der nach festen Regeln Punkte vergibt. Dazu gehören:
- Finanzierungsvolumen (z. B. +45 Punkte bei über 5.000 USD monatlichem Umsatz)
- Nutzerwachstum (z. B. +35 Punkte bei über 100 Upvotes)
- Technologie-Fokus (z. B. +20 Punkte bei Erwähnung von SaaS oder AI-Agenten)
- Marktpräsenz (z. B. +25 Punkte bei Seed-Finanzierungen über 10 Millionen USD)
Negative Punkte werden für generische Inhalte vergeben. Die maximale Punktzahl pro Eintrag liegt bei 100, und nur Beiträge mit mindestens 20 Punkten qualifizieren sich für die weitere Verarbeitung. Diese transparente Bewertung macht das System nachvollziehbar und anpassbar.
Phase 3: Strukturierte Aufbereitung in Notion
Die besten drei Meldungen werden nun mit GPT-4o-mini analysiert und in einem strukturierten Format aufbereitet. Das Ergebnis enthält:
- Einen prägnanten Titel
- Eine kurze Zusammenfassung
- Die Quelle und das Veröffentlichungsdatum
- Eine Bewertung der Relevanz und des erwarteten Einflusses
- Eine Frage des Tages, die zum Nachdenken anregt
Alle Daten werden in einer Notion-Datenbank abgelegt, die mit den vordefinierten Abschnitten des Briefings verknüpft ist. So entsteht ein übersichtliches und durchsuchbares Archiv.
Phase 4: Automatische Benachrichtigung per Telegram
Parallel wird eine kurze Nachricht an den Nutzer gesendet, die direkt zu dem ausführlichen Briefing in Notion führt. Die Benachrichtigung enthält:
📰 *Morning Briefing: 2024-05-20*
🔍 Neuer AI-Agent-Framework mit 4.000 Upvotes
❓ Sollte dein Produkt einen MCP-Server integrieren?
→ Im Notion einsehenDiese Kombination aus kurzer Vorschau und detaillierter Quelle sorgt für maximale Effizienz.
Die entscheidenden Learnings aus der Entwicklung
Die erste Version des Systems war noch fehleranfällig und benötigte ständige manuelle Nachjustierungen. Doch mit jeder Iteration wurde das System robuster und zuverlässiger. Vier zentrale Erkenntnisse prägten die finale Version:
1. Modularität ist unverzichtbar
In der Version 4.0 führte ein Fehler in der KI-Analyse dazu, dass das gesamte Briefing unbrauchbar wurde. Die Lösung: Jede Phase speichert ihre Zwischenergebnisse in separaten Dateien. Fällt eine Phase aus, kann das System beim nächsten Lauf dort weitermachen, wo es aufgehört hat. Das spart nicht nur Zeit, sondern auch Geld – besonders bei API-Nutzung.
2. Transparenz schafft Vertrauen
Die Bewertungslogik des Scoring-Algorithmus ist offen einsehbar. Nutzer können die Gewichtung der Kriterien nach ihren eigenen Bedürfnissen anpassen. Das unterscheidet das System von einer „Blackbox-KI“, die Entscheidungen trifft, ohne sie zu erklären.
3. Qualität schlägt Quantität
Ein klassischer Newsletter liefert Dutzende Links – aber welche davon sind wirklich relevant? Das neue System filtert gezielt nach konkreten Geschäftsmodellen, Nutzerwachstum und technologischen Trends. So entsteht ein Briefing, das nicht nur informiert, sondern direkt Handlungsoptionen aufzeigt.
4. Kosten bleiben im Rahmen
Trotz der komplexen Architektur bleibt das System erschwinglich:
- Tavily API: Kostenlos im Free-Tier (bis zu 1.000 Credits/Monat)
- OpenAI GPT-4o-mini: Rund 0,15 USD pro Briefing
- Notion API: Kostenlos
- Telegram-Bot: Kostenlos
Die monatlichen Gesamtkosten liegen damit bei unter 5 USD – ein Bruchteil dessen, was ein menschlicher Rechercheur kosten würde.
Praktische Umsetzung: So startest du selbst
Wer das System nachbauen möchte, kann die Hermes-Agent-Skill „tavily-intel-pulse“ nutzen. Diese umfasst:
- Das Hauptskript
morning_briefing.py(Version 5.0) - Eine detaillierte Anleitung zur Konfiguration
- Ein Schema für die Notion-Datenbank
- Den Scoring-Algorithmus mit Kapazitätsgrenzen
- Ein Fehlerbehandlungssystem pro Phase
- Eine Rotation für API-Keys zur Vermeidung von Sperren
Benötigte Struktur der Dateien
~/.hermes/scripts/
├── morning_briefing.py # Hauptskript (v5.0)
├── data/
│ └── dedup_history.json # URL-Hashes der letzten drei Tage
└── tmp/
├── f1_items_20240520.json
├── f2_enriched_20240520.json
├── f3_notion_id_20240520.txt
└── f4_telegram_sent_20240520.txtErste Schritte zur Implementierung
- Klone die Skill-Dateien in dein Hermes-Agent-Verzeichnis.
- Trage deine API-Keys für Tavily, OpenAI, Notion und Telegram ein.
- Passe die zu überwachenden Quellen und Keywords an dein spezifisches Tech-Segment an.
- Richte einen Cron-Job ein, der täglich um 7 Uhr morgens läuft:
0 12 * * * /usr/bin/python3 ~/.hermes/scripts/morning_briefing.py- Starte das System und lies dein erstes Briefing am nächsten Morgen.
Warum das für Indie-Maker und Tech-Entrepreneure entscheidend ist
Als Solo-Entwickler oder kleines Team fehlt oft die Zeit für eine umfassende Marktbeobachtung. Doch täglich müssen Entscheidungen über Produktfeatures, Preismodelle oder Technologie-Stacks getroffen werden. Ein automatisiertes Briefing gibt genau den kontextuellen Rahmen, der für fundierte Entscheidungen notwendig ist.
Stell dir vor, du erhältst jeden Morgen eine kurze Analyse zu einem neuen AI-Agenten-Framework mit 4.000 Upvotes – inklusive der Frage, ob dein eigenes Produkt von einem MCP-Server profitieren könnte. Solche Insights beschleunigen nicht nur die Entscheidungsfindung, sondern verhindern auch, dass wichtige Trends übersehen werden.
Die finale Frage an dich
Wie viel Zeit verschwendest du täglich mit dem Konsum von Informationen, die du nicht direkt umsetzen kannst?
Ein KI-gestütztes Briefing-System wie dieses könnte dir diese Stunden zurückgeben – und dir gleichzeitig helfen, bessere Entscheidungen zu treffen.
KI-Zusammenfassung
Tavily Intel Pulse sistemi, her sabah saat 7'de çalıştırılan bir cron job'dur. Sistem, 5 bölümden oluşan yapılandırılmış bir briefing sunar ve önemli haberleri özetler.