Künstliche Intelligenz verändert die Art und Weise, wie wir Inhalte erstellen. Doch wie lässt sich Qualität sicherstellen, wenn Algorithmen Texte automatisch verfassen? Ein neues Proof-of-Concept-Projekt zeigt, wie ein Multi-Agenten-System mit LangGraph und AWS Bedrock Nova dies erreicht – und dabei sogar iterativ verbessert.
Ein intelligenter Workflow für automatisierte Blog-Inhalte
Das Projekt nutzt ein Generator-Evaluator-Muster, bei dem zwei spezialisierte Agenten zusammenarbeiten: Ein Generator erstellt Inhalte, während ein Evaluator diese prüft und Feedback gibt. Dieser Ansatz kombiniert Kreativität mit strukturierter Kritik – ähnlich wie ein menschlicher Redakteur, der einen Text zunächst schreibt und dann überarbeitet.
Die Architektur basiert auf LangGraph, einer Bibliothek für Multi-Agenten-Workflows, und dem AWS-Bedrock-Nova-Modell, das als Sprachmodell dient. Der Prozess beginnt mit der Analyse eines Benutzerprompts, extrahiert relevante Schlüsselwörter und recherchiert anschließend aktuelle Artikel auf der DEV Community. Anschließend wird ein erster Entwurf erstellt, der vom Evaluator geprüft und bei Bedarf verbessert wird. Besonders innovativ: Der Workflow speichert die recherchierten Informationen in einer memory.md-Datei, um Kontext für zukünftige Durchläufe zu bewahren.
Warum das Generator-Evaluator-Pattern funktioniert
Der Ansatz bietet mehrere Vorteile:
- Qualitätssteigerung durch iterative Verbesserung: Der Generator erstellt Inhalte, der Evaluator prüft und gibt Feedback – ein Zyklus, der so lange durchläuft, bis ein bestimmter Qualitätsstandard erreicht ist.
- Aufgabentrennung für höhere Zuverlässigkeit: Während der Generator für die Kreation zuständig ist, übernimmt der Evaluator die kritische Prüfung – eine klare Trennung der Verantwortlichkeiten.
- Flexibilität für verschiedene Anwendungsfälle: Das Muster eignet sich nicht nur für Blog-Inhalte, sondern auch für Codegenerierung oder komplexe analytische Aufgaben.
Praktische Umsetzung: So funktioniert die Technologie
Die Implementierung erfordert einige technische Voraussetzungen. Zunächst müssen die Abhängigkeiten installiert werden:
python3 -m venv .venv
source .venv/bin/activate
pip install --upgrade pip
pip install -r requirements.txtDie requirements.txt enthält folgende Pakete:
langchainundlangchain-awsfür die Integration von Sprachmodellenlanggraphfür die Multi-Agenten-Architekturboto3für den AWS-Zugrifflangfusefür das Monitoring und die Bewertung der Ergebnisse
AWS-Bedrock-Zugang einrichten
Um das Nova-Modell von AWS Bedrock nutzen zu können, sind zwei Schritte erforderlich:
- Modellzugriff aktivieren: In der AWS-Bedrock-Konsole muss der Zugriff auf das Nova-Pro-Modell konfiguriert werden.
- IAM-Berechtigungen vergeben: Dem AWS-Benutzer muss die Rolle
AmazonBedrockFullAccesszugewiesen werden.
Für die Authentifizierung gibt es zwei Optionen:
- AWS CLI-Konfiguration: Mit
aws configurewerden die Zugangsdaten in den Konfigurationsdateien gespeichert. - Umgebungsvariablen: Alternativ können die Zugangsdaten in einer
.env-Datei hinterlegt werden:
AWS_ACCESS_KEY_ID=DEIN_ZUGANGS_KEY
AWS_SECRET_ACCESS_KEY=DEIN_GEHEIMER_ZUGANGS_KEYSpeichermechanismus für Kontext und Iterationen
Ein zentraler Bestandteil des Systems ist die Speicherung von Kontextinformationen in einer memory.md-Datei. Diese Datei wird bei jedem Durchlauf aktualisiert und enthält:
- Eine Übersicht über die recherchierten Themen
- Quellenangaben der verwendeten Artikel
- Kritische Hinweise und Verbesserungsvorschläge
- Ein Logbuch aller Iterationen
Die Speicherfunktionen ermöglichen es, Informationen zwischen verschiedenen Durchläufen zu übertragen und so die Qualität der Ergebnisse kontinuierlich zu steigern. Die Implementierung umfasst folgende Methoden:
mem_init(): Initialisiert die Speicherdatei mit einem neuen Thema.mem_read(): Liest den aktuellen Inhalt der Datei.mem_append(): Fügt neue Inhalte in eine bestimmte Sektion ein, ohne die bestehende Struktur zu zerstören.
Recherche und Inhaltsgenerierung im Detail
Der Generator-Agent beginnt mit der Extraktion von Schlüsselwörtern aus dem Benutzerprompt. Anschließend werden über eine DuckDuckGo-Suche relevante Artikel auf der DEV Community identifiziert. Die gefundenen Inhalte werden gefiltert, um nur hochwertige und thematisch passende Artikel zu berücksichtigen.
Die Inhaltsaufbereitung erfolgt in mehreren Schritten:
- Filterung nach Qualität: Nur Artikel mit mindestens 300 Zeichen werden berücksichtigt.
- Bereinigung von HTML-Code: Unerwünschte Tags wie
<style>oder<script>werden entfernt. - Zusammenfassung der Inhalte: Die relevanten Abschnitte werden extrahiert und für die weitere Verarbeitung aufbereitet.
Der Generator kombiniert die recherchierten Informationen mit einer Prompt-Anfrage an das Sprachmodell, um einen vollständigen Blog-Entwurf zu erstellen. Dieser Entwurf wird anschließend an den Evaluator-Agenten übergeben.
Der Evaluator-Agent: Qualitätskontrolle durch strukturierte Kritik
Der Evaluator prüft den generierten Text anhand verschiedener Kriterien:
- Klarheit und Kohärenz: Ist der Text verständlich und logisch aufgebaut?
- Faktische Richtigkeit: Enthält der Text korrekte Informationen?
- Stil und Ton: Entspricht der Text dem gewünschten Stil?
- Struktur: Ist der Text gut gegliedert und übersichtlich?
Basierend auf dieser Analyse gibt der Evaluator ein Feedback, das entweder zur Akzeptanz des Textes oder zu einer weiteren Iteration führt. Der Generator erhält dieses Feedback und passt den Text entsprechend an. Dieser Prozess wiederholt sich, bis eine vordefinierte Anzahl von Iterationen erreicht oder ein bestimmter Qualitätsstandard erfüllt ist.
Ausblick: Von Proof-of-Concept zur Produktionsreife
Das vorgestellte Projekt ist bewusst als Proof-of-Concept gestaltet, um die Machbarkeit und die Vorteile des Multi-Agenten-Ansatzes zu demonstrieren. Für den produktiven Einsatz wären jedoch weitere Optimierungen notwendig:
- Skalierung der Recherche: Die Integration weiterer Datenquellen könnte die Qualität der Inhalte weiter verbessern.
- Anpassung an spezifische Domänen: Durch fein abgestimmte Prompts und spezifische Trainingsdaten könnte der Generator für bestimmte Fachbereiche optimiert werden.
- Performance-Optimierung: Eine effizientere Nutzung der AWS-Ressourcen könnte die Kosten senken und die Geschwindigkeit erhöhen.
Das Generator-Evaluator-Pattern zeigt, wie KI-gestützte Systeme die Inhaltserstellung revolutionieren können – und gleichzeitig eine hohe Qualität sicherstellen. Für Entwickler, die sich mit Multi-Agenten-Systemen beschäftigen, bietet das Projekt einen praktischen Einstieg und zahlreiche Anknüpfungspunkte für eigene Experimente.
KI-Zusammenfassung
Çoklu ajanlar ve bellek yönetimiyle DEV blog yazısını otomatikleştirin. AWS Bedrock Nova modelini kullanarak kaliteli içerik üretin ve değerlendirme döngüsüyle iyileştirin.