Vorhersagemärkte wie Polymarket oder Kalshi wirken auf den ersten Blick wie ein Paradies für Trader – besonders für diejenigen, die nach risikoarmen Gewinnen suchen. Doch als ich vor einigen Wochen in die Welt der Prediction Arbitrage eintauchte, stieß ich schnell auf eine harte Realität: Selbst die scheinbar einfachsten Strategien können zu einem Albtraum werden, wenn die zugrundeliegenden Daten unzuverlässig sind.
Die Illusion der risikofreien Gewinne
Mein Abenteuer begann mit einer simplen Beobachtung: Auf verschiedenen Plattformen wurden identische Ereignisse oft zu unterschiedlichen Preisen gehandelt. Ein Beispiel aus der NBA-Saison: Auf Kalshi kostete die Wette auf "New York gewinnt gegen Chicago" im Schnitt 21,0 Cent für ein Ja, während dieselbe Wette auf PredictFun für 22,3 Cent als Nein angeboten wurde. Theoretisch hätte ich beide Positionen gleichzeitig kaufen und einen risikofreien Gewinn von 43,3 Cent sichern können – bei einem Einsatz von 47.000 Dollar wären das nach Gebühren ein Nettogewinn von über 61.000 Dollar gewesen. Ein Traum für jeden Trader.
Doch wie so oft im Trading steckt der Teufel im Detail. Die Idee klang verlockend, doch die Umsetzung erwies sich als weitaus komplexer als erwartet. Ich beschloss, einen Echtzeit-Monitor zu bauen, der solche Arbitrage-Chancen automatisch erkennt – und scheiterte grandios.
Der Aufbau: Rust, WebSockets und gute Absichten
Mein Plan war klar: Ich wollte eine leichtgewichtige Architektur in Rust entwickeln, die kontinuierlich Daten von sechs Vorhersagemärkten abruft – darunter Polymarket, Kalshi, PredictFun, Proba, Limitless und Opinion. Die technische Umsetzung schien zunächst unkompliziert:
- REST-APIs für die Abfrage aktiver Märkte
- WebSockets für Echtzeit-Updates der Orderbücher
- Ein Matching-Algorithmus, der identische Ereignisse über Plattformen hinweg verknüpft
Die ersten Tests verliefen vielversprechend. Doch dann kam der Moment, in dem ich erkannte, dass die größte Herausforderung nicht in der Technik, sondern in der Datenkonsistenz lag. Wie vergleicht man zwei Fragen wie "Wird Team A gewinnen?" und "Team A vs. Team B – wer gewinnt?" – und entscheidet, ob es sich um dasselbe Ereignis handelt?
Der Matching-Algorithmus: Vom Fuzzy-Logik-Desaster zur KI-Lösung
Ich entwickelte einen vierstufigen Filterprozess, um identische Märkte zu erkennen:
- Xref-Methode: PredictFun stellt direkte Verknüpfungen zu anderen Plattformen bereit. Ein Graph-Algorithmus (BFS) sollte diese Beziehungen ausnutzen – doch die Methode war nur in 100% der Fälle zuverlässig, wenn die Daten bereits vorlagen.
- Normalisierte Fragen: Ich versuchte, Fragen wörtlich zu vergleichen. Bei 95% Genauigkeit funktionierte das – aber was ist mit leicht abgewandelten Formulierungen? Ein Markt wie "Wird der Bitcoin über 50.000 USD steigen?" vs. "Bitcoin-Preis über 50.000 USD – ja oder nein?" wäre durchgefallen.
- Fuzzy Jaccard-Ähnlichkeit: Hier kam ein inverted index zum Einsatz, der Märkte mit mindestens drei gemeinsamen Wörtern identifizierte. Ein Entity Guard sollte verhindern, dass etwa "Frankreich vs. Brasilien" mit einem komplett anderen Spiel verwechselt wurde. Anschließend wurden transitive Ketten mit Union-Find kombiniert.
- Merge-Logik: Der finale Schritt sollte die Ergebnisse aus den vorherigen Stufen zusammenführen – doch die Randfälle rissen alle Pläne in den Abgrund.
Am Ende blieb ein frustrierender Realitätseinschlag: Regex und statistische Ähnlichkeitsmaße reichen nicht aus. Selbst mit einer Genauigkeit von 95% blieben zu viele Fehler übrig. Die Ursache? Plattformen formulieren Fragen extrem unterschiedlich – mal knapp, mal ausgeschmückt, mal mit zusätzlichen Bedingungen. Ohne KI-gestützte Klassifizierung und manuelle Überprüfung der Marktbeschreibungen war an eine zuverlässige Lösung nicht zu denken.
Das Scheitern und die Lektionen
Nach stundenlangem Debuggen und mehreren gescheiterten Optimierungsversuchen musste ich eingestehen: Mein Projekt war gescheitert. Die Vision eines öffentlichen Arbitrage-Monitors verschwand im digitalen Schubladen-System. Doch die Erfahrung brachte wertvolle Erkenntnisse mit sich:
- Datenqualität ist alles: Oberflächliche Textvergleiche reichen nicht aus. Echte semantische Analyse ist unverzichtbar.
- KI ist unvermeidbar: Für eine zuverlässige Lösung müssen LLMs eingesetzt werden, um Fragen zu standardisieren und Marktregeln zu prüfen.
- Geduld schlägt FOMO: Der Drang, schnell Ergebnisse zu sehen, führte zu technischen Schulden, die das Projekt unbrauchbar machten.
Was kommt als Nächstes?
Auch wenn der Arbitrage-Monitor vorerst auf Eis liegt, ist die Idee noch nicht tot. Mit einer besseren Datenbasis, einem robusten KI-System und einer klaren Matching-Strategie könnte das Projekt eines Tages doch noch Realität werden. Bis dahin bleibt die Welt der Vorhersagemärkte ein spannendes, aber auch gefährliches Terrain – besonders für diejenigen, die glauben, den Markt mit einfachen Algorithmen austricksen zu können.
KI-Zusammenfassung
Learn how prediction market arbitrage works, why automated monitors fail, and what AI could do to fix the matching problem.
Tags