iToverDose/Girişim· 6 MAYIS 2026 · 00:02

Subquadratic'in 1.000 Kat Verimli Yapay Zeka Modeli: SubQ Gerçek Mi Yoksa Pazarlama Hilesi Mi?

Miami merkezli Subquadratic, 12 milyon token kullanarak dikkat hesaplama maliyetini 1.000 kata kadar azaltan SubQ modeliyle yapay zeka dünyasında devrim yaratma iddiasında. Ancak araştırmacılar bu iddiaların bağımsız doğrulamasına ihtiyaç duyuyor.

VentureBeat3 dk okuma0 Yorumlar

Miami’de kurulan ve adını nadiren duyduğumuz bir startup olan Subquadratic, Salı günü sessizliğini bozarak yapay zeka tarihinde potansiyel bir devrime işaret eden iddialarda bulundu. Şirket, 2017 yılından bu yana her büyük yapay zeka sistemini sınırlayan matematiksel kısıtlamaları ilk kez tamamen aşan bir dil modeli geliştirdiğini öne sürüyor.

Subquadratic’in sunduğu ilk model olan SubQ 1M-Preview, doğrusal olarak ölçeklenen bir mimariye sahip olduğu iddia edilen ilk büyük dil modeli (LLM) olarak konumlandırılıyor. Şirkete göre, bu mimari 12 milyon token boyutunda bile dikkat hesaplama maliyetini diğer öncü modellerle karşılaştırıldığında neredeyse 1.000 kat azaltıyor. Eğer bu iddia bağımsız olarak doğrulanabilirse, yapay zeka sistemlerinin ölçeklenme biçiminde gerçek bir dönüm noktası yaşanabilir.

Aynı zamanda Subquadratic, özel beta aşamasında üç ürünü piyasaya sürüyor:

  • Tam bağlam penceresini sunan bir API
  • Komut satırı tabanlı kodlama aracı SubQ Code
  • Gelişmiş arama yeteneklerine sahip SubQ Search

Şirket, Tinder’ın kurucu ortağı Justin Mateen, SoftBank Vision Fund’un eski ortağı Javier Villamizar ve Anthropic, OpenAI, Stripe ile Brex’in erken dönem yatırımcıları da dahil olmak üzere çeşitli yatırımcılardan toplam 29 milyon dolarlık tohum finansmanı aldı. Bu yatırımın şirketin değerlemesini 500 milyon dolara çıkardığı bildirildi.

Kuadratik Ölçeklenme Sorunu: Yapay Zekanın Ekonomisini Şekillendiren Kısıtlama

Transformeri tabanlı tüm büyük dil modelleri — OpenAI, Anthropic, Google ve diğerlerinin sunduğu sistemler dahil — “dikkat” adı verilen bir işlemi kullanır. Her token diğer tüm tokenlarla karşılaştırıldığından, girdi büyüdükçe hesaplama gereksinimi kuadratik olarak artar. Yani girdi iki katına çıktığında, maliyet dört katına çıkar.

Bu ilişki, yapay zeka endüstrisinin neyi inşa edebileceğini ve neyi inşa edemeyeceğini belirleyen temel bir kısıt haline geldi. Günümüzde çoğu modelde standart token sayısı 128.000 iken, Claude Sonnet 4.7 ve Gemini 3.1 Pro gibi öncü bulut modellerinde bu sayı 1 milyona kadar çıkabiliyor.

Ancak bu büyüklüklerdeki girdileri işlemek, maliyet açısından son derece pahalı hale geliyor. Endüstri, uzun girdileri verimli bir şekilde işleyemeyen modellerin bu kısıtlamasını aşmak için çeşitli geçici çözümler geliştirmek zorunda kaldı. RAG (Retrieval-Augmented Generation) sistemleri, arama motorlarından yalnızca küçük bir dizi ilgili sonucu çekip bunları modele gönderirken, geliştiriciler de çok katmanlı alım stratejileri, parça bölme teknikleri ve çok ajanlı orkestra sistemleri gibi katmanlı çözümler ekliyor.

Subquadratic’in kurucu ortağı ve CTO’su Alexander Whedon, bu geçici çözümlerin verimsiz ve kırılgan olduğunu savunuyor. Whedon, SiliconANGLE ile yaptığı röportajda şunları söyledi: “Daha önce manuel olarak promptları, alım sistemlerini, değerlendirmeleri ve koşullu mantığı bir araya getirerek karmaşık iş akışları oluştururdum. Bunun insan zekasının bir israfı olduğunu ve ürün kalitesini sınırladığını düşünüyorum.”

Subquadratic’in Basit Görünen Çözümü: Önemsiz Hesaplamaları Durdurmak

Şirketin Subquadratic Sparse Attention (SSA) adı verdiği yaklaşımı, standart dikkat mekanizmasının temel bir varsayımını sorguluyor: Tokenlar arasındaki karşılaştırmaların çoğu gereksiz hesaplama olarak değerlendirilebilir. SSA, tokenların yalnızca anlamlı karşılaştırmalarını hesaplayarak dikkat mekanizmasını optimize eder. Bu seçim, içerik temelli olarak gerçekleşir; model, sabit konumsal desenlerden ziyade anlamına dayanarak hangi karşılaştırmaların önemli olduğunu belirler. Bu sayede, model uzun bağlamlardaki bilgileri sabit bir maliyet artışı olmaksızın etkili bir şekilde kullanabilir.

Pratik sonuçlar, bağlam uzunluğu arttıkça daha da belirginleşiyor — ki bu tam da çözmeye çalıştığı problemin tersine işliyor. Şirketin teknik blogunda yayınladığı verilere göre, SSA 128.000 tokenda yoğun dikkate kıyasla 7,2 kat daha hızlı önişlem sağlarken, 1 milyon tokenda bu oran 52,2 kata çıkıyor. Whedon’un ifadesiyle: “Eğer girdi boyutunu ikiye katlarsanız, kuadratik ölçekleme yasaları altında dört kat daha fazla hesaplama gerektirirken; doğrusal ölçekleme yasaları altında yalnızca iki kat daha fazla hesaplama yeterli oluyor.”

Şirket, modelin eğitimini üç aşamada tamamladığını belirtiyor: Ön eğitim, denetimli ince ayar ve uzun bağlamlı alım başarısızlıklarını hedef alan pekiştirici öğrenme aşaması. Bu sayede model, mevcut sistemlerde yaygın olan ve performansı gizlice düşüren bir sorun olan uzak bağlamları kullanma eğilimini geliştiriyor.

Üç Benchmark Güçlü Bir Resim Çiziyor — Ancak Göz Ardı Edilenler Daha Önemli Olabilir

Yüzeysel olarak bakıldığında, SubQ’nun benchmark sonuçları milyarlarca dolar harcayan kuruluşlar tarafından geliştirilen modellerle karşılaştırılabilir düzeyde ya da onlardan daha iyi. SWE-Bench Verified testinde SubQ, 81,8 puan alırken; bu skor Anthropic’in Opus 4.6 modelinde 80,8 ve DeepSeek 4.0’da ise biraz daha düşük olarak kaydedildi.

Ancak bu başarının ardındaki gerçek performansın ve verimliliğin bağımsız olarak doğrulanması gerekiyor. Araştırmacılar, Subquadratic’in sunduğu verilerin doğruluğu ve metodolojisinin şeffaflığı hakkında ciddi soru işaretleri taşıyor. Henüz kamuoyu ile paylaşılmayan bağımsız test sonuçları ve detaylı teknik incelemeler, bu iddiaların gerçek dünya uygulamalarında ne kadar geçerli olduğunu ortaya koyacak.

Eğer SubQ’nun sunduğu doğrusal ölçeklenme yeteneği kanıtlanırsa, yapay zeka endüstrisinde veri merkezlerinden uygulama geliştirme maliyetlerine kadar geniş bir yelpazede devrim niteliğinde değişiklikler yaşanabilir. Ancak teknoloji dünyasının bu iddialara karşı gösterdiği sağduyulu şüphecilik, Subquadratic’in sunduğu geleceğin ne kadar yakın olduğunu anlamak için daha fazla kanıt ve zaman gerektiğini gösteriyor.

Yapay zeka özeti

Miami merkezli Subquadratic, 12 milyon token kullanarak dikkat hesaplama maliyetini 1000 kata kadar azalttığını iddia eden SubQ modeliyle yapay zekada devrim yaratma iddiasında. Detayları ve araştırmacıların tepkileri burada.

Yorumlar

00
YORUM BIRAK
ID #WACA0E

0 / 1200 KARAKTER

İnsan doğrulaması

9 + 3 = ?

Editör onayı sonrası yayına girer

Moderasyon · Spam koruması aktif

Henüz onaylı yorum yok. İlk yorumu sen bırak.