iToverDose/Girişim· 22 NISAN 2026 · 20:01

Google'un Nvidia Vergisini Ödememesinin Sırrı: Yeni TPU'lar ve İkili Mimari

Google, yapay zeka eğitiminde Nvidia’nın yüksek maliyetlerine alternatif olarak geliştirdiği TPU 8t ve TPU 8i ile veri merkezi hesaplama maliyetlerini nasıl düşürüyor? İki özel çip tasarımının detayları ve Google’ın dikey entegrasyon avantajı.

VentureBeat3 dk okuma0 Yorumlar

Google’ın yapay zeka (AI) altyapısındaki en önemli hamlesi, bu hafta Las Vegas’taki özel bir etkinlikte tüm dikkatleri üzerine çekti. Şirketin Sekizinci Nesil Tensor İşlem Birimleri (TPU) ailesi olan TPU 8t ve TPU 8i, AI modellerinin hem eğitim hem de gerçek zamanlı çıkarım süreçlerinde devrim yaratmayı hedefliyor. Bu yenilikler, sadece performans artışı sağlamakla kalmıyor, aynı zamanda Google’ın “Nvidia vergisi” olarak adlandırılan yüksek donanım maliyetlerinden kaçınmasının yolunu da açıyor.

Google’un AI ve Altyapı Kıdemli Başkan Yardımcısı Amin Vahdat, etkinlikte yaptığı açıklamada, şirketin AI yığınını baştan sona entegre bir şekilde tasarladığını vurguladı. Bu yaklaşımın, rakiplerinin maliyet-per-token oranlarında karşılayamayacağı avantajlar sunduğunu belirtti. “Tek bir çiple ilerlemek artık yeterli değil” diyen Vahdat, 2024 yılında alınan karar doğrultusunda, hem eğitim hem de çıkarım işlemleri için özel olarak tasarlanmış iki farklı çipin geliştirildiğini açıkladı. Bu stratejinin, AI endüstrisinin o dönemdeki yaygın varsayımlarına karşı bir adım olduğu da vurgulandı.

TPU 8t: Eğitimde Dönüm Noktası

TPU 8t, yedinci nesil TPU’lara kıyasla önemli performans artışları sunuyor. Google’a göre, her pod’daki FP4 EFlops değeri 42.5’ten 121’e yükselirken, çift yönlü ölçeklenebilirlik bant genişliği 19.2 Tb/s’ye çıkıyor. Ayrıca, ölçeklenebilir ağ yapısı 400 Gb/s’ye dört kat artırılmış durumda. Pod büyüklüğü ise 9.216’dan 9.600’e yükselirken, Google’ın 3D Torus topolojisi sayesinde daha verimli bir bağlantı sağlanıyor.

En dikkat çekici yenilik ise Virgo adlı yeni ağ altyapısı. Bu teknoloji, tek bir eğitim işleminde 1 milyondan fazla TPU çipini birbirine bağlayarak, devasa modellerin eğitiminde duvar saati süresini önemli ölçüde kısaltıyor. Ayrıca, TPU Doğrudan Depolama (TPU Direct Storage) özelliği, verilerin CPU aracılığı olmadan doğrudan HBM belleğine aktarılmasını sağlayarak, veri aktarım sürecindeki gecikmeleri ortadan kaldırıyor. Bu da, özellikle uzun süreli eğitimlerde maliyetlerin düşürülmesine katkıda bulunuyor.

TPU 8i: Gerçek Zamanlı AI İçin Yeniden Tasarlanan Çip

TPU 8i, mimari açıdan daha yenilikçi bir tasarıma sahip. Vahdat’ın ifadesiyle, bu çipteki performans artışları “şaşırtıcı” düzeyde. Google’a göre, her poddaki FP8 EFlops değeri 1.2’den 11.6’ya yükselirken, HBM kapasitesi 49.2 TB’den 331.8 TB’ye çıkıyor. Pod büyüklüğü de 256’dan 1.152’ye yükselmiş durumda.

Ancak asıl devrim, Boardfly adlı yeni ağ topolojisinde yatıyor. Google, bu teknolojiyle birlikte, veri aktarım hızından ziyade yanıt süresinin minimum olması gerektiğini fark etmiş. Bu yaklaşım, özellikle ajan tabanlı AI uygulamaları ve pekiştirmeli öğrenme gibi gerçek zamanlı işlemler için kritik önem taşıyor. Boardfly topolojisi, herhangi iki çip arasındaki sıçrama sayısını azaltarak, gecikmeyi beş kat azaltmayı hedefliyor. Ayrıca, Kolektif Hızlandırma Motoru ve büyük önbellekli SRAM kullanımıyla, gerçek zamanlı LLM örnekleme ve pekiştirmeli öğrenme süreçlerinde önemli iyileşmeler sağlanıyor.

Dikey Entegrasyonun Avantajı: Nvidia Vergisinden Kaçış

Google’ın AI yığınına dair altı katmanlı bir diyagram sunan Vahdat, her katmanın bağımsız olarak tasarlanmasının en düşük ortak paydaya yol açtığını belirtti. Oysa Google, AI altyapısını baştan sona birlikte tasarlayarak, bu dezavantajı ortadan kaldırıyor. Bu yaklaşım, özellikle OpenAI, Anthropic ve Meta gibi şirketlerin Nvidia’nın yüksek marjlı GPU’larına bağımlılığı nedeniyle karşılaştığı “Nvidia vergisi”nden kaçınmasını sağlıyor.

Google, TPU’ların üretim ve mühendislik maliyetlerini kendisi karşılarken, rakipleri Nvidia’nın veri merkezi marjlarını ödemek zorunda kalıyor. Bu durum, Google’ın AI modellerini daha düşük maliyetle eğitmesine ve müşterilerine daha rekabetçi fiyatlar sunmasına olanak tanıyor. Vahdat’ın ifadesiyle, bu strateji, AI altyapısındaki maliyetleri yeniden tanımlıyor ve şirketlere daha verimli bir yol sunuyor.

2026 ve Ötesi: AI Hesaplama Yarışında Yeni Dönem

Google’un TPU 8 serisi, AI hesaplama yarışında yeni bir değerlendirme kriteri oluşturuyor. IT liderlerinin ve altyapı ekiplerinin bu yenilikleri değerlendirirken dikkate alması gereken birkaç önemli nokta bulunuyor. Eğitim odaklı ekipler için TPU 8t’in kullanılabilirliği, Virgo ağ altyapısına erişim ve performans taahhütleri (SLA) kritik önem taşıyor. Ajan tabanlı uygulamalar içinse TPU 8i’nin Vertex AI üzerindeki kullanılabilirliği, bağımsız gecikme testleri ve HBM kapasitesi gibi faktörler öne çıkıyor.

Google’ın yaptığı duyurular, AI altyapısının geleceği hakkında önemli ipuçları sunuyor. Ancak, TPU 8 serisinin genel kullanıma sunulması henüz 2026’nın ikinci yarısını bulacak. Bu süreçte, şirketin yol haritasını yakından takip etmek ve yeni teknolojilerin benimsenmesi için gereken hazırlıkları yapmak önem taşıyor. Google’ın bu hamlesi, AI endüstrisinde maliyet ve performans dengesini yeniden tanımlayabilir ve diğer bulut sağlayıcılarına da ilham verebilir.

Yapay zeka özeti

Google’s new TPU v8 chips replace Nvidia’s high-margin GPUs with custom silicon designed for AI training and real-time agents. See how v8t and v8i cut costs and improve performance.

Yorumlar

00
YORUM BIRAK
ID #UBV8FA

0 / 1200 KARAKTER

İnsan doğrulaması

4 + 6 = ?

Editör onayı sonrası yayına girer

Moderasyon · Spam koruması aktif

Henüz onaylı yorum yok. İlk yorumu sen bırak.