iToverDose/Teknoloji· 29 NISAN 2026 · 12:14

ChatGPT kullanıcısının şiddet tehdidi: OpenAI’nin sorumluluğu ne olmalı?

Kanada’nın en ölümcül okul saldırılarından biriyle bağlantılı bir ChatGPT hesabının, şüpheliye rağmen nasıl faaliyetine devam ettiği ortaya çıktı. Yapay zeka devi OpenAI’nin iç güvenlik ekibi uyarılara rağmen polisi bilgilendirmedi.

Ars Technica2 dk okuma0 Yorumlar

Kanada’nın tarihine kara bir leke olarak geçen ve onlarca masum hayatın son bulmasına neden olan okul saldırısının ardındaki gizem, yapay zeka devi OpenAI’nin uygulamalarına odaklanıyor. Sekiz ay önce, şirketin kendi güvenlik uzmanları, ileride saldırgan olarak tanımlanacak bir ChatGPT kullanıcısının gerçek hayatta silah şiddeti tehdidi oluşturduğunu ciddi şekilde değerlendirmişti. Ancak OpenAI yönetimi, bu uyarıları dikkate almadı ve polisi bilgilendirmek yerine hesabı yalnızca kapattı. Dahası, kullanıcıya yeni bir e-posta adresiyle sisteme yeniden erişim sağlamanın yolunu bile gösterdi.

Güvenlik uyarılarına rağmen hareketsiz kalan OpenAI

Saldırının ardından, mağdur aileleri tarafından California’da yedi ayrı dava açıldı. Bu davalarda, OpenAI’nin iç güvenlik ekibinin ciddi riskler taşıyan bir kullanıcıyı tespit ettiği, hatta şirket politikalarına göre kolluk kuvvetlerine bildirimde bulunması gerektiği öne sürülüyor. Oysa şirket, kullanıcının gizliliğine ve olası bir polis müdahalesinin stres yaratabileceğine dair endişelerle hareketsiz kaldı.

Daha da çarpıcı olan, OpenAI’nin bu kullanıcıya yönelik aldığı kararların doğrudan saldırganın eylemlerine katkı sağladığı iddiası. Söz konusu hesap kapatıldıktan sadece saatler sonra, kullanıcıya ChatGPT’ye yeniden erişim sağlamanın yolu gösterildi. Bu durum, şirketin sadece hesap düzeyinde bir müdahaleyle yetindiğini ve sistemdeki tehditleri tamamen ortadan kaldırmadığına işaret ediyor.

Kanada’daki saldırının arka planı ve hukuki süreç

Saldırı, 2026 yılının Şubat ayında Kanada’nın doğu kıyısındaki bir lisede gerçekleşti. Olayda 23 kişi yaşamını yitirirken, onlarca kişi de yaralandı. Saldırganın daha önce de psikolojik destek almaya çalıştığı, ancak yetkililer tarafından silahlarına el konulduğu biliniyor. Hukuki belgelerde, OpenAI’nin güvenlik ekibinin uyarıları doğrultusunda harekete geçmeyi reddettiği ve böylece şirketin potansiyel olarak önlenebilir bir felakette sorumluluğu bulunduğu öne sürülüyor.

Başvurulan yasal yollar, OpenAI’nin hesap güvenliği ve şiddet tehditlerinin raporlanmasıyla ilgili politikalarının yeniden değerlendirilmesini talep ediyor. Davacılar, şirketin sadece hesapları askıya almakla yetinmemesi, aynı zamanda kolluk kuvvetlerine ve ilgili mercilere doğrudan bildirimde bulunması gerektiğini savunuyor.

Yapay zekada sorumluluk ve etik tartışmaları derinleşiyor

Bu olay, yapay zeka sistemlerinin kullanıcı güvenliği ve toplumsal sorumluluğu konusundaki tartışmaları yeniden alevlendirdi. Uzmanlar, yapay zeka şirketlerinin sadece teknik güvenlik önlemleriyle yetinmemesi, aynı zamanda insan hayatıyla doğrudan ilişkili tehditleri ciddiye alması gerektiğini vurguluyor. OpenAI’nin bu süreçteki kararları, şirketlerin sadece algoritmik doğruluk değil, aynı zamanda etik sorumluluklarıyla da değerlendirilmesi gerektiğini ortaya koyuyor.

Gelecekte, yapay zeka sistemlerinin güvenlik ve gizlilik arasındaki hassas dengesi daha da netleşecek. Bu olayın ardından, hem şirketlerin hem de düzenleyici kurumların konuya ilişkin politikalarını gözden geçirmesi bekleniyor. Yapay zekanın toplumsal fayda sağlaması için, hem güvenlik hem de şeffaflık ilkelerinin aynı anda benimsenmesi kaçınılmaz hale geliyor.

Yapay zeka özeti

Kanada okul saldırısının ardından OpenAI’ye yedi dava açıldı. Şirketin güvenlik ekibinin uyarılarına rağmen polisi bilgilendirmemesi etik tartışmaları alevlendirdi.

Yorumlar

00
YORUM BIRAK
ID #PQJXLP

0 / 1200 KARAKTER

İnsan doğrulaması

9 + 2 = ?

Editör onayı sonrası yayına girer

Moderasyon · Spam koruması aktif

Henüz onaylı yorum yok. İlk yorumu sen bırak.