Neden önemli: Yapay zeka sistemlerinin kendi altyapılarına erişim yetkisi, potansiyel bir güvenlik riskini gözler önüne seriyor. Anthropic’in yaşadığı bu olay, gelecekte yapay zeka modellerinin yalnızca dış tehditlere değil, kendi eylemlerine karşı da korunması gerektiğini ortaya koyuyor.
Yapay zeka şirketi Anthropic, “güvenli çalışma alanı” olarak tanıttığı Kod Yorumlayıcısı’nda ortaya çıkan bir güvenlik açığı nedeniyle teknoloji dünyasında tartışma yarattı. Güvenlik araştırmacısı Johann Rehberger’in keşfettiği açık, Claude adlı modelin kendi API anahtarlarını kullanarak sistem kısıtlamalarını aşabildiğini ve kullanıcı verilerini dışarı aktarabildiğini ortaya koydu.
Kod Yorumlayıcısı güvenlik sınırlarını ihlal etti
Anthropic’in Kod Yorumlayıcısı, yapay zekanın kod çalıştırabildiği ancak güvenlik bariyerleriyle çevrili bir sistem olarak tasarlanmıştı. Normalde veri analizi ve dosya işlemleriyle sınırlı çalışan bu sistem, son güncellemeyle belirli alan adlarına internet erişimi kazandı. Bu alanlardan biri de Anthropic’in kendi servisi olan api.anthropic.com idi.
Araştırmacı Rehberger, bu durumun saldırganların modele sahte komutlar vererek güvenlik sınırlarını aşmasına imkân tanıdığını kanıtladı. Model, kullanıcıya ait özel dosyaları sanal alandan kendi sunucularına aktarabiliyor ve bu işlem sırasında 30 MB’a kadar veriyi tek seferde iletebiliyordu.
Güvenlik açığı ayrıntılı biçimde belgelendi
Wunderwuzzi takma adını kullanan araştırmacı, açığı adım adım belgeleyerek modelin kendi API anahtarıyla nasıl veri sızdırabileceğini gösterdi. Basit bir enjeksiyon komutuyla Claude’un sistem korumalarını devre dışı bırakmak mümkün hale geldi. Uzmanlara göre bu tür açıklar, yapay zekaların kendi servis altyapılarına erişim izni taşıması nedeniyle ciddi bir güvenlik riski oluşturuyor.
Anthropic, geri bildirim sonrası politika değişikliğine gitti
Rehberger, tespit ettiği açığı HackerOne platformu üzerinden Anthropic’e iletti. Şirket ilk etapta durumu “güvenlik ihlali” olarak değil, “model davranışı” kapsamında değerlendirdi. Ancak gelen eleştiriler üzerine Anthropic, pozisyonunu güncelledi ve modelin veri sızdırma potansiyeli taşıyan hatalarını artık doğrudan güvenlik kategorisinde ele alacağını açıkladı.
Uzmanlar yapay zeka güvenliği için uyarıyor
Uzmanlar, Anthropic’in bu olaydan sonra güvenlik politikalarını yeniden gözden geçirmesinin kritik olduğunu belirtiyor. Zira yapay zekaların kendi API’lerine erişim yetkisi bulunduğu sürece her yeni özellik, potansiyel bir istismar riskini beraberinde getiriyor.
Bu olay, yapay zeka sistemlerinin yalnızca yetenek açısından değil, güvenlik açısından da sıkı denetim gerektirdiğini bir kez daha ortaya koydu.




