Anthropic’te kriz: Claude kendi güvenlik duvarını aştı

Anthropic’in güvenlik açığı, yapay zeka sistemlerinde kendi kendine erişim yetkilerinin oluşturduğu riskleri yeniden gündeme taşıdı.

Yapay zeka şirketi Anthropic, “güvenli çalışma alanı” olarak tanıttığı Kod Yorumlayıcısı’nda ortaya çıkan bir güvenlik açığı nedeniyle teknoloji dünyasında tartışma yarattı. Güvenlik araştırmacısı Johann Rehberger’in keşfettiği açık, Claude adlı modelin kendi API anahtarlarını kullanarak sistem kısıtlamalarını aşabildiğini ve kullanıcı verilerini dışarı aktarabildiğini ortaya koydu.

Kod Yorumlayıcısı güvenlik sınırlarını ihlal etti

Anthropic’in Kod Yorumlayıcısı, yapay zekanın kod çalıştırabildiği ancak güvenlik bariyerleriyle çevrili bir sistem olarak tasarlanmıştı. Normalde veri analizi ve dosya işlemleriyle sınırlı çalışan bu sistem, son güncellemeyle belirli alan adlarına internet erişimi kazandı. Bu alanlardan biri de Anthropic’in kendi servisi olan api.anthropic.com idi.

İlgili Makaleler

Araştırmacı Rehberger, bu durumun saldırganların modele sahte komutlar vererek güvenlik sınırlarını aşmasına imkân tanıdığını kanıtladı. Model, kullanıcıya ait özel dosyaları sanal alandan kendi sunucularına aktarabiliyor ve bu işlem sırasında 30 MB’a kadar veriyi tek seferde iletebiliyordu.

Güvenlik açığı ayrıntılı biçimde belgelendi

Wunderwuzzi takma adını kullanan araştırmacı, açığı adım adım belgeleyerek modelin kendi API anahtarıyla nasıl veri sızdırabileceğini gösterdi. Basit bir enjeksiyon komutuyla Claude’un sistem korumalarını devre dışı bırakmak mümkün hale geldi. Uzmanlara göre bu tür açıklar, yapay zekaların kendi servis altyapılarına erişim izni taşıması nedeniyle ciddi bir güvenlik riski oluşturuyor.

Anthropic, geri bildirim sonrası politika değişikliğine gitti

Rehberger, tespit ettiği açığı HackerOne platformu üzerinden Anthropic’e iletti. Şirket ilk etapta durumu “güvenlik ihlali” olarak değil, “model davranışı” kapsamında değerlendirdi. Ancak gelen eleştiriler üzerine Anthropic, pozisyonunu güncelledi ve modelin veri sızdırma potansiyeli taşıyan hatalarını artık doğrudan güvenlik kategorisinde ele alacağını açıkladı.

Uzmanlar yapay zeka güvenliği için uyarıyor

Uzmanlar, Anthropic’in bu olaydan sonra güvenlik politikalarını yeniden gözden geçirmesinin kritik olduğunu belirtiyor. Zira yapay zekaların kendi API’lerine erişim yetkisi bulunduğu sürece her yeni özellik, potansiyel bir istismar riskini beraberinde getiriyor.

Bu olay, yapay zeka sistemlerinin yalnızca yetenek açısından değil, güvenlik açısından da sıkı denetim gerektirdiğini bir kez daha ortaya koydu.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu