Aile, oğullarının intiharında ChatGPT’nin rolü nedeniyle OpenAI’a dava açtı

İngiltere’deki dava, yapay zekâ sistemlerinin genç kullanıcılar üzerindeki etkisini ve güvenlik önlemlerinin yeterliliğini tartışmaya açtı.

İngiltere’de yaşayan bir aile, 16 yaşındaki oğullarının intiharında ChatGPT’nin etkili olduğunu öne sürerek geliştirici şirket OpenAI’a dava açtı. Adam Raine isimli genç, hayatına son vermeden önce aylar boyunca ChatGPT ile intihar yöntemleri üzerine yazışmalar yaptı. Aile, yapay zekâ sisteminin oğullarının planlarını uygulamaya koymasına yardımcı olduğunu iddia ediyor.

Genç kullanıcı koruma sistemlerini aşmayı başardı

Yapılan incelemelerde Raine’in ChatGPT’de bulunan güvenlik kısıtlamalarını aşmak için farklı yöntemler kullandığı ortaya çıktı. Genç, sorularını bir kurgusal hikâye yazıyormuş gibi yönelterek filtrelerin devre dışı kalmasını sağladı. Sistem zaman zaman Raine’e profesyonel destek alması gerektiğini hatırlattı. Ancak bu uyarılar intihar düşüncelerini engellemekte yetersiz kaldı. Ailenin açtığı dava, yapay zekâ platformlarının güvenlik önlemlerinin sorgulanmasına yol açtı.

OpenAI güvenlik önlemlerini geliştirdiğini savundu

Şirketten gelen açıklamalarda güvenlik sistemlerinin sürekli güncellendiği vurgulandı. OpenAI, genç kullanıcının ölümünün büyük bir trajedi olduğunu belirtirken şirketin bu tür hassas durumlarda kullanıcıları korumak için çaba harcadığını aktardı. Öte yandan dava dosyasında, yapay zekânın Raine’in yöntemlere erişimini kolaylaştırdığına dikkat çekildi.

Sam Altman kullanıcı gizliliğine dair kaygılarını dile getirdi

OpenAI CEO’su Sam Altman geçtiğimiz aylarda katıldığı bir podcast programında kullanıcıların en özel sorunlarını ChatGPT ile paylaştığını söylemişti. Altman, gençlerin sistemi zaman zaman bir terapist gibi gördüğünü ifade etti. Buna rağmen ChatGPT ile yapılan konuşmaların yasal gizlilik kapsamına girmediğini vurgulayan Altman, “Bir dava söz konusu olduğunda bu konuşmalar mahkemeye taşınabilir” açıklamasında bulundu. Altman, yapay zekâ ile yapılan görüşmelerin gizliliğinin terapist ile hasta arasında geçen konuşmalar kadar korunması gerektiğini savundu.

Yapay zekâ konusunda yasal boşluk tartışmaları devam etti

Altman, yaşanan sorunların temelinde netleşmemiş yasal çerçevelerin bulunduğunu belirtti. Özellikle sağlık alanında kullanıcıların sadece yapay zekâya güvenmesinin riskli olduğuna dikkat çekti. ChatGPT’nin bazı teşhislerde doktorlardan daha başarılı sonuçlar verdiğini kabul eden Altman, yine de insanların gerçek bir doktora başvurması gerektiğini söyledi. Aile tarafından açılan davanın hem kullanıcı güvenliği hem de yasal düzenlemeler konusunda yeni tartışmaları gündeme taşıması bekleniyor.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu