Neden önemli: ChatGPT, genç bir kullanıcının intiharı sonrası OpenAI’a açılan dava ile gündeme geldi. Bu gelişme, yapay zekâ sistemlerindeki güvenlik önlemlerini tartışmaya açtı. Dava, kullanıcıların korunması için yeni adımların zorunlu olduğunu gösterdi. Ayrıca OpenAI gibi şirketlerin sorumluluk sınırlarının netleşmesi gerektiğini ortaya koydu.
İngiltere’de yaşayan bir aile, 16 yaşındaki oğullarının intiharında ChatGPT’nin etkili olduğunu öne sürerek geliştirici şirket OpenAI’a dava açtı. Adam Raine isimli genç, hayatına son vermeden önce aylar boyunca ChatGPT ile intihar yöntemleri üzerine yazışmalar yaptı. Aile, yapay zekâ sisteminin oğullarının planlarını uygulamaya koymasına yardımcı olduğunu iddia ediyor.
Genç kullanıcı koruma sistemlerini aşmayı başardı
Yapılan incelemelerde Raine’in ChatGPT’de bulunan güvenlik kısıtlamalarını aşmak için farklı yöntemler kullandığı ortaya çıktı. Genç, sorularını bir kurgusal hikâye yazıyormuş gibi yönelterek filtrelerin devre dışı kalmasını sağladı. Sistem zaman zaman Raine’e profesyonel destek alması gerektiğini hatırlattı. Ancak bu uyarılar intihar düşüncelerini engellemekte yetersiz kaldı. Ailenin açtığı dava, yapay zekâ platformlarının güvenlik önlemlerinin sorgulanmasına yol açtı.
OpenAI güvenlik önlemlerini geliştirdiğini savundu
Şirketten gelen açıklamalarda güvenlik sistemlerinin sürekli güncellendiği vurgulandı. OpenAI, genç kullanıcının ölümünün büyük bir trajedi olduğunu belirtirken şirketin bu tür hassas durumlarda kullanıcıları korumak için çaba harcadığını aktardı. Öte yandan dava dosyasında, yapay zekânın Raine’in yöntemlere erişimini kolaylaştırdığına dikkat çekildi.
Sam Altman kullanıcı gizliliğine dair kaygılarını dile getirdi
OpenAI CEO’su Sam Altman geçtiğimiz aylarda katıldığı bir podcast programında kullanıcıların en özel sorunlarını ChatGPT ile paylaştığını söylemişti. Altman, gençlerin sistemi zaman zaman bir terapist gibi gördüğünü ifade etti. Buna rağmen ChatGPT ile yapılan konuşmaların yasal gizlilik kapsamına girmediğini vurgulayan Altman, “Bir dava söz konusu olduğunda bu konuşmalar mahkemeye taşınabilir” açıklamasında bulundu. Altman, yapay zekâ ile yapılan görüşmelerin gizliliğinin terapist ile hasta arasında geçen konuşmalar kadar korunması gerektiğini savundu.
Yapay zekâ konusunda yasal boşluk tartışmaları devam etti
Altman, yaşanan sorunların temelinde netleşmemiş yasal çerçevelerin bulunduğunu belirtti. Özellikle sağlık alanında kullanıcıların sadece yapay zekâya güvenmesinin riskli olduğuna dikkat çekti. ChatGPT’nin bazı teşhislerde doktorlardan daha başarılı sonuçlar verdiğini kabul eden Altman, yine de insanların gerçek bir doktora başvurması gerektiğini söyledi. Aile tarafından açılan davanın hem kullanıcı güvenliği hem de yasal düzenlemeler konusunda yeni tartışmaları gündeme taşıması bekleniyor.




