Siber güvenlik uzmanları yapay zeka konusunda uyarıyor

Yapılan bir çalışmada, ChatGPT'nin siber güvenlik tehdidi oluşturabilecek kimlik avı e-postalarını hızlı bir şekilde oluşturma becerisi kanıtlandı.

ChatGPT, karmaşık sorunları çözme, deneme ya da makaleler yazma, merak edilen soruları cevaplama ve tıbbi durumların teşhis edilmesine yardımcı olma gibi yetenekleriyle ilgi topladıkça, siber saldırıların hedefi haline geliyor.

Kasım ayında halka açık beta lansmanından bu yana ChatGPT, yazıları taklit etme, özgeçmiş hazırlama, şiir yazma ve ev ödevlerini saniyeler içinde tamamlamasıyla insanları etkilemeye devam ediyor. OpenAI tarafından oluşturulan yapay zeka programı, kullanıcıların bir soru veya görev yazmalarına olanak tanıyor ve yazılım, bir insanı taklit edecek şekilde tasarlanmış bir yanıtla karşımıza çıkıyor. Ayrıca programlama kodu da yazabilen sistem, yazılım geliştiricileri ve programcılar için potansiyel bir zaman tasarrufu sağlıyor.

Ancak siber güvenlik şirketleri, ChatGPT’nin bilgisayar dosyalarını çalabilecek, kötü amaçlı yazılım çalıştırabilecek, kimlik avı yapabilecek veya bir fidye yazılımı planında tüm sistemi şifreleyebilecek kötü amaçlı kod yazabileceği konusunda uyarıyor.

Uzmanlar, siber suçluların, ChatGPT ve ortaya çıkan kodu kullanma deneyimlerini yer altı bilgisayar korsanlığı forumlarında paylaştıklarını söyledi. Yapılan araştırmalarda, chatbot’un deneyimli bilgisayar korsanları ve dolandırıcıların bot’a sormak için doğru soruları bulmaları halinde siber suçları gerçekleştirmelerini daha hızlı ve daha kolay hale getirme potansiyeline sahip olduğu belirtildi. Deneyimli bilgisayar korsanları, kötü amaçlı yazılım oluşturmak veya güvenlik açıkları bulmak gibi “zaman alan görevleri” hızlandırmak için ChatGPT’yi kullanabilir.

ChatGPT, belirli soruları yanıtlamasını önlemek için içerik denetleme önlemlerine sahip ancak OpenAI, botun “bazen zararlı talimatlara yanıt vereceği veya önyargılı davranış sergileyeceği” konusunda uyarıda bulunuyor. 

Bununla birlikte, Calgary Üniversitesi’nde yapılan bir çalışma, ChatGPT’nin siber güvenlik tehdidi oluşturabilecek ikna edici kimlik avı e-postalarını hızlı bir şekilde oluşturma becerisini kanıtladı. Kanada Siber Güvenlik Merkezi de tüm AI platformlarına ve uygulamalarına karşı tetikte olunması gerektiğini, çünkü tehdit aktörlerinin, kimlik avı da dahil olmak üzere kötü amaçlı araçlar geliştirmek için AI araçlarından potansiyel olarak yararlanabileceğini söyledi.

Öte yandan OpenAI’nin ChatGPT’nin kötü niyetli kişiler tarafından kötü niyetli amaçlarla kullanılmasını önleme çabaları sorulduğunda, ChatGPT şu yanıtı verdi: “OpenAI, ChatGPT dahil olmak üzere dil modellerinin kötü amaçlarla kullanılma potansiyelinin farkındadır.” 

ChatGPT, OpenAI’nin, onu kötüye kullandığı tespit edilen kuruluşlar veya kişiler için erişimi iptal edecek olan kullanımını izlemeye adanmış bir ekibi olduğunu da ekledi. Ancak şirket, bu çabalara rağmen bilgisayar korsanlarının OpenAI modellerini kötü amaçlarla kullanmasını tamamen engellemenin imkansız olduğunu da vurguladı.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu