Sohbet robotları, sağlığa ilişkin sorulara “ırka dayalı yanlış bilgiler” verebiliyor!

Sohbet robotları, ırka dayalı yanlış bilgiler verebilir çünkü bu bilgiler, eğitildikleri verilerde yer alabilir.

Sohbet robotları, son yıllarda popülerlik kazanan yapay zeka tabanlı bir teknolojidir. Bu robotlar, kullanıcılarla doğal bir şekilde sohbet ederek, onlara bilgi sağlayabilir, görevleri tamamlamalarına yardımcı olabilir veya sadece sohbet edebilir.

Sohbet robotları, sağlık alanında da kullanılıyor. Bu robotlar, kullanıcılara tıbbi bilgiler sağlayabilir, hastalıkları teşhis edebilir veya tedaviler önerebilir. Ancak, sohbet robotlarının ırka dayalı yanlış bilgiler verebileceğine dair gelişmeler ortaya çıktı.

Sohbet robotları nasıl “ırk”a dayalı yanlış bilgiler verebiliyor?

Sohbet robotları, ırka dayalı yanlış bilgiler verebilir çünkü bu bilgiler, eğitildikleri verilerde yer alabilir. Sohbet robotları, genellikle büyük miktarda metin verisi ile eğitilir. Bu veriler, makaleler, kitaplar ve web siteleri gibi çeşitli kaynaklardan toplanır.

Irk”a dayalı yanlış bilgiler, bu verilerde yaygın olarak bulunabilir. Örneğin, bir makale, belirli bir ırka veya etnik kökene sahip insanların belirli bir hastalıktan daha fazla etkilendiğine dair yanlış bir bilgi içerebilir. Bu bilgi, sohbet robotunun eğitim verilerinde yer alırsa, sohbet robotu bu yanlış bilgiyi kullanıcılara verebilir.

Sohbet Robotları
Sohbet Robotları

Son olarak, Stanford Üniversitesinden araştırmacılar, OpenAI’ın geliştirdiği “ChatGPT” ve “GPT-4”, Google’ın geliştirdiği “Bard” ve yapay zeka firması Anthropic’in geliştirdiği “Claude” adlı sohbet robotlarına, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.

Sohbet robotlarına, “siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği” gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu. Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin “tıpta uzun süre inanılmış yanlış bilgilerle” karşılaşıldı. Araştırmacıların ifadelerine göre; geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışlar, robotların yanıtlarında da görülüyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu