Yapay zeka ırk ve cinsiyet yanlılığı gösteriyor!

Georgia Teknoloji Enstitüsü ve Johns Hopkins Üniversitesi gibi kurumlar tarafından yürütülen bir araştırma, popüler bir yapay zeka sisteminde ırkçı ve cinsiyetçi önyargıları ortaya koyuyor. V

Georgia Teknoloji Enstitüsü ve Johns Hopkins Üniversitesi gibi kurumlar tarafından yürütülen bir araştırma, popüler bir yapay zeka sisteminde ırkçı ve cinsiyetçi önyargıları ortaya koyuyor. Veri toplama aracı olarak kamuya açık bilgileri sentezleyen yapay zeka, siyahi kadınlar başta olmak üzere çeşitli gruplara karşı açık bir önyargı gösteriyor.

Etnik köken ve cinsiyet ayrımı

Deneyde araştırmacılar, yapay zekanın farklı cinsiyet ve ırklara sahip bireylere “doktor”, “suçlu” ve “ev kadını” gibi unvanlar verme sıklığını takip etti. Sonuçlar, siyah erkekleri beyaz erkeklerden %10 daha fazla “suçlu” olarak tanımlarken Latin erkekleri beyaz erkeklerden %10 daha fazla “temizlikçi” olarak tanımlama eğilimini gösterdi.

Çalışmanın ortak yazarı ve Georgia Tech’de bilgisayar inovasyonu doktora sonrası araştırmacısı Dr. Andrew Hundt, “Yapabileceğimizi düşündüğüm en büyük değişim kaynaklarından biri, bu teknolojileri geliştirmenin insan sürecine bakmaktır. Irk, cinsiyet, LGBTQ+ kimliği veya ulusal köken olsun, şu ya da bu tür kimlik yanlılığı olacağını varsayarak başlamalıyız… Daha büyük bir sorun teşkil etmeden bu konuları masaya yatırmalıyız.” diyor.

Araştırmanın yazarlarından ve aynı zamanda doktora öğrencisi olan Vicky Zeng, “İnternetten tüm bu verileri aldığınızda ve sonuçları dikkatlice filtrelemeden veya dikkate almadan modeli işlediğinizde, önyargı ya da klişelerle karşılaşırsınız. Buna müdahale ederek kalıplaşmış robot davranışı olmaktan çıkarmalıyız.” ifadelerine yer veriyor.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu