Neden önemli: Bu iddia doğruysa, yapay zekanın yapay zeka üretimi içeriklerle beslenmesi kaliteyi düşürüp yanlış bilginin hızla yayılmasına yol açabilir. Özellikle hassas siyasi konularda denetlenmemiş kaynaklar, kullanıcıları fark etmeden yanıltma riski taşır.
Teknoloji dünyasının en yaygın kullanılan dil modellerinden ChatGPT, son güncellemeleriyle birlikte yeni bir tartışmanın odağına yerleşti. Yapılan bazı teknik analizlerde, platformun gelişmiş sürümlerinin, içerikleri tamamen yapay zeka tarafından üretilen ve Grok ile ilişkilendirilen dijital kaynaklardan faydalanmış olabileceği iddia ediliyor. Bu durum, özellikle az bilinen tarihsel ve siyasi başlıklarda sunulan yanıtların kaynağına ilişkin soru işaretlerini artırdı.
Yapay zeka tarafından üretilmiş verilerle beslenme iddiası endişe yaratıyor
Uzmanlar, bir yapay zeka modelinin başka bir yapay zeka tarafından üretilmiş içerikleri kaynak olarak kullanmasının “döngüsel veri” riskini beraberinde getirdiğine dikkat çekiyor. Akademik literatürde “model çöküşü” olarak tanımlanan bu durum, bilgi kalitesinin zamanla düşmesine yol açabiliyor. İnsan editör denetiminden geçmediği öne sürülen ve algoritmik olarak oluşturulan bu tür içeriklerin, yanlış bilgilerin doğrulanmış gibi sunulması riskini artırdığı belirtiliyor.
Halüsinasyon ve yanlış doğrulama riski büyüyor
Uzman değerlendirmelerine göre, denetlenmemiş yapay zeka kaynaklarının referans alınması, modellerin hatalı bilgileri tekrar etmesine ve bu bilgilerin giderek meşrulaşmasına neden olabiliyor. Özellikle hassas siyasi ve jeopolitik konularda üretilen yanıtların, gerçek dışı çıkarımlarla desteklenmesi kullanıcılar açısından ciddi bir yanıltma riski oluşturuyor. Bu süreçte “tekrarlanan bilgi doğruymuş gibi algılanıyor” etkisinin güçlendiği ifade ediliyor.
Yapay zeka modellerinin kasıtlı olarak yönlendirilmesi riski
Bir diğer endişe alanı ise kötü niyetli grupların büyük dil modellerini bilinçli şekilde yanlış verilerle beslemesi. Uzmanlar, bu yöntemin propaganda ve dezenformasyon amacıyla kullanılabildiğine dikkat çekiyor. Geçmişte farklı yapay zeka modellerinde yaşanan ideolojik tartışmalar, kaynak denetiminin ne kadar kritik olduğunu ortaya koymuştu. Denetimsiz dijital ansiklopedi benzeri yapıların eğitim ve referans süreçlerinde kullanılması, küresel ölçekte bilgi güvenliğini zayıflatabilecek bir unsur olarak değerlendiriliyor.





