GenAI sorgulamalarının güvenirliği ve gelecek uygulamaları 

70’li yılların ortasında büyük bir ansiklopedi kurup, her siyasetçinin hangi konuda, nerede, ne söylediğini kaydetmek ve bunu muhalefet, iktidar ve medyaya açmak istemiştim. Bu şekilde onların bir nebze yalanlarının önüne geçecektim ama bir siyasetçimizin kalkıp “Ne var bunda? O zamanlar altını çizmişim, şimdi de üstünü çiziyorum. O söylediğimi havada söyledim, yerde değil.” diyerek yine söz ustalığını konuşturunca vazgeçmiştim bu işten. Ama yine de finans dünyasının pembe gazetesindeki yorumlarda yazmıştım. Şimdilerde uydurma makinesi GenAI için bir uygulama yapsam da bunun ne zaman yalan, ne kadar doğruya yakın olduğunu notlandırsam diyordum ki MIT’deki CleanLab projesinin uygulama olarak epeydir kullanılmaya başladığını gördüm. 

Google’ın eski çalışanlarının kurduğu Vectara’da da chatbot’ların %3’ünün uydurma olduğu tespit edilmiş. İngiltere’deki Berkeley Research Group’un anlaşmazlıklar ve teftiş için kullandıkları sistemler arasında CleanLab de var. Sistemlerin eğitimi için kullanılan 10 farklı veri setinin oluşturduğu çıktılar arasındaki uyumsuzluğa göre güvenirlikleri ölçülmüş. “‘Enter’ kelimesinde ‘n’ harfi kaç kez yazılmıştır?” diye sorduğunuzda ilk cevap, bir defa olsa bile takip eden sorgularda değer farklılaşabiliyor. Bu durumda hangi cevap güvenilir olacaktır? Sadece yanlış olması değil, gelişigüzel olması da bir başka sorun. Databricks’in geliştirdiği açık kaynak kodlu DBRX, OpenAI’ın GPT serileri cevabına göre notlandırma yapılmış. Amazon’un Bedrock platformundaki gibi eğer kelime hazinesindeki her kelimeye bir değer atayabilirlerse, duyarlılık daha da artacak gibi görünüyor. Türkiyedeki geliştiriciler de CleanLab’in açık kaynak yazılımına GitHub https://github.com/cleanlab/cleanlab linkinden ulaşıp iş akışlarına ekleyebilirler.

Data-centric AI uygulamalarının da hali hazırda birçok kurumda çalıştığı söyleniyor. Özellikle farklı kelimelerle kendilerini web’te pazarlayanların tüketiciyi aldatmaması, Amerika Birleşik Devletleri Patent ve Ticari Marka Ofisi’ndeki memurları kandırmaması için farklı uygulamalar gibi her gün yeni uygulamalar doğuyormuş. Veri etiketleme yazılımları (Snorkel vb.), veri temizleme çözümleri (Demandbase vb.) ve bunların türevleri hayatımıza hızlı bir şekilde girecek gibi görünüyor. 

Müşteri veri setlerindeki hataları bulmak (tekrarlı veri, düşük kalite örnek, uyumsuz, anormal) ve temizlemek, hukuki sözleşmelerin taslak hallerindeki hataları bulmak, doğru meta veri kullanmak, finansal kurumlardaki olası sahtecilikleri yakalamak, önceden tahmin edebilmek, karar mekanizmasını hızlandırmak, e-ticaret sitelerinde gerçek bilgi sunmak, müşteri değerlendirmelerini izlemek, güvenilir ML modelleri oluşturmak, ziraat, sağlık ve üretim görüntüleri veri setlerindeki hatalı verileri ve anomalileri (gürültü) yakalayabilmek, veri setlerine ince ayar yapabilmek, etiketleme hatalarını yakalayıp düzeltmek; hepsi GenAI ile mümkün ve tabi ki bunların kullanımı beyaz yakalı çalışanların verimini artırırken çalışan sayısını da azaltacak. Bu da birim çalışan ücretlerinin daha da aşağıya gitmesini, kitlelerin yoklukta beraberliğe dönüşmesini sağlayacak gibi…

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu