Bu, AI tarafından çevrilen bir gönderidir.
Öncü Yapay Zeka Modellerinin Çelişkisi, Şeffaflık
- tr Writing language: Korece
- •
- tr Referans Ülke: tr Tüm ülkeler
- •
- BT
Dil Seç
Text summarized by durumis AI
- Stanford Üniversitesi araştırmacıları, GPT-4 dahil olmak üzere son teknoloji ürünü 10 yapay zeka sistemini analiz etti ve sonuç olarak, veri kümeleri, eğitim yöntemleri gibi yapay zeka modellerinin şeffaflığının eksik olduğunu ortaya koydu.
- Özellikle OpenAI, Google gibi önemli yapay zeka şirketleri, gelir odaklı iş modelleri benimseyerek veri açıklamasında isteksiz davranıyor ve bu da yapay zeka teknolojisinin gelişmesini engelleme ve tekelci bir geleceğe yol açma olasılığını beraberinde getiriyor.
- Uzmanlar, yapay zeka modellerinin şeffaflığını artırarak tekrarlanabilirliği sağlanması gerektiğini ve toplumsal sorumluluğun güçlendirilmesi gerektiğini savunuyor ve yapay zeka teknolojisinin gelişimiyle birlikte toplumsal uzlaşma ve düzenleme görüşmelerinin talep edildiğini belirtiyor.
Geçtiğimiz 18'inde Stanford Üniversitesi araştırmacıları tarafından yayınlanan bir çalışma, GPT-4 ve diğer en gelişmiş AI sistemlerinin sırlarının ne kadar derin ve potansiyel olarak tehlikeli olduğunu gösteriyor.
Foundation Model Transparency Index'in Tanıtımı, Stanford Üniversitesi
ChatGPT ve diğer sohbet robotlarında kullanılanlar gibi büyük dil modelleri olmak üzere toplam 10 farklı AI sistemi incelemişler. Bunlar arasında OpenAI'nin GPT-4'ü, Google'ın PaLM 2'si, Amazon'un Titan Text'i gibi yaygın olarak kullanılan ticari modeller yer alıyor ve bu modellerin, modellerin eğitildiği verilerin ne kadar şeffaf bir şekilde açıklandığını (veri toplama ve etiketleme yöntemleri, telif hakkıyla korunan materyallerin dahil edilip edilmediği vb.) değerlendirerek 13 farklı kriterle şeffaflıklarını değerlendirmişler. Ayrıca, modelin eğitimi ve çalıştırılması için kullanılan donanım, kullanılan yazılım çerçeveleri ve projenin enerji tüketimi ile ilgili bilgilerin açıklanıp açıklanmadığını da incelemişler.
Sonuçlar, incelenen tüm kriterlerde şeffaflık ölçeğinde %54'ün üzerinde puan alan bir AI modelinin olmadığını gösterdi. Genel olarak, Amazon'un Titan Text'i en düşük şeffaflığa sahip olarak değerlendirilirken, Meta'nın Llama 2'si en şeffaf model seçildi. İlginç olanı, son zamanlarda ilgi çeken açık ve kapalı modeller arasındaki karşıtlık yapısının önemli temsilcileri olan Llama 2, açık kaynaklı bir model olmasına rağmen, eğitiminde kullanılan verileri, veri toplama ve düzenleme yöntemlerini vb. açıklamadı. Yani, AI'nın toplumumuz üzerindeki etkisi büyürken, sektördeki ilgili şeffaflık eksikliği genel ve sürekli olarak görülen bir olgu.
Bu, AI sektörünün bilimsel ilerleme değil, kâr odaklı bir sektör olma riski taşıdığını ve belirli şirketlerin yönlendirdiği tekelci bir geleceğe yol açabileceğini gösteriyor.
Eric Lee/Bloomberg, Getty Images aracılığıyla
OpenAI CEO'su Sam Altman zaten dünyanın dört bir yanındaki politika yapıcılarla görüşerek onlara bu yabancı ve yeni zekâyı aktif olarak açıklıyor ve ilgili düzenlemelerin somutlaştırılmasına yardımcı olmak istediğini açıkça belirtiyor. Ancak, prensip olarak AI'yı denetleyen uluslararası bir kuruluşu destekliyor ancak, telif hakkıyla korunan tüm materyallerin veri kümelerinden yasaklanması gibi bazı sınırlı kuralların haksız bir engel olabileceğini düşünüyor. OpenAI şirketinin adında yer alan "açıklık"ın kuruluş aşamasında sunulan radikal şeffaflıktan sapmış olması açıkça görülüyor.
Ancak, bu Stanford raporunun sonuçlarında ortaya çıktığı gibi, rekabet için modellerini bu kadar gizli tutmaya gerek olmadığını da belirtmek gerekir. Bu sonuç aynı zamanda, neredeyse tüm şirketlerin yetersiz olduğunu gösteren bir gösterge. Örneğin, kendi modellerine ne kadar kullanıcı bağımlı olduğunu veya kendi modellerini kullanan bölgeleri veya pazar segmentlerini gösteren bir şirket yokmuş.
Açık kaynaklı prensibine dayalı organizasyonlar arasında "Göz çok olunca, her böcek görülür" atasözü var. (Linus's Law) Ham sayılar, sorunları çözmeye ve düzeltmeye yardımcı olabilecek sorunları bulmada yardımcı olur.
Ancak, Açık kaynak uygulamaları, kademeli olarak şirket içi ve şirket dışı toplumsal konum ve değer tanımasını kaybetme eğilimindeolduğu için, koşulsuz bir vurgu büyük bir anlam ifade etmiyor. Bu nedenle, modelin açık mı yoksa kapalı mı olduğuna dair çerçeveye takılmaktan ziyade, güçlü AI modellerinin temelini oluşturan "verilere" yönelik dış erişimi kademeli olarak genişletmeküzerine odaklanmak daha iyi bir seçim olabilir.
Bilimsel ilerlemede, belirli bir araştırma sonucunun tekrar ortaya çıkıp çıkmadığının doğrulanması, tekrarlanabilirliğin (Reproducibility) sağlanması önemlidir. Bu, her bir model oluşturma sürecinin temel bileşenlerine yönelik şeffaflığın sağlanmasını kapsayan bir yol haritası olmadan, sektör sonunda kapalı ve durgun, tekelci bir duruma sürüklenebilir. Bu da, AI teknolojisinin hızla tüm sektörlere entegre olduğu şu anda ve gelecekte oldukça önemli bir öncelik olarak değerlendirilmesi gereken bir konu.
Gazeteciler ve bilim insanları için verileri anlamak çok önemli hale geldi ve politika yapıcılar için şeffaflık, planlanan politikaların ön koşuludur. Halk için şeffaflık, AI sistemlerinin nihai kullanıcıları olarak fikri mülkiyet hakları, enerji tüketimi, önyargılarla ilgili olası sorunların hem faili hem de mağduru olabildikleri için önemlidir. Sam Altman, AI'dan kaynaklanan insan yok olma riskinin, salgın hastalıklar veya nükleer savaş gibi toplumsal düzeydeki tehditlerden biri olduğunu ve küresel bir öncelik olması gerektiğini savunuyor. Ancak, bahsettiği tehlikeli duruma ulaşana kadar, gelişen AI ile sağlıklı bir ilişki sürdüren toplumumuzun varlığı, bu durumun ön koşuludur.
*Bu makale, 23 Ekim 2023 tarihli Elektronik Haber gazetesinde yayımlanan makalenin orijinalidir.
Referanslar