Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Çıkış Yap

translation

Bu, AI tarafından çevrilen bir gönderidir.

Byungchae Ryan Son

Öncü Yapay Zeka Modellerinin Çelişkisi, Şeffaflık

  • tr Writing language: Korece
  • tr Referans Ülke: tr Tüm ülkeler country-flag

Dil Seç

  • Türkçe
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Text summarized by durumis AI

  • Stanford Üniversitesi araştırmacıları, GPT-4 dahil olmak üzere son teknoloji ürünü 10 yapay zeka sistemini analiz etti ve sonuç olarak, veri kümeleri, eğitim yöntemleri gibi yapay zeka modellerinin şeffaflığının eksik olduğunu ortaya koydu.
  • Özellikle OpenAI, Google gibi önemli yapay zeka şirketleri, gelir odaklı iş modelleri benimseyerek veri açıklamasında isteksiz davranıyor ve bu da yapay zeka teknolojisinin gelişmesini engelleme ve tekelci bir geleceğe yol açma olasılığını beraberinde getiriyor.
  • Uzmanlar, yapay zeka modellerinin şeffaflığını artırarak tekrarlanabilirliği sağlanması gerektiğini ve toplumsal sorumluluğun güçlendirilmesi gerektiğini savunuyor ve yapay zeka teknolojisinin gelişimiyle birlikte toplumsal uzlaşma ve düzenleme görüşmelerinin talep edildiğini belirtiyor.

Geçtiğimiz 18'inde Stanford Üniversitesi araştırmacıları tarafından yayınlanan bir çalışma, GPT-4 ve diğer en gelişmiş AI sistemlerinin sırlarının ne kadar derin ve potansiyel olarak tehlikeli olduğunu gösteriyor.

Foundation Model Transparency Index'in Tanıtımı, Stanford Üniversitesi


ChatGPT ve diğer sohbet robotlarında kullanılanlar gibi büyük dil modelleri olmak üzere toplam 10 farklı AI sistemi incelemişler. Bunlar arasında OpenAI'nin GPT-4'ü, Google'ın PaLM 2'si, Amazon'un Titan Text'i gibi yaygın olarak kullanılan ticari modeller yer alıyor ve bu modellerin, modellerin eğitildiği verilerin ne kadar şeffaf bir şekilde açıklandığını (veri toplama ve etiketleme yöntemleri, telif hakkıyla korunan materyallerin dahil edilip edilmediği vb.) değerlendirerek 13 farklı kriterle şeffaflıklarını değerlendirmişler. Ayrıca, modelin eğitimi ve çalıştırılması için kullanılan donanım, kullanılan yazılım çerçeveleri ve projenin enerji tüketimi ile ilgili bilgilerin açıklanıp açıklanmadığını da incelemişler.


Sonuçlar, incelenen tüm kriterlerde şeffaflık ölçeğinde %54'ün üzerinde puan alan bir AI modelinin olmadığını gösterdi. Genel olarak, Amazon'un Titan Text'i en düşük şeffaflığa sahip olarak değerlendirilirken, Meta'nın Llama 2'si en şeffaf model seçildi. İlginç olanı, son zamanlarda ilgi çeken açık ve kapalı modeller arasındaki karşıtlık yapısının önemli temsilcileri olan Llama 2, açık kaynaklı bir model olmasına rağmen, eğitiminde kullanılan verileri, veri toplama ve düzenleme yöntemlerini vb. açıklamadı. Yani, AI'nın toplumumuz üzerindeki etkisi büyürken, sektördeki ilgili şeffaflık eksikliği genel ve sürekli olarak görülen bir olgu.


Bu, AI sektörünün bilimsel ilerleme değil, kâr odaklı bir sektör olma riski taşıdığını ve belirli şirketlerin yönlendirdiği tekelci bir geleceğe yol açabileceğini gösteriyor.

Eric Lee/Bloomberg, Getty Images aracılığıyla


OpenAI CEO'su Sam Altman zaten dünyanın dört bir yanındaki politika yapıcılarla görüşerek onlara bu yabancı ve yeni zekâyı aktif olarak açıklıyor ve ilgili düzenlemelerin somutlaştırılmasına yardımcı olmak istediğini açıkça belirtiyor. Ancak, prensip olarak AI'yı denetleyen uluslararası bir kuruluşu destekliyor ancak, telif hakkıyla korunan tüm materyallerin veri kümelerinden yasaklanması gibi bazı sınırlı kuralların haksız bir engel olabileceğini düşünüyor. OpenAI şirketinin adında yer alan "açıklık"ın kuruluş aşamasında sunulan radikal şeffaflıktan sapmış olması açıkça görülüyor.


Ancak, bu Stanford raporunun sonuçlarında ortaya çıktığı gibi, rekabet için modellerini bu kadar gizli tutmaya gerek olmadığını da belirtmek gerekir. Bu sonuç aynı zamanda, neredeyse tüm şirketlerin yetersiz olduğunu gösteren bir gösterge. Örneğin, kendi modellerine ne kadar kullanıcı bağımlı olduğunu veya kendi modellerini kullanan bölgeleri veya pazar segmentlerini gösteren bir şirket yokmuş.


Açık kaynaklı prensibine dayalı organizasyonlar arasında "Göz çok olunca, her böcek görülür" atasözü var. (Linus's Law) Ham sayılar, sorunları çözmeye ve düzeltmeye yardımcı olabilecek sorunları bulmada yardımcı olur.


Ancak, Açık kaynak uygulamaları, kademeli olarak şirket içi ve şirket dışı toplumsal konum ve değer tanımasını kaybetme eğilimindeolduğu için, koşulsuz bir vurgu büyük bir anlam ifade etmiyor. Bu nedenle, modelin açık mı yoksa kapalı mı olduğuna dair çerçeveye takılmaktan ziyade, güçlü AI modellerinin temelini oluşturan "verilere" yönelik dış erişimi kademeli olarak genişletmeküzerine odaklanmak daha iyi bir seçim olabilir.


Bilimsel ilerlemede, belirli bir araştırma sonucunun tekrar ortaya çıkıp çıkmadığının doğrulanması, tekrarlanabilirliğin (Reproducibility) sağlanması önemlidir. Bu, her bir model oluşturma sürecinin temel bileşenlerine yönelik şeffaflığın sağlanmasını kapsayan bir yol haritası olmadan, sektör sonunda kapalı ve durgun, tekelci bir duruma sürüklenebilir. Bu da, AI teknolojisinin hızla tüm sektörlere entegre olduğu şu anda ve gelecekte oldukça önemli bir öncelik olarak değerlendirilmesi gereken bir konu.


Gazeteciler ve bilim insanları için verileri anlamak çok önemli hale geldi ve politika yapıcılar için şeffaflık, planlanan politikaların ön koşuludur. Halk için şeffaflık, AI sistemlerinin nihai kullanıcıları olarak fikri mülkiyet hakları, enerji tüketimi, önyargılarla ilgili olası sorunların hem faili hem de mağduru olabildikleri için önemlidir. Sam Altman, AI'dan kaynaklanan insan yok olma riskinin, salgın hastalıklar veya nükleer savaş gibi toplumsal düzeydeki tehditlerden biri olduğunu ve küresel bir öncelik olması gerektiğini savunuyor. Ancak, bahsettiği tehlikeli duruma ulaşana kadar, gelişen AI ile sağlıklı bir ilişki sürdüren toplumumuzun varlığı, bu durumun ön koşuludur.


*Bu makale, 23 Ekim 2023 tarihli Elektronik Haber gazetesinde yayımlanan makalenin orijinalidir.


Referanslar


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
OpenAI'nin Yönetişim Draması, Yapay Zekânın Etik Geleceği OpenAI CEO'su Sam Altman'ın yönetim kurulu tarafından görevden alındıktan sonra 5 gün içinde geri döndürülmesi, insanlık için bir misyonu benimseyen OpenAI'nin benzersiz yapısını ve büyük teknolojinin potansiyel risklerini ortaya koymaktadır. Bu olay, yap

14 Mayıs 2024

İşin Özünde 'Hibrit' Var. ChatGPT'nin geliştiricisi olan OpenAI, Mayıs itibarıyla dünyanın en popüler 17. web sitesi olarak, Netflix ve Linkedin'den daha fazla ziyaretçi sayısına ulaştı. Özellikle mobil uygulama lansmanı ile birlikte, üretken yapay zeka, fiziksel kısıtlamalardan k

13 Mayıs 2024

2023 Yılında Üretken Yapay Zeka, İnsanın Anlamı Sonrası 2023, AI'nın tüm teknoloji endüstrisini ele geçirdiği ve üretken AI platformunda dönüşüm, halk arasında yaygınlaşma ve AI düzenleme yasalarında anlaşma gibi önemli değişikliklerin yaşandığı bir yıl oldu. 2024, AI teknolojisinin gelişmesiyle birlikte insan

16 Mayıs 2024

AI Tam Yığınını Açık Kaynaklarla Tamamlamak AI ekosisteminde yeni açık kaynaklı LLM (Büyük Dil Modeli) modelleri hızla ortaya çıkıyor. Mistral, Llama, phi-2 gibi güçlü performans ve açık lisanslara sahip modeller yayınlandı ve bunları kullanmak için çeşitli araçlar da geliştiriliyor. LangChain, Lla
RevFactory
RevFactory
RevFactory
RevFactory

5 Şubat 2024

Mr. Know-All – 2023.7 2023 Temmuz AI aylık dergisi "Mr. Know-All" 1. sayısında Claude 2, Azure OpenAI, LangChain, LlamaIndex gibi en son AI teknolojileri ve trendleri tanıtılıyor. Özellikle, kişisel verileri gömme konusunda LlamaIndex ve zincirleme konusunda LangChain'in temel
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 Mart 2024

Snowflake, Sektöre Öncü Açıklık Sağlayan Kurumsal Düzeyde LLM 'Arctic'i Piyasaya Sürüyor Snowflake, açık kaynak kodlu büyük dil modeli 'Arctic'i piyasaya sürdü. Apache 2.0 lisansı altında ücretsiz ticari kullanım mümkün olan Arctic, sektörün en iyi performans ve verimliliğini sunuyor. Üstün token verimliliği ve en yüksek kaliteyi sağlayan Arc
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 Nisan 2024

SK C&C, Müşteriye Özel sLLM Uygulama Destek Platformu 'Soluer LLMOps'u Tanıttı SK C&C, şirketlere özel küçük ölçekli büyük dil modeli (sLLM) oluşturma platformu 'Soluer LLMOps'u piyasaya sürdü. Bu platform, ChatGPT, HyperCLOVA X gibi çeşitli temel modelleri kullanarak sLLM'leri sürükle ve bırak yöntemiyle kolayca oluşturmayı destekl
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

20 Mayıs 2024

LLM (Büyük Dil Modeli) nedir? Büyük Dil Modelleri (LLM'ler), yapay zekânın temel teknolojisidir ve büyük miktarda metin verisi üzerinde eğitilerek insan benzeri dil işleme becerileri kazanır. Bu beceriler, sohbet robotları, çeviri, metin oluşturma gibi çeşitli alanlarda kullanılabilir
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 Nisan 2024

Snowflake, Veri Trendleri 2024 Raporunu Yayınladı… AI Geliştiricileri Günlük Ortalama 90 Uygulama Geliştiriyor Snowflake, 9.000'den fazla müşteriyle yaptığı araştırmaya göre, LLM uygulamaları arasında sohbet robotlarının oranı artmış, geliştiriciler Python'u tercih ediyor ve yapılandırılmamış veri işlem hacmi de artmış. Snowflake Veri Trendleri 2024 raporunda ayrı
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

16 Mayıs 2024