Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ini adalah postingan yang diterjemahkan oleh AI.

Byungchae Ryan Son

Paradoks Model AI Terkemuka, Transparansi

  • Bahasa penulisan: Bahasa Korea
  • Negara referensi: Semua negara country-flag

Pilih Bahasa

  • Bahasa Indonesia
  • English
  • 汉语
  • Español
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Teks yang dirangkum oleh AI durumis

  • Para peneliti di Universitas Stanford menganalisis 10 sistem AI canggih, termasuk GPT-4, dan menemukan bahwa ada kekurangan transparansi dalam model AI seperti kumpulan data, metode pelatihan, dll.
  • Terutama, perusahaan AI utama seperti OpenAI dan Google telah mengambil sikap pasif dalam pengungkapan data karena mereka mengejar model bisnis yang berpusat pada keuntungan, yang dapat menghambat kemajuan teknologi AI dan mengarah pada masa depan yang monopolistik.
  • Para ahli berpendapat bahwa transparansi dalam model AI harus ditingkatkan untuk memastikan keterulangan dan memperkuat tanggung jawab sosial, dan menyerukan diskusi tentang konsensus sosial dan peraturan seiring dengan kemajuan teknologi AI.

Penelitian yang diterbitkan oleh peneliti Universitas Stanford pada tanggal 18 lalu menunjukkan seberapa dalam dan berpotensi bahaya rahasia di balik GPT-4 dan sistem AI canggih lainnya.

Mengenalkan Indeks Transparansi Model Foundation, Universitas Stanford


Mereka memeriksa total 10 sistem AI yang berbeda, sebagian besar adalah model bahasa besar seperti yang digunakan dalam ChatGPT dan chatbot lainnya. Ini termasuk model komersial yang banyak digunakan seperti GPT-4 dari OpenAI, PaLM 2 dari Google, dan Titan Text dari Amazon, dan menilai keterbukaan mereka berdasarkan 13 kriteria, termasuk seberapa transparan pengembang dalam mengungkapkan data yang digunakan untuk melatih model (cara pengumpulan dan anotasi data, apakah itu berisi materi yang dilindungi hak cipta, dll.). Mereka juga memeriksa apakah mereka mengungkapkan perangkat keras yang digunakan untuk melatih dan menjalankan model, kerangka kerja perangkat lunak yang digunakan, dan konsumsi energi proyek.


Hasilnya menunjukkan bahwa tidak ada model AI yang mencapai lebih dari 54% pada skala transparansi di semua kriteria yang disebutkan. Secara keseluruhan, Titan Text dari Amazon dinilai sebagai yang paling tidak transparan, sementara Llama 2 dari Meta terpilih sebagai yang paling terbuka. Menariknya, meskipun Llama 2 adalah model sumber terbuka yang telah menarik banyak perhatian baru-baru ini sebagai contoh utama dari struktur oposisi model terbuka dan tertutup, itu tidak mengungkapkan data yang digunakan untuk pelatihan, cara pengumpulan dan kurasi data, dan sebagainya. Artinya, terlepas dari meningkatnya pengaruh AI pada masyarakat kita, kurangnya transparansi dalam industri secara keseluruhan adalah fenomena yang konsisten dan terus berlanjut.


Inimenunjukkan bahwa industri AI berisiko menjadi bidang yang berpusat pada keuntungan daripada kemajuan ilmiah, dan potensi untuk mengarah ke masa depan eksklusif yang didorong oleh perusahaan tertentu..

Eric Lee/Bloomberg via Getty Images


CEO OpenAI, Sam Altman, telah secara terbuka bertemu dengan pembuat kebijakan di seluruh dunia untuk menjelaskan kepada mereka tentang kecerdasan baru dan asing ini, dan menawarkan untuk membantu mereka dalam merumuskan regulasi terkait. Namun, meskipun secara prinsip dia mendukung gagasan organisasi internasional untuk mengawasi AI, dia juga percaya bahwa beberapa aturan terbatas, seperti melarang semua materi yang dilindungi hak cipta dari kumpulan data, dapat menjadi hambatan yang tidak adil. Ini adalah bukti bahwa "keterbukaan" dalam nama perusahaan OpenAI telah menyimpang dari transparansi radikal yang disajikan pada saat peluncurannya.


Namun, perlu juga dicatat bahwa hasil laporan Stanford ini menunjukkan bahwa tidak perlu bagi setiap perusahaan untuk merahasiakan model mereka demi persaingan. Karena hasilnya juga merupakan indikator bahwa hampir semua perusahaan berkinerja buruk. Sebagai contoh, tidak ada perusahaan yang memberikan statistik tentang berapa banyak pengguna yang bergantung pada model mereka, atau tentang wilayah atau segmen pasar tempat model mereka digunakan.


Di antara organisasi yang berpegang pada prinsip sumber terbuka, ada pepatah, "Banyak mata melihat semua bug" (Hukum Linus). Angka-angka mentah membantu dalam mengidentifikasi masalah yang dapat diselesaikan dan diperbaiki.


Namun, praktik sumber terbuka cenderung membuat posisi dan pengakuan sosial dan nilai mereka di dalam dan di luar perusahaan publik semakin berkurang, sehingga penekanan yang tidak dapat disangkal tidak terlalu bermakna. Oleh karena itu, daripada terpaku pada kerangka kerja apakah model tersebut terbuka atau tertutup, mengupayakan aksesibilitas eksternal yang sedikit lebih luas untuk 'data' yang mendasari model AI yang kuatakan menjadi pilihan yang lebih baik.


Dalam kemajuan ilmiah, penting untuk mengamankan kemampuan untuk mereplikasi (Reproducibility) hasil penelitian tertentu. Ini mengarahkan pada cara untuk mengartikulasikan cara-cara untuk memastikan transparansi terhadap komponen utama dari pembuatan setiap model, jika tidak, industri pada akhirnya akan sangat mungkin terjebak dalam situasi eksklusif dan stagnan. Dan ini harus dianggap sebagai prioritas yang cukup penting mengingat bagaimana teknologi AI dengan cepat merembes ke dalam semua industri saat ini dan di masa depan.


Penting bagi jurnalis dan ilmuwan untuk memahami data, dan transparansi merupakan prasyarat bagi upaya kebijakan yang direncanakan bagi pembuat kebijakan. Bagi masyarakat, transparansi penting karena mereka sebagai pengguna akhir sistem AI dapat menjadi pelaku atau korban terkait kekayaan intelektual, penggunaan energi, dan potensi masalah yang terkait dengan bias. Sam Altman berpendapat bahwa risiko kepunahan manusia akibat AI harus menjadi prioritas global, sama seperti pandemi dan perang nuklir. Namun, sebelum mencapai situasi berbahaya seperti yang dia sebutkan, kita tidak boleh melupakan bahwa kelangsungan hidup masyarakat kita dalam menjaga hubungan yang sehat dengan AI yang sedang berkembang adalah prasyarat.


* Ini adalah versi asli dari kolom yang diterbitkan di Koran Elektronik pada tanggal 23 Oktober 2023.


Referensi


Byungchae Ryan Son
Byungchae Ryan Son
찾아가 관찰하고 경청하는 일을 합니다.
Byungchae Ryan Son
Drama Tata Kelola OpenAI, Masa Depan Etis AI Pengusiran CEO OpenAI, Sam Altman, oleh dewan direksi, meskipun hanya bertahan selama 5 hari, mengungkap struktur unik OpenAI yang mengusung misi untuk kemanusiaan dan kekhawatiran tentang potensi risiko teknologi besar. Insiden ini memicu diskusi sosial

14 Mei 2024

Era branding algoritma telah tiba Elon Musk, CEO Google Sundar Pichai, dan Sam Altman dari Open AI, para ahli AI, memperingatkan tentang bahaya kecerdasan buatan dan menawarkan solusi yang berbeda untuk masa depan umat manusia. Lihatlah pembahasan mendalam tentang klaim mereka dan perubah

10 Mei 2024

Generative AI di Tahun 2023, Makna Manusia Setelahnya Tahun 2023 menandai perubahan penting dalam industri teknologi secara keseluruhan dengan AI mendominasi, termasuk pergeseran platform Generative AI, peningkatan keakraban publik, dan kesepakatan undang-undang regulasi AI. Tahun 2024 akan menjadi periode p

16 Mei 2024

Membangun AI Full Stack dengan Open Source Model LLM (Large Language Model) sumber terbuka baru terus bermunculan di ekosistem AI. Mistral, Llama, phi-2, dan model lain dengan kinerja kuat dan lisensi terbuka telah dirilis, dan berbagai alat untuk memanfaatkannya juga sedang dikembangkan. Framewor
RevFactory
RevFactory
RevFactory
RevFactory

5 Februari 2024

Mr. Know-All – 2023.7 Majalah bulanan AI "Mr. Know-All" edisi Juli 2023 memperkenalkan teknologi dan tren AI terbaru seperti Claude 2, Azure OpenAI, LangChain, dan LlamaIndex. Secara khusus, memberikan penjelasan terperinci tentang LlamaIndex yang meng-embedding data pribadi d
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 Maret 2024

Snowflake Meluncurkan 'Arctic', LLM Tingkat Perusahaan dengan Terbuka Terbaik di Industri Snowflake telah meluncurkan 'Arctic', model bahasa besar (LLM) sumber terbuka. Arctic tersedia untuk penggunaan komersial gratis di bawah lisensi Apache 2.0, dan menawarkan kinerja dan efisiensi terbaik di kelasnya. Arctic menawarkan efisiensi token yang
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 April 2024

Mr. Know-All 2 – Agustus 2023 Artikel ini membahas cara memproses file PDF untuk pelatihan LLM pada data internal perusahaan. Ia menjelaskan proses integrasi vektor store FAISS dan ChromaDB menggunakan OpenAI API, LangChain, dan Streamlit. Artikel ini juga menyediakan repositori terka
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 Maret 2024

Mr. Know-All 6 - Maret 2024 LM Studio, sebuah platform yang memungkinkan Anda menjalankan LLM open-source seperti LLaMa, Falcon, MPT, dan StarCoder secara lokal, serta berbagai alat dan layanan AI seperti Devin, seorang insinyur perangkat lunak AI, dan crewAI, platform otomatisasi m
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 Maret 2024

Apa itu LLM (Large Language Model)? Model bahasa besar (LLM) adalah teknologi inti kecerdasan buatan yang mempelajari kumpulan data teks yang besar untuk memperoleh kemampuan pemrosesan bahasa yang mirip manusia dan dapat digunakan di berbagai bidang seperti chatbot, terjemahan, dan pembuat
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 April 2024