Ini adalah postingan yang diterjemahkan oleh AI.
Paradoks Model AI Terkemuka, Transparansi
- Bahasa penulisan: Bahasa Korea
- •
- Negara referensi: Semua negara
- •
- TI
Pilih Bahasa
Teks yang dirangkum oleh AI durumis
- Para peneliti di Universitas Stanford menganalisis 10 sistem AI canggih, termasuk GPT-4, dan menemukan bahwa ada kekurangan transparansi dalam model AI seperti kumpulan data, metode pelatihan, dll.
- Terutama, perusahaan AI utama seperti OpenAI dan Google telah mengambil sikap pasif dalam pengungkapan data karena mereka mengejar model bisnis yang berpusat pada keuntungan, yang dapat menghambat kemajuan teknologi AI dan mengarah pada masa depan yang monopolistik.
- Para ahli berpendapat bahwa transparansi dalam model AI harus ditingkatkan untuk memastikan keterulangan dan memperkuat tanggung jawab sosial, dan menyerukan diskusi tentang konsensus sosial dan peraturan seiring dengan kemajuan teknologi AI.
Penelitian yang diterbitkan oleh peneliti Universitas Stanford pada tanggal 18 lalu menunjukkan seberapa dalam dan berpotensi bahaya rahasia di balik GPT-4 dan sistem AI canggih lainnya.
Mengenalkan Indeks Transparansi Model Foundation, Universitas Stanford
Mereka memeriksa total 10 sistem AI yang berbeda, sebagian besar adalah model bahasa besar seperti yang digunakan dalam ChatGPT dan chatbot lainnya. Ini termasuk model komersial yang banyak digunakan seperti GPT-4 dari OpenAI, PaLM 2 dari Google, dan Titan Text dari Amazon, dan menilai keterbukaan mereka berdasarkan 13 kriteria, termasuk seberapa transparan pengembang dalam mengungkapkan data yang digunakan untuk melatih model (cara pengumpulan dan anotasi data, apakah itu berisi materi yang dilindungi hak cipta, dll.). Mereka juga memeriksa apakah mereka mengungkapkan perangkat keras yang digunakan untuk melatih dan menjalankan model, kerangka kerja perangkat lunak yang digunakan, dan konsumsi energi proyek.
Hasilnya menunjukkan bahwa tidak ada model AI yang mencapai lebih dari 54% pada skala transparansi di semua kriteria yang disebutkan. Secara keseluruhan, Titan Text dari Amazon dinilai sebagai yang paling tidak transparan, sementara Llama 2 dari Meta terpilih sebagai yang paling terbuka. Menariknya, meskipun Llama 2 adalah model sumber terbuka yang telah menarik banyak perhatian baru-baru ini sebagai contoh utama dari struktur oposisi model terbuka dan tertutup, itu tidak mengungkapkan data yang digunakan untuk pelatihan, cara pengumpulan dan kurasi data, dan sebagainya. Artinya, terlepas dari meningkatnya pengaruh AI pada masyarakat kita, kurangnya transparansi dalam industri secara keseluruhan adalah fenomena yang konsisten dan terus berlanjut.
Inimenunjukkan bahwa industri AI berisiko menjadi bidang yang berpusat pada keuntungan daripada kemajuan ilmiah, dan potensi untuk mengarah ke masa depan eksklusif yang didorong oleh perusahaan tertentu..
Eric Lee/Bloomberg via Getty Images
CEO OpenAI, Sam Altman, telah secara terbuka bertemu dengan pembuat kebijakan di seluruh dunia untuk menjelaskan kepada mereka tentang kecerdasan baru dan asing ini, dan menawarkan untuk membantu mereka dalam merumuskan regulasi terkait. Namun, meskipun secara prinsip dia mendukung gagasan organisasi internasional untuk mengawasi AI, dia juga percaya bahwa beberapa aturan terbatas, seperti melarang semua materi yang dilindungi hak cipta dari kumpulan data, dapat menjadi hambatan yang tidak adil. Ini adalah bukti bahwa "keterbukaan" dalam nama perusahaan OpenAI telah menyimpang dari transparansi radikal yang disajikan pada saat peluncurannya.
Namun, perlu juga dicatat bahwa hasil laporan Stanford ini menunjukkan bahwa tidak perlu bagi setiap perusahaan untuk merahasiakan model mereka demi persaingan. Karena hasilnya juga merupakan indikator bahwa hampir semua perusahaan berkinerja buruk. Sebagai contoh, tidak ada perusahaan yang memberikan statistik tentang berapa banyak pengguna yang bergantung pada model mereka, atau tentang wilayah atau segmen pasar tempat model mereka digunakan.
Di antara organisasi yang berpegang pada prinsip sumber terbuka, ada pepatah, "Banyak mata melihat semua bug" (Hukum Linus). Angka-angka mentah membantu dalam mengidentifikasi masalah yang dapat diselesaikan dan diperbaiki.
Namun, praktik sumber terbuka cenderung membuat posisi dan pengakuan sosial dan nilai mereka di dalam dan di luar perusahaan publik semakin berkurang, sehingga penekanan yang tidak dapat disangkal tidak terlalu bermakna. Oleh karena itu, daripada terpaku pada kerangka kerja apakah model tersebut terbuka atau tertutup, mengupayakan aksesibilitas eksternal yang sedikit lebih luas untuk 'data' yang mendasari model AI yang kuatakan menjadi pilihan yang lebih baik.
Dalam kemajuan ilmiah, penting untuk mengamankan kemampuan untuk mereplikasi (Reproducibility) hasil penelitian tertentu. Ini mengarahkan pada cara untuk mengartikulasikan cara-cara untuk memastikan transparansi terhadap komponen utama dari pembuatan setiap model, jika tidak, industri pada akhirnya akan sangat mungkin terjebak dalam situasi eksklusif dan stagnan. Dan ini harus dianggap sebagai prioritas yang cukup penting mengingat bagaimana teknologi AI dengan cepat merembes ke dalam semua industri saat ini dan di masa depan.
Penting bagi jurnalis dan ilmuwan untuk memahami data, dan transparansi merupakan prasyarat bagi upaya kebijakan yang direncanakan bagi pembuat kebijakan. Bagi masyarakat, transparansi penting karena mereka sebagai pengguna akhir sistem AI dapat menjadi pelaku atau korban terkait kekayaan intelektual, penggunaan energi, dan potensi masalah yang terkait dengan bias. Sam Altman berpendapat bahwa risiko kepunahan manusia akibat AI harus menjadi prioritas global, sama seperti pandemi dan perang nuklir. Namun, sebelum mencapai situasi berbahaya seperti yang dia sebutkan, kita tidak boleh melupakan bahwa kelangsungan hidup masyarakat kita dalam menjaga hubungan yang sehat dengan AI yang sedang berkembang adalah prasyarat.
* Ini adalah versi asli dari kolom yang diterbitkan di Koran Elektronik pada tanggal 23 Oktober 2023.
Referensi