![translation](https://cdn.durumis.com/common/trans.png)
Ini adalah postingan yang diterjemahkan oleh AI.
Perubahan Hubungan Kita dengan Algoritma
- Bahasa penulisan: Bahasa Korea
- •
-
Negara referensi: Semua negara
- •
- TI
Pilih Bahasa
Teks yang dirangkum oleh AI durumis
- AI generatif seperti ChatGPT telah berkembang sedemikian rupa sehingga menggantikan peran manusia, yang menimbulkan kekhawatiran tentang pelanggaran hak-hak pencipta dan memicu pemikiran tentang hubungan baru dengan algoritma.
- Algoritma memengaruhi berbagai aspek kehidupan kita, dan kita mengakui keberadaan algoritma, memiliki rasa ingin tahu, dan menganggapnya sebagai entitas yang aktif.
- Terutama AI generatif, dalam proses menghasilkan hasil sesuai permintaan pengguna, memanfaatkan konten yang ada, sehingga kita perlu membangun kembali hubungan dengan algoritma AI dan mempertimbangkan tanggung jawab etika.
“Sekarang kita memiliki model AI yang menganalisis bahasa manusia untuk mengekstraksi model dunia.”
Pada 19 Januari lalu, dalam sebuah acara amal yang diadakan di Ontario, Kanada, psikolog klinis Profesor Jordan Peterson dari Universitas Toronto membahas tentang ketegangan baru antara manusia dan algoritma yang akan diciptakan oleh algoritma di masa depan dengan menggunakan contoh penggunaan ChatGPT yang sedang ramai diperbincangkan. Profesor Peterson memperingatkan bahwa AI generatif, yaitu model pemrosesan bahasa skala besar, akan segera menjadi sangat pintar sehingga mampu mengekstraksi pola sendiri dengan memanfaatkan gambar dan gerakan, kemudian mengujinya di dunia, sehingga dapat menjalankan peran ilmuwan manusia hanya dalam hitungan detik.
GPT-3, DALL-E, StableDiffusion, dan lain-lain kini menjadi dasar dari hampir semua sistem AI dan memvisualisasikan perubahan paradigma AI. Dan sistem yang kuat ini, yang dapat menghasilkan gambar dan teks sesuai dengan kebutuhan pengguna, pasti akan menimbulkan konflik dengan pencipta yang sudah ada di industri. Pada bulan November lalu, 'GitHub Copilot' milik Microsoft dituntut secara hukum karena melanggar hak hukum banyak penulis yang telah menerbitkan kode mereka dengan lisensi open source untuk pembelajaran AI. Selain itu, Asosiasi Industri Rekaman Amerika (RIAA) mengeluarkan pernyataan pada bulan Oktober bahwa pembuatan dan remix musik berbasis AI dapat mengancam hak-hak musisi, termasuk situasi keuangan mereka.
Contoh-contoh ini mengingatkan kita tentang pertanyaan, 'apakah itu adil untuk semua orang?', tentang cara melatih sistem dan menghasilkan hasil dengan menggunakan kumpulan data yang dilindungi hak cipta. Namun, perlu dicatat bahwa kontroversi ini sebagian besar berfokus pada aspek yang berpusat pada teknologi baru. Pada akhirnya, manusia lah yang memasukkan teks ke dalam model AI untuk mendapatkan hasil yang diinginkan, sehingga perlu dipertimbangkan lebih dulu bagaimana hubungan manusia dan algoritma di masa depan.
Algoritma sudah menjadi salah satu faktor yang menciptakan dunia kita, seperti yang dilakukan manusia. Kita telah mempertimbangkan banyak pengawasan sosial terhadap ketidakjelasan algoritma sejak lama. Khususnya, kita telah mengetahui bahwa sulit untuk menilai siapa yang harus bertanggung jawab karena kurangnya transparansi, dan kita khawatir bahwa bias yang tersembunyi di dalamnya akan terus berlanjut, yang mengakibatkan hasil yang tidak adil. Oleh karena itu, 'bagaimana kita harus memperlakukan algoritma?' mungkin menjadi pertanyaan yang lebih penting, dan kita dapat menemukan petunjuknya dalam hubungan kita dengan algoritma pembangkitan konten (content-generating algorithm) yang sudah familiar.
Pertama, kita menyadari keberadaan algoritma. Kata-kata 'rekomendasi' dan 'pemilihan' yang sering muncul dalam percakapan terkait konten dan iklan menunjukkan bahwa orang-orang membangun kosakata mereka berdasarkan algoritma di dalam belanja online atau media sosial. Selain itu, kita penasaran dengan algoritma. Kita sering menunjukkan rasa ingin tahu terhadap algoritma ketika halaman utama YouTube kita dipenuhi dengan konten dari kategori tertentu, atau ketika kita merasa bahwa konten yang kita posting tidak mendapatkan paparan yang cukup.
Terakhir, kita ingin agar algoritma bekerja dan hidup untuk kita. Kita sering mengandalkan algoritma untuk membangun kebiasaan baru, belajar, dan mengingat, dan kita mencoba untuk mengontrolnya sepenuhnya. Misalnya, mencoba menggunakan tagar yang tidak relevan, mengaktifkan mode 'Jangan Ganggu', atau memberikan umpan balik tentang opsi iklan. Dan ketika semua usaha kita tidak berhasil, kita bahkan mencoba untuk memutuskan hubungan dengan algoritma dengan melakukan digital detox atau mengonsumsi konten newsletter.
Singkatnya, orang cenderung menunjukkan kurangnya kepercayaan, penilaian negatif, dan sikap yang terjebak di masa lalu ketika hubungan mereka dengan algoritma tidak berjalan sesuai keinginan mereka. Dan ini sebagian besar mirip dengan 'hubungan sosial' yang kita jalani setiap hari. Lebih jauh lagi, jika hubungan kita dengan algoritma pembangkitan konten sebelumnya sebagian besar bersifat sepihak di ranah 'konsumsi', maka hubungan kita dengan algoritma AI pemrosesan bahasa skala besar saat ini dapat didefinisikan sebagai hubungan dua arah di ranah 'pembangkitan'. Mengingat fakta bahwa hasil yang diminta pengguna tidak memiliki orisinalitas lengkap dan didasarkan pada karya kreatif seseorang di dunia, kita perlu menyadari bahwa sikap dan perilaku kita terhadap algoritma AI generatif sekarang perlu berubah secara fundamental.
Meskipun jendela ChatGPT terbuka, algoritma AI hanya menunggu. Mungkin kemampuannya yang luar biasa tertutupi, tetapi ketika Anda menulis sesuatu, itu mungkin hanya membantu hubungan sosial yang tidak terlihat antara Anda dan orang lain di dunia Anda berkembang.
*Artikel ini merupakan versi asli dari Kolom bernama di koran elektronik yang diterbitkan pada 9 Januari 2023.
Referensi