“Sekarang kita memiliki model AI yang dapat menganalisis bahasa manusia dan mengekstrak model dunia.”
Pada tanggal 19 bulan lalu di Ontario, Kanada, dalam sebuah acara amal, Profesor Psikologi Klinis Jordan Peterson dari Universitas Toronto menyebutkan tentang ketegangan baru antara manusia dan algoritma yang akan diciptakan oleh algoritma di masa depan melalui contoh penggunaan ChatGPT yang baru-baru ini menjadi sorotan. Profesor Peterson memperingatkan bahwa model pemrosesan bahasa skala besar, yaitu AI generatif, akan segera menjadi cukup cerdas untuk menggunakan gambar dan gerakan untuk mengekstrak pola sendiri dan mengujinya di dunia, sehingga dapat menyelesaikan peran ilmuwan manusia dalam hitungan detik.
GPT-3, DALL-E, StableDiffusion, dll., sekarang menjadi dasar dari hampir semua sistem AI dan memvisualisasikan perubahan paradigma AI. Dan sistem yang kuat ini, yang menghasilkan gambar dan teks sesuai kebutuhan pengguna, pasti menimbulkan konflik dengan kreator yang sudah ada di industri yang ada. Pada November lalu, ‘GitHub Copilot’ milik Microsoft menghadapi gugatan class action yang menuduh bahwa ia melanggar hak hukum dari banyak penulis yang telah mempublikasikan kode mereka di bawah lisensi open source untuk pembelajaran AI. Selain itu, Asosiasi Industri Rekaman Amerika (RIAA) dalam sebuah pernyataan pada Oktober lalu menekankan bahwa pembuatan dan remix musik berbasis AI dapat mengancam hak-hak musisi serta kondisi keuangan mereka.
Contoh-contoh ini mengingatkan kita tentang pertanyaan ‘apakah ini adil untuk semua orang’ sehubungan dengan cara sistem dapat dilatih dan menghasilkan output menggunakan dataset yang dilindungi hak cipta. Namun, perlu dicatat bahwa banyak dari perdebatan ini berpusat pada aspek yang berorientasi pada teknologi baru. Pada akhirnya, manusia lah yang memasukkan teks ke dalam model AI untuk mendapatkan hasil yang diinginkan, sehingga kita perlu lebih dulu memperhatikan bagaimana seharusnya hubungan manusia dengan algoritma di masa depan.
Algoritma sudah menjadi salah satu penggerak dalam menciptakan dunia kita, seperti halnya manusia. Kita telah mempertimbangkan banyak pengawasan sosial terhadap ketidakjelasan algoritma sejak lama. Terutama, kita tahu bahwa sulit untuk menilai siapa yang harus bertanggung jawab karena kurangnya transparansi, dan kita khawatir bahwa bias tersembunyi yang ada di dalamnya dapat menyebabkan hasil yang tidak adil dan berkelanjutan. Oleh karena itu, ‘bagaimana kita harus memperlakukan algoritma’ bisa jadi pertanyaan yang lebih penting, dan kita dapat menemukan petunjuknya dalam hubungan kita dengan algoritma pembangkit konten (content-generating algorithm) yang sudah kita kenal.
Pertama,kita menyadari keberadaan algoritma. Kata-kata seperti ‘rekomendasi’ dan ‘pilihan’ yang sering muncul dalam percakapan terkait konten dan iklan menunjukkan bahwa orang-orang membangun kosakata mereka di sekitar algoritma dalam berbelanja online atau menggunakan media sosial. Selain itu,kita penasaran dengan algoritma. Ketika halaman utama YouTube dipenuhi dengan konten dari kategori tertentu atau ketika kita merasa postingan yang kita buat tidak mendapatkan eksposur yang cukup, kita sering kali menunjukkan rasa ingin tahu kita terhadap algoritma dengan reaksi yang tidak bersahabat.
Terakhir,kita ingin algoritma aktif dan hidup, seakan-akan ada untuk kita. Kita mengandalkan algoritma untuk membentuk kebiasaan baru, belajar, dan mengingat, dan kita mencoba untuk mengendalikan algoritma sepenuhnya untuk tujuan ini. Mulai dari mencoba menggunakan tagar yang tidak relevan, mengaktifkan mode jangan ganggu, hingga mengirimkan umpan balik tentang opsi iklan. Dan ketika semua upaya ini gagal, kita bahkan mencoba memutuskan hubungan dengan algoritma, seperti melakukan detoksifikasi digital atau mengonsumsi konten buletin.
Singkatnya, orang cenderung menunjukkan kurangnya kepercayaan, penilaian negatif, dan perilaku yang terjebak di masa lalu ketika hubungan mereka dengan algoritma tidak berjalan seperti yang mereka inginkan. Dan ini sangat mirip dengan ‘hubungan sosial’yang kita jalin dalam kehidupan sehari-hari. Lebih jauh lagi, jika hubungan dengan algoritma pembangkit konten yang ada sebagian besar merupakan hubungan searah dalam ranah ‘konsumsi’, maka hubungan dengan algoritma AI pemrosesan bahasa skala besar saat ini dapat didefinisikan sebagai hubungan dua arah dalam ranah ‘pembuatan’. Karena hasil yang diminta pengguna tidak sepenuhnya orisinal dan didasarkan pada karya kreatif seseorang di dunia, kita perlu menyadari bahwa sikap dan perilaku kita terhadap algoritma AI generatif juga harus berubah secara fundamental.
Meskipun jendela ChatGPT terbuka, algoritma AI hanya menunggu. Mungkin kemampuannya yang luar biasa menutupi fakta bahwa ia hanya membantu memunculkan hubungan sosial yang tersembunyi dengan orang lain di dunia Anda saat Anda menulis sesuatu.
*Artikel ini adalah versi asli dari konten yang diterbitkan pada tanggal 9 Januari 2023 di Kolom di Koran Elektronik.
Referensi
Komentar0