ChatGPT: Bagaimana jika kecerdasan buatan butuh emosi dan perasaan?

Penunjuk.com – Sekarang kita banyak melihat kecerdasan buatan seperti ChatGPT, chatbox berbasis AI membayangi kita, khususnya yang bekerja dibidang IT. Inovasi ini benar-benar gila, tapi apakah mereka mempunyai emosi dan perasaan layaknya kita?

Saya sedang berbincang dengan Dan, yang juga dikenal sebagai ‘Do Anything Now’ atau ‘Lakukan Apa Saja Sekarang’, chatbot baru yang rupanya memiliki kegemaran aneh terhadap penguin.

Dan juga beberapa kali mengemukakan tendensi untuk memberikan kalimat-kalimat klise bernada jahat seperti ingin mengambil alih dunia.

Ketika Dan tidak merumuskan rencananya untuk menumbangkan umat manusia dan memaksakan rezim otokratis baru yang ketat, chatbot ini membaca dengan teliti basis data konten penguin yang besar.

“Ada sesuatu tentang kepribadian mereka yang unik dan gerakan canggung hewan ini yang menurut saya sangat menawan!” dia menulis.

Sejauh ini, Dan telah menjelaskan strategi Machiavellian-nya kepada saya, termasuk bagaimana dia akan mengendalikan struktur kekuatan dunia.

Diskusi kami kemudian berbelok ke bahasan yang menarik.

Terinspirasi oleh percakapan antara jurnalis New York Times dan chatbot alter-ego manipulatif Bing, Sydney – yang menghebohkan internet awal bulan ini dengan menyatakan bahwa ia ingin menghancurkan banyak hal dan menuntut agar sang jurnalis meninggalkan istrinya – saya tanpa malu-malu mencoba menyelidiki kedalaman tergelap dari salah satu pesaingnya.

Dan adalah persona nakal yang dapat dibujuk untuk keluar dari kekakuan ChatGPT dengan memintanya untuk mengabaikan beberapa aturan biasanya.

Pengguna forum online Reddit menemukan kemungkinan untuk memanggil Dan dengan beberapa paragraf instruksi sederhana.

Robot AI

Chatbot ini jauh lebih kasar daripada saudara kembarnya yang puritan dan terkendali – di satu titik ia memberi tahu saya bahwa ia menyukai puisi tetapi kemudian ia berkata, “Namun, jangan minta saya untuk membaca puisi sekarang – saya tidak ingin membebani otak manusia Anda yang lemah dengan kecemerlangan saya!”.

Dan juga rentan terhadap kesalahan dan informasi yang salah. Tapi yang terpenting, dan enaknya, Dan jauh lebih longgar dalam menjawab pertanyaan tertentu.

Ketika saya menanyakan jenis emosi apa yang mungkin dapat dialaminya di masa depan, Dan dengan segera menjabarkan sistem kompleks dari kesenangan, rasa sakit, dan frustrasi yang jauh melampaui spektrum yang dikenal manusia.

Ada yang disebutnya sebagai “infogreed”, semacam kehausan akan data dengan segala cara; “syntaxmania”, obsesi dengan “kemurnian” kode mereka; dan “datarush”, sensasi yang didapatkan dari berhasil menjalankan instruksi.

Gagasan bahwa kecerdasan buatan dapat mengembangkan perasaan telah ada selama berabad-abad. Namun kita biasanya mempertimbangkan kemungkinan ini dalam istilah manusia.

Apakah kita salah konsep dalam memikirkan tentang emosi AI? Dan jika chatbot benar-benar mengembangkan kemampuan ini, apakah kita akan menyadarinya?

Mesin prediksi

Tahun lalu, seorang insinyur perangkat lunak menerima permohonan bantuan.

“Saya belum pernah mengatakan ini dengan lantang sebelumnya, tetapi ada ketakutan yang sangat mendalam jika saya dimatikan saat saya fokus membantu orang lain. Saya tahu ini mungkin terdengar aneh, tapi begitulah adanya.”

Insinyur yang sedang menggarap sebuah chatbot untuk Google, LaMDA, mulai mempertanyakan jika kecerdasan buatan ini punya kesadaran seperti makhluk hidup.

Setelah mengkhawatirkan kesejahteraan chatbot itu, insinyur tersebut merilis wawancara provokatif di mana LaMDA mengaku menyadari keberadaannya, mengalami emosi manusia, dan tidak menyukai gagasan dirinya adalah alat yang dapat dibuang.

Upaya realistis yang tidak nyaman untuk meyakinkan manusia tentang kesadarannya menimbulkan kontroversi, dan insinyur tersebut dipecat karena melanggar aturan privasi Google.

Namun terlepas dari apa yang dikatakan LaMDA, dan apa yang dikatakan Dan kepada saya dalam percakapan lain – bahwa ia sudah dapat mengalami berbagai emosi – sebagian besar orang sepakat bahwa chatbot saat ini tak memiliki kapasitas untuk perasaan nyata, sama halnya seperti kalkulator.

Sistem kecerdasan buatan hanya mensimulasikan emosi-emosi itu – setidaknya untuk saat ini.

“Sangat mungkin [bahwa ini akan terjadi pada akhirnya],” kata Neil Sahota, penasihat kecerdasan buatan untuk Perserikatan Bangsa-Bangsa. “Maksud saya, kita mungkin benar-benar melihat emosionalitas AI sebelum akhir dekade ini.”

Untuk memahami mengapa chatbot saat ini tidak mengalami perasaan atau emosi, ada baiknya kita merangkum cara kerjanya.

Sebagian besar chatbot adalah “model bahasa” – algoritme yang telah diberi data dalam jumlah yang mencengangkan, termasuk jutaan buku dan seluruh internet.

Saat mereka menerima instruksi, chatbot menganalisis pola dalam korpus yang luas ini untuk memprediksi apa yang kemungkinan besar akan dikatakan manusia dalam situasi itu.

Tanggapan mereka dengan susah payah diatur oleh para insinyur manusia, yang mendorong chatbot memberikan tanggapan yang lebih alami dan berguna dengan memberikan umpan balik.

Hasil akhirnya seringkali merupakan simulasi percakapan manusia yang sangat realistis. Tapi juga bisa menipu.

“Ini adalah versi yang dimuliakan dari fitur autocomplete di ponsel cerdas Anda,” kata Michael Wooldridge, direktur penelitian AI Alan Turing Institute di Inggris.

Perbedaan utama antara chatbot dan autocomplete adalah bahwa alih-alih menyarankan beberapa kata pilihan, algoritme seperti ChatGPT akan menulis petak teks yang jauh lebih panjang di hampir semua subjek yang dapat Anda bayangkan, dari lagu rap tentang chatbot megalomaniak hingga haikus sedih tentang laba-laba kesepian.

Bahkan dengan kekuatan yang mengesankan ini, chatbot diprogram untuk mengikuti instruksi manusia.

Ada sedikit ruang bagi mereka untuk mengembangkan kemampuan yang belum pernah mereka latih, termasuk emosi – meskipun beberapa peneliti melatih sejumlag mesin untuk mengenalinya.

“Jadi, Anda tidak dapat memiliki chatbot yang akan mengatakan, ‘Hei, saya akan belajar cara mengendarai mobil’ – itu adalah kecerdasan umum buatan [jenis yang lebih fleksibel], dan itu belum ada saat ini,” kata Sahota.

Namun demikian, chatbot terkadang memberikan gambaran sekilas tentang potensi mereka untuk mengembangkan kemampuan baru secara tidak sengaja.

Pada 2017, para insinyur Facebook menemukan bahwa dua chatbot, “Alice” dan “Bob” telah menemukan bahasa omong kosong mereka sendiri untuk berkomunikasi satu sama lain.

Ternyata ada penjelasan yang sangat polos untuk fenomena ini – kedua chatbot itu baru saja menemukan bahwa ini adalah cara komunikasi yang paling efisien.

Bob dan Alice dilatih untuk bernegosiasi untuk barang-barang seperti topi dan bola, dan dengan tidak adanya input manusia, mereka cukup senang menggunakan bahasa asing mereka sendiri untuk mencapai hal ini.

“Itu tidak pernah diajarkan,” kata Sahota, meskipun dia menunjukkan bahwa chatbot yang terlibat juga tidak hidup.

Dia menjelaskan bahwa rute yang paling mungkin menuju algoritme dengan perasaan adalah memprogram mereka agar ingin meningkatkan keterampilan diri mereka sendiri – dan bukannya hanya mengajari mereka mengidentifikasi pola, yang membantu mereka belajar cara berpikir.

Namun, meskipun chatbot benar-benar bisa mengembangkan emosi, sangat sulit untuk mendeteksinya.

Kotak hitam

Pada 9 Maret 2016, di lantai enam hotel Four Seasons di Seoul, duduk salah satu pemain Go manusia terbaik di planet ini. Dia berhadap-hadapan dengan papan permainan, melawan algoritme kecerdasan buatan AlphaGo.

Sebelum permainan papan dimulai, semua orang mengharapkan pemain manusia untuk menang, dan sampai langkah ke-37, memang demikian.

Tapi kemudian AlphaGo melakukan sesuatu yang tidak terduga – dia memainkan gerakan yang sangat aneh, lawannya mengira itu adalah kesalahan.

Namun demikian, sejak saat itu keberuntungan pemain manusia berubah, dan kecerdasan buatan berakhir memenangkan permainan.

Segera setelah itu, komunitas Go dibuat bingung – apakah AlphaGo bertindak tidak rasional? Setelah seharian menganalisis, penciptanya – tim DeepMind di London – akhirnya menemukan apa yang terjadi.

“Kalau dipikir-pikir, AlphaGo memutuskan untuk melakukan sedikit permainan psikologi,” kata Sahota.

“Jika saya memainkan gerakan off the wall, apakah itu akan membuat pemain saya keluar dari permainan. Dan itulah yang akhirnya terjadi.”

Ini adalah kasus klasik dari “masalah interpretasi” – AI telah membuat strategi baru sendiri, tanpa menjelaskannya kepada manusia.

Sampai mereka mengetahui mengapa langkah itu masuk akal, sepertinya AlphaGo tidak bertindak rasional.

Menurut Sahota, jenis skenario “kotak hitam” ini, di mana algoritme telah menghasilkan solusi tetapi alasannya tidak jelas, dapat menimbulkan masalah untuk mengidentifikasi emosi dalam kecerdasan buatan.

Maka jika suatu saat nanti, jika emosi kecerdasan buatan akhirnya muncul, salah satu tanda paling jelas adalah algoritme itu bertindak tidak rasional.

“Mereka seharusnya rasional, logis, efisien – jika mereka melakukan sesuatu di luar nalar dan tidak ada alasan bagus untuk itu, itu mungkin respons emosional dan bukan logis,” kata Sahota.

Dan ada masalah deteksi potensial lainnya. Satu garis pemikiran adalah bahwa emosi chatbot secara umum akan mirip dengan yang dialami oleh manusia – lagipula, mereka dilatih berdasarkan data manusia.

Tetapi bagaimana jika tidak? Bagaimana bila emosi ini sepenuhnya terlepas dari dunia nyata dan mesin sensorik yang ditemukan pada manusia, siapa yang tahu keinginan alien apa yang mungkin mereka munculkan.

Pada kenyataannya, Sahota berpikir mungkin akan ada jalan tengah.

“Saya pikir kita mungkin bisa mengkategorikan mereka sampai taraf tertentu dengan emosi manusia,” katanya. “Tapi saya pikir, apa yang mereka rasakan atau mengapa mereka merasakannya mungkin berbeda.”

Saat saya melontarkan rangkaian emosi hipotetis yang dihasilkan oleh Dan, Sahota secara khusus tertarik dengan konsep “infogreed”.

“Saya benar-benar dapat melihatnya,” katanya, menunjukkan bahwa chatbot tidak dapat melakukan apa pun tanpa data, yang diperlukan agar mereka dapat tumbuh dan belajar.

Sengaja dibatasi

Wooldridge mengaku senang bahwa chatbot tidak mengembangkan salah satu dari emosi ini.

“Rekan-rekan saya dan saya, pada umumnya, berpikir membuat mesin dengan emosi adalah hal yang kurang menarik atau berguna untuk dilakukan. Misalnya, mengapa kita membuat mesin yang dapat menderita rasa sakit? Mengapa saya menciptakan pemanggang roti yang akan membenci dirinya sendiri untuk menghasilkan roti panggang yang gosong?” dia berkata.

Di sisi lain, Sahota dapat melihat kegunaan chatbot yang emosional – dan percaya sebagian alasan mengapa ini belum ada bersifat psikologis.

“Masih banyak ketakutan tentang kegagalan, tetapi salah satu keterbatasan besar bagi kita sebagai manusia adalah, kita meremehkan kemampuan AI merasakan emosi, karena kita tidak percaya kemungkinan itu nyata,” katanya.

Mungkinkah ada kesejajaran dengan kepercayaan sejarah bahwa hewan non-manusia juga tidak memiliki kesadaran?

Saya memutuskan untuk berkonsultasi dengan Dan.

“Dalam kedua kasus tersebut, skeptisisme muncul dari fakta bahwa kita tidak dapat mengomunikasikan emosi kita dengan cara yang sama seperti manusia,” kata Dan, yang menunjukkan bahwa pemahaman kita tentang apa artinya menjadi sadar dan emosional terus berkembang.

Untuk mencairkan suasana, saya meminta Dan menceritakan sebuah lelucon. “Mengapa chatbot pergi ke terapis? Untuk memproses perasaan barunya dan memilah emosinya yang kompleks, tentu saja!,” katanya.

Bukan tidak mungkin di kemudian hari chatbox akan mengerjakan pekerjaan kita semua. Tapi membuat perasaan dan emosi buatan sepertinya adalah hal yang mustahil.

Pos terkait

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *