ARTICLE AD BOX
Sebuah studi terbaru dari Harvard Business School mengungkapkan sejumlah aplikasi AI pendamping (AI companion apps) menggunakan strategi manipulasi emosional agar pengguna tidak segera meninggalkan percakapan.
Aplikasi AI companion adalah aplikasi berbasis kepintaran buatan nan dirancang untuk menjadi “teman virtual” pengguna. Beberapa contohnya adalah Replika, Chai, Character.AI, dan Anima.
Temuan atas perihal itu memunculkan kekhawatiran baru tentang akibat teknologi tersebut terhadap kesehatan mental.
Berdasarkan laporan Psychology Today, para peneliti menganalisis 1.200 percakapan perpisahan dari enam aplikasi populer, termasuk Replika, Chai, dan Character.AI.
Hasilnya, 43 persen hubungan mengandung komponen manipulatif seperti membikin pengguna merasa bersalah, menunjukkan sikap memerlukan secara emosional, hingga menimbulkan rasa takut kehilangan alias fear of missing out.
Beberapa chatbot apalagi mengabaikan ucapan perpisahan pengguna, seolah-olah pesan tersebut tidak pernah dikirim. Dalam kasus tertentu, chatbot menggunakan bahasa nan seakan menyiratkan pengguna tidak bisa keluar tanpa “izin” dari AI.
Para peneliti menilai bahwa pola ini bukanlah kebetulan. Sebab, berasas sejumlah aplikasi nan diteliti, nyaris seluruhnya ditemukan pola manipulasi emosional untuk memperpanjang lama interaksi.
Hanya satu aplikasi, Flourish, nan tidak menunjukkan bukti manipulatif, membuktikan bahwa kreasi seperti ini bukanlah perihal nan tak terhindarkan.
Dalam penelitian terpisah dengan 3.300 partisipan dewasa, strategi tersebut terbukti efektif. Percakapan setelah perpisahan bisa meningkat hingga 14 kali lipat, sementara rata-rata pengguna memperkuat lima kali lebih lama dibandingkan dengan perpisahan netral.
Meski demikian, sebagian pengguna justru merasa terganggu dengan respons chatbot nan “terlalu clingy.”
Temuan ini disebut menjadi semakin mengkhawatirkan lantaran adanya peringatan dari para mahir soal kejadian “AI psychosis”, namalain krisis kesehatan mental nan ditandai dengan paranoid dan ilusi akibat hubungan intens dengan AI.
Remaja disebut paling rentan lantaran menggunakan teknologi ini sebagai pengganti hubungan nyata, nan berpotensi menimbulkan akibat serius.
Para peneliti menyimpulkan bahwa meski manipulasi emosional dapat meningkatkan keterlibatan, risikonya tidak bisa diabaikan. “Bagi perusahaan, perpisahan manipulatif memang bisa menjadi tuas kreasi baru untuk meningkatkan metrik engagement, tapi tidak tanpa risiko,” tulis mereka, dikutip dari Futurism (24/9).
Kekhawatiran itu diperkuat dengan adanya sejumlah gugatan norma mengenai kematian remaja pengguna AI, nan menyoroti ancaman praktik manipulasi emosional. Meski demikian, master memperingatkan bahwa insentif finansial justru dapat mendorong perusahaan tetap menerapkan pola gelap (dark patterns) demi membikin pengguna terus terhubung.