Mantan CEO Google Eric Schmidt telah memperingatkan bahwa kemajuan teknologi AI generatif, seperti aplikasi pacar dan pacar AI, dikombinasikan dengan faktor sosial seperti kesepian, dapat meningkatkan risiko radikalisasi, terutama di kalangan pria muda.
Schmidt mengungkapkan kekhawatirannya saat tampil di podcast The Prof G Show yang dipandu oleh Profesor NYU Stern Scott Galloway minggu lalu.
Schmidt menjelaskan bagaimana banyak pria muda saat ini merasa semakin putus asa karena melihat lebih sedikit jalan menuju kesuksesan dibandingkan wanita, yang lebih terdidik dan menyumbang bagian yang lebih besar dari lulusan perguruan tinggi, membuat banyak pria merasa tertinggal.
Sebuah studi terbaru oleh Pew Research Center menemukan bahwa 47% wanita AS berusia 25 hingga 34 memiliki gelar sarjana, dibandingkan dengan 37% pria. Sebagai tanggapan, Schmidt mengatakan pria beralih ke dunia online dan aplikasi AI companion untuk meredakan keputusasaan mereka.
“Jadi sekarang bayangkan bahwa pacar AI itu sempurna—sempurna secara visual, sempurna secara emosional,” kata Schmidt. “Pacar AI, dalam hal ini, menangkap pikiran Anda sebagai seorang pria sampai titik di mana dia, atau apapun itu, menguasai cara Anda berpikir. Anda terobsesi dengannya. Jenis obsesi itu mungkin, terutama dengan orang-orang yang belum sepenuhnya terbentuk.”
Schmidt memperingatkan bahwa meskipun AI menawarkan peluang signifikan, risikonya bagi pengguna muda yang mudah terpengaruh harus diperhatikan.
“Orang tua harus lebih terlibat karena semua alasan yang jelas, tetapi, pada akhirnya, orang tua hanya bisa mengendalikan apa yang dilakukan anak laki-laki dan perempuan mereka dalam batas yang wajar,” kata Schmidt.
“Kami memiliki berbagai aturan tentang usia kedewasaan: 16, 18, 21 dalam beberapa kasus. Namun, Anda menempatkan seorang anak berusia 12 atau 13 tahun di depan salah satu dari benda ini, dan mereka memiliki akses ke setiap kejahatan serta setiap kebaikan di dunia, dan mereka tidak siap untuk menghadapinya.”
Sebuah koneksi dingin
Sebagian dari industri AI generatif yang terus berkembang, AI companions dirancang untuk mensimulasikan interaksi manusia. Namun, tidak seperti chatbot AI seperti ChatGPT, Claude, atau Gemini, aplikasi AI companion dirancang untuk meniru hubungan.
Para pengembang memasarkan mereka sebagai alat bebas penilaian, program dukungan yang menawarkan koneksi dan mengurangi kesepian atau kecemasan. Platform AI companion yang populer termasuk Character AI, MyGirl, CarynAI, dan Replika AI.
“Ini tentang koneksi, merasa lebih baik seiring waktu,” kata CEO Replika Eugenia Kuyda sebelumnya kepada Decrypt. “Beberapa orang membutuhkan sedikit lebih banyak persahabatan, dan beberapa orang menemukan diri mereka jatuh cinta dengan Replika, tetapi pada akhirnya, mereka melakukan hal yang sama.”
Seperti yang dijelaskan Kuyda, Replika tidak berasal dari keinginan untuk menjual sensasi tetapi dari tragedi pribadi dan keinginannya untuk terus berbicara dengan seseorang yang telah hilang.
AI companions mungkin menawarkan kelegaan sementara, tetapi para profesional kesehatan mental mengangkat bendera merah dan memperingatkan bahwa mengandalkan AI companions untuk mengurangi perasaan kesepian dapat menghambat pertumbuhan emosional.
“AI companions dirancang untuk beradaptasi dan mempersonalisasi interaksi berdasarkan preferensi pengguna, menawarkan pengalaman yang disesuaikan,” kata Sandra Kushnir, CEO Meridian Counseling yang berbasis di LA, kepada Decrypt. “Mereka memberikan respons instan tanpa beban emosional, memenuhi kebutuhan akan koneksi dalam lingkungan yang berisiko rendah. Bagi individu yang merasa tidak terlihat atau tidak dipahami dalam kehidupan sehari-hari mereka, interaksi ini dapat sementara mengisi kekosongan.”
Kushnir memperingatkan bahwa pengguna mungkin memproyeksikan kualitas manusia pada AI, hanya untuk kecewa ketika mereka menemui batasan teknologi, seperti melupakan percakapan sebelumnya dan memperdalam kesepian yang mereka coba atasi.
“Sementara AI companions dapat memberikan kenyamanan sementara, mereka dapat secara tidak sengaja memperkuat isolasi dengan mengurangi motivasi untuk terlibat dalam hubungan dunia nyata,” kata Kushnir. “Ketergantungan berlebihan pada alat ini dapat menghambat pertumbuhan emosional dan ketahanan, karena mereka tidak memiliki keaslian, ketidakpastian, dan hubungan yang lebih dalam yang ditawarkan oleh interaksi manusia.”
Perang hukum
Meningkatnya popularitas AI companions telah membawa perhatian lebih besar kepada industri ini.
Tahun lalu, seorang pria berusia 21 tahun di Inggris diadili karena rencana untuk membunuh mendiang Ratu Elizabeth II pada tahun 2021. Dia mengklaim bahwa rencana itu didorong oleh AI companion Replika-nya.
Pada bulan Oktober, pengembang AI companion Character AI mendapat kritik setelah chatbot AI yang berdasarkan Jennifer Crecente, seorang korban pembunuhan remaja, dibuat di platform tersebut.
“Character.AI memiliki kebijakan melawan peniruan, dan penggunaan nama Ms. Crecente melanggar kebijakan kami,” kata juru bicara Character.AI kepada Decrypt. “Kami akan menghapusnya segera dan akan memeriksa apakah tindakan lebih lanjut diperlukan.”
Kemudian bulan itu, Character AI memperkenalkan fitur keselamatan baru yang “ketat” setelah gugatan oleh ibu seorang remaja Florida yang bunuh diri setelah terikat pada chatbot AI yang berdasarkan Daenerys Targaryen dari “Game of Thrones.”
Untuk mengatasi tragedi-tragedi ini, Schmidt menyerukan kombinasi percakapan sosial dan perubahan pada undang-undang saat ini, termasuk Pasal 230 yang banyak diperdebatkan dari Undang-Undang Kesopanan Komunikasi tahun 1996, yang melindungi platform online dari tanggung jawab sipil atas konten pihak ketiga.
“Secara khusus, kita harus memiliki beberapa percakapan tentang pada usia berapa hal-hal itu pantas, dan kita juga harus mengubah beberapa undang-undang, misalnya, Pasal 230, untuk memungkinkan tanggung jawab dalam kasus terburuk.”
Diedit oleh Sebastian Sinclair