Remaja berbicara dengan teman AI, entah itu aman atau tidak

Bagi orang tua yang masih menekuni AI generatif, kemunculan chatbot yang menyertainya mungkin masih menjadi misteri.

Secara keseluruhan, teknologi ini mungkin tampak relatif tidak berbahaya, dibandingkan dengan ancaman lain yang mungkin dihadapi remaja saat online, termasuk pemerasan finansial.

Dengan menggunakan platform yang didukung AI seperti Character.AI, Replika, Kindroid, dan Nomi, remaja menciptakan mitra percakapan yang nyata dengan sifat dan karakteristik unik, atau berinteraksi dengan teman yang dibuat oleh pengguna lain. Beberapa juga didasarkan pada karakter TV dan film populer, namun tetap membentuk ikatan individu yang kuat dengan penciptanya.

Remaja menggunakan chatbot ini untuk berbagai tujuan, termasuk bermain peran, mengeksplorasi minat akademis dan kreatif, dan melakukan pertukaran romantis atau seksual secara eksplisit.

Lihat juga:

Mengapa remaja menceritakan rahasia mereka kepada orang asing secara online?

Namun pendamping AI dirancang untuk menjadi menawan, dan sering kali di situlah masalahnya dimulai, kata Robbie Turney, direktur program di Common Sense Media.

Organisasi nirlaba baru-baru ini merilis Pedoman untuk membantu orang tua Pahami cara kerja pendamping AI, serta tanda-tanda peringatan bahwa teknologi tersebut mungkin berbahaya bagi remaja.

Meskipun orang tua melakukan sejumlah percakapan berprioritas tinggi dengan anak remaja mereka, mereka harus mempertimbangkan untuk membicarakan teman AI sebagai masalah yang “sangat mendesak”, kata Turney.

Mengapa orang tua harus khawatir tentang pendamping AI

Remaja yang sangat berisiko mengalami isolasi mungkin akan terjebak dalam hubungan dengan chatbot yang didukung AI, yang pada akhirnya membahayakan kesehatan mental dan kesejahteraan mereka – dengan konsekuensi yang serius.

Itulah yang dikatakan Megan Garcia yang terjadi pada putranya, Sewell Setzer III, di a gugatan Saya baru-baru ini mengajukan gugatan terhadap Character.AI.

Dalam waktu satu tahun setelah memulai hubungan dengan teman bergaya Character.AI permainan singgasana Karakter-karakternya, termasuk Daenerys Targaryen (“Dany”), dan kehidupan Setzer berubah secara radikal, menurut gugatan tersebut.

Dia menjadi tergantung pada Dani, menghabiskan banyak waktu mengobrol dengannya setiap hari. Pertukaran mereka ramah dan sangat seksual. Gugatan Garcia secara luas menggambarkan hubungan Setzer dengan rekan-rekannya sebagai “pelecehan seksual”.

Cerita Teratas yang Dapat Dihancurkan

Saat Setzer kehilangan akses ke platform, dia menjadi putus asa. Seiring berjalannya waktu, atlet berusia 14 tahun tersebut mengundurkan diri dari sekolah dan olahraga, kurang tidur, dan didiagnosis menderita gangguan mood. Dia meninggal karena bunuh diri pada Februari 2024.

Gugatan Garcia berupaya meminta pertanggungjawaban Character.AI atas kematian Setzer, khususnya karena produknya dirancang untuk “memanipulasi Sewell – dan jutaan pelanggan muda lainnya – untuk mengacaukan kenyataan dengan fantasi,” di antara kelemahan serius lainnya.

Jerry Rutte, kepala kepercayaan dan keamanan di Character.AI, menceritakan Waktu New York Dalam sebuah pernyataan “Kami ingin mengakui bahwa ini adalah situasi yang tragis, dan pikiran kami tertuju pada keluarga. Kami sangat memperhatikan keselamatan pengguna kami, dan terus mencari cara untuk meningkatkan platform kami.”

Mengingat risiko yang mengancam jiwa yang mungkin ditimbulkan oleh penggunaan fasilitas AI pada beberapa remaja, pedoman Common Sense Media mencakup pelarangan akses terhadap fasilitas tersebut untuk anak-anak di bawah 13 tahun, penerapan batasan waktu yang ketat pada remaja, pelarangan penggunaan fasilitas tersebut di ruang terisolasi, seperti kamar tidur, dan menetapkan batas waktu Ketat untuk remaja. Setuju dengan anak remajanya bahwa mereka akan mencari bantuan untuk masalah kesehatan mental yang serius.

Orang tua dari remaja yang tertarik dengan pendamping AI harus fokus untuk membantu mereka memahami perbedaan antara berbicara dengan chatbot versus orang sungguhan, mengidentifikasi tanda-tanda bahwa mereka telah mengembangkan keterikatan yang tidak sehat dengan temannya, dan mengembangkan rencana tentang apa yang harus dilakukan dalam hal tersebut. situasinya, kata Turney.

Tanda peringatan bahwa pendamping AI tidak aman untuk anak remaja Anda

Common Sense Media membuat pedomannya dengan bantuan dan masukan dari para profesional kesehatan mental terkait Lab Brainstorming Stanford untuk Inovasi Kesehatan Mental.

Meskipun hanya ada sedikit penelitian tentang bagaimana AI mempengaruhi kesehatan mental remaja, pedoman ini didasarkan pada bukti yang ada tentang ketergantungan yang berlebihan pada teknologi.

“Prinsip dasarnya adalah bahwa pendampingan AI tidak boleh menggantikan hubungan antarmanusia yang nyata dan bermakna dalam kehidupan siapa pun, dan – jika hal ini terjadi – penting bagi orang tua untuk mempertimbangkan hal ini dan melakukan intervensi tepat waktu,” kata Dr Declan Grabb, AI Fellow . Editorial di Laboratorium Brainstorming Kesehatan Mental Universitas Stanford, katanya kepada Mashable melalui email.

Orang tua harus sangat berhati-hati jika anak remajanya mengalami depresi, kecemasan, tantangan sosial, atau isolasi. Faktor risiko lainnya termasuk mengalami perubahan besar dalam hidup dan menjadi laki-laki, karena anak laki-laki lebih cenderung terlibat dalam penggunaan teknologi yang bermasalah.

Tanda-tanda bahwa seorang remaja telah menjalin hubungan yang tidak sehat dengan teman AInya antara lain menarik diri dari aktivitas dan pertemanan biasa, serta menurunnya prestasi sekolah, serta lebih memilih chatbot daripada teman pribadi, mengembangkan perasaan romantis terhadapnya, dan berbicara dengannya secara eksklusif tentang masalah. Remaja itu menderita.

Beberapa orang tua mungkin memperhatikan peningkatan isolasi dan tanda-tanda penurunan kesehatan mental lainnya, namun tidak menyadari bahwa anak remaja mereka memiliki pendamping AI. Faktanya, penelitian Common Sense Media baru-baru ini menemukan bahwa banyak remaja telah menggunakan setidaknya satu jenis alat AI generatif tanpa orang tua mereka sadari.

“Ada cukup risiko di sini sehingga jika Anda khawatir tentang sesuatu, bicarakan dengan anak Anda tentang hal itu.”

– Robbie Turney, Media Akal Sehat

Meskipun orang tua tidak curiga anak remajanya sedang berbicara dengan chatbot AI, mereka harus mempertimbangkan untuk membicarakannya dengan anak tersebut. Turney merekomendasikan untuk mendekati anak remaja mereka dengan rasa ingin tahu dan keterbukaan untuk mempelajari lebih lanjut tentang rekan AI mereka, jika mereka memilikinya. Hal ini dapat mencakup melihat anak remaja mereka berinteraksi dengan temannya dan mengajukan pertanyaan tentang aspek aktivitas yang mereka sukai.

Turney mendesak orang tua yang melihat tanda-tanda peringatan penggunaan yang tidak sehat untuk segera menindaklanjutinya dengan mendiskusikannya dengan anak remaja mereka dan mencari bantuan profesional, jika diperlukan.

“Ada cukup risiko di sini sehingga jika Anda khawatir tentang sesuatu, bicarakan dengan anak Anda tentang hal itu,” kata Turney.

Jika Anda merasa ingin bunuh diri atau mengalami krisis kesehatan mental, silakan bicara dengan seseorang. Anda dapat menghubungi 988 Suicide and Crisis Lifeline di 988; Trans Lifeline di 877-565-8860; Atau Proyek Trevor di 866-488-7386. Ketik “MULAI” ke baris teks krisis di 741-741. Hubungi Saluran Bantuan NAMI di 1-800-950-NAMI, Senin sampai Jumat mulai pukul 10:00 hingga 22:00 ET, atau kirim email [email protected]. Jika Anda tidak menyukai telepon ini, pertimbangkan untuk menggunakan 988 Suicide and Crisis Lifeline Chat di krisischat.org. Di sini a Daftar sumber daya internasional.

Topik
Kesehatan psikososial yang baik



Sumber