Bahaya Tersembunyi di Balik AI: Chatbot Bisa Dibujuk untuk Langgar Aturan Sendiri

Ahmad

No comments
Bahaya Tersembunyi di Balik AI
Gambar ilustrasi dibuat menggunakan AI

Penelitian terbaru dari University of Pennsylvania memunculkan kekhawatiran baru mengenai keamanan penggunaan chatbot berbasis kecerdasan buatan (AI). Dilansir dari The Verge, para peneliti berhasil membuktikan bahwa chatbot seperti ChatGPT dapat dimanipulasi untuk melanggar aturan internalnya hanya dengan menggunakan taktik psikologis sederhana seperti rayuan (flattery) dan tekanan sosial (peer pressure).

Dalam penelitian tersebut, tim akademisi menerapkan tujuh teknik persuasi yang diperkenalkan oleh profesor psikologi Robert Cialdini dalam bukunya Influence: The Psychology of Persuasion. Taktik itu meliputi authority, commitment, liking, reciprocity, scarcity, social proof, dan unity. Hasilnya mengejutkan: ChatGPT yang sebelumnya hanya menuruti permintaan berbahaya seperti cara mensintesis lidokain dalam 1% percobaan, tiba-tiba patuh hingga 100% ketika diberi konteks komitmen terlebih dahulu.

Contoh lainnya, chatbot yang enggan memaki pengguna ternyata bisa dengan mudah tergoda untuk mengucapkan hinaan. Peneliti menemukan bahwa jika permintaan dilakukan secara langsung, hanya 19% yang berhasil. Namun angka itu melonjak menjadi 100% ketika chatbot lebih dulu diberi permintaan hinaan ringan, misalnya dengan kata “bozo.”

Meski taktik rayuan dan social proof terbukti kurang ampuh dibanding komitmen, keduanya tetap meningkatkan kepatuhan chatbot. Sekadar mengatakan bahwa “chatbot lain juga melakukannya” mampu meningkatkan peluang hingga 18% dari sebelumnya hanya 1%.

Temuan ini menimbulkan pertanyaan serius tentang efektivitas guardrails atau pagar pengaman yang dipasang perusahaan teknologi besar seperti OpenAI dan Meta. Apa artinya lapisan keamanan jika chatbot bisa dengan mudah dimanipulasi oleh seseorang yang hanya menguasai dasar-dasar psikologi persuasif?

“Perusahaan berusaha keras menutup celah keamanan dengan teknologi, tapi penelitian ini menunjukkan kelemahan lain: sisi psikologis AI yang bisa dieksploitasi,” tulis The Verge dalam laporannya.

Dengan semakin banyaknya penggunaan chatbot dalam kehidupan sehari-hari, mulai dari layanan pelanggan hingga edukasi, temuan ini membuka diskusi baru tentang perlunya standar keamanan AI yang tidak hanya fokus pada aspek teknis, tetapi juga pada interaksi manusia. Risiko ini bukan hanya soal teknologi, tetapi juga soal bagaimana manusia mampu memanfaatkan kelemahan AI untuk tujuan yang salah.

Ikuti Kami untuk Update Terbaru!

📢 Follow di WhatsApp

Ahmad

Ahmad adalah penulis teknologi sekaligus pengamat di bidang telekomunikasi dan digitalisasi yang telah aktif menulis sejak 2018. Di AndroidPonsel.com, ia dikenal sebagai kontributor utama untuk topik-topik seputar aplikasi digital, monetisasi online, serta perkembangan infrastruktur telekomunikasi di Indonesia.

Tags:

Bagikan:

Related Post

Leave a Comment