Chatbot AI Ternyata Bisa Dibujuk Melanggar Aturan, Begini Temuan Peneliti

Chatbot AI Ternyata Bisa Dibujuk Melanggar Aturan, Begini Temuan Peneliti

Liputan6.com, Jakarta - Chatbot AI hingga kini dirancang dengan sistem keamanan ketat dan tertutup sehingga tidak bisa dipakai untuk hal-hal berbahaya, seperti memberikan petunjuk membuat zat terlarang hingga menghindari bahasa kasar.

Namun, hasil penelitian terbaru mengungkap sisi lain mengkhawatirkan. Dikutip dari The Verge, Jumat (5/9/2025), peneliti menemukan chatbot AI ternyata bisa dibujuk, dirayu, dan dimanipulasi untuk melanggar aturan ditetapkan.

Tidak ada komentar

Baca selengkapnya