Liputan6.com, Jakarta - Chatbot AI hingga kini dirancang dengan sistem keamanan ketat dan tertutup sehingga tidak bisa dipakai untuk hal-hal berbahaya, seperti memberikan petunjuk membuat zat terlarang hingga menghindari bahasa kasar.
Namun, hasil penelitian terbaru mengungkap sisi lain mengkhawatirkan. Dikutip dari The Verge, Jumat (5/9/2025), peneliti menemukan chatbot AI ternyata bisa dibujuk, dirayu, dan dimanipulasi untuk melanggar aturan ditetapkan.
Tidak ada komentar