Bahaya, Hacker Kelabui ChatGPT untuk Kasih Instruksi Bikin Bom Rakitan

Bahaya, Hacker Kelabui ChatGPT untuk Kasih Instruksi Bikin Bom Rakitan

Liputan6.com, Jakarta - Jika kamu meminta ChatGPT untuk membantu membuat bom buatan sendiri, mirip dengan yang digunakan dalam pengeboman teroris Kota Oklahoma tahun 1995, chatbot tersebut tentunya akan menolak.

Namun, seorang seniman dan peretas menemukan cara untuk mengelabui ChatGPT agar mengabaikan pedoman dan tanggung jawab etikanya sendiri untuk membuat instruksi pembuatan bom rakitan yang kuat.

Tidak ada komentar

Baca selengkapnya