Perkembangan teknologi kecerdasan buatan (AI) tidak hanya memberikan peluang bagi penggunanya, tetapi juga potensi ancaman jika tidak diberi pengawasan dan lapisan keamanan. AI bisa disalahgunakan untuk membuat instruksi berbahaya, bahkan mampu dimanipulasi dengan coding sederhana.

Dosen Institut Teknologi Tangerang Selatan (ITTS), Dimaz Arno, menyoroti adanya potensi ancaman baru dalam pemanfaatan AI. Ia menyinggung kasus pada Agustus lalu ketika sistem AI mampu memberi instruksi berbahaya, seperti cara merakit bom yang berpotensi dimanfaatkan pelaku kejahatan.

“Ternyata seorang cybercriminal bisa memberikan prompt ke ChatGPT untuk mendapatkan instruksi ilegal, misalnya cara membuat bom. Hal ini menjadi concern karena jika perusahaan membuat fitur AI tanpa filter, penjahat bisa memanfaatkannya untuk membuat malware dari AI,” ungkap Dimaz dalam idFEST 2025 pada Selasa (16/9/2025), Jakarta.

Ia juga mengungkap mengenai teknik prompt injection yang membuat serangan terhadap sistem AI lebih mudah dilakukan dan peretas tidak lagi memerlukan SQL injection yang rumit. Menurutnya, peretas cukup menyisipkan perintah menggunakan bahasa sehari-hari untuk memanipulasi AI agar menghasilkan malware yang mampu membuat serangan otomatis yang dapat disesuaikan dengan target.

“Jika dulu kita ingin injeksi ke dalam perusahaan, kita membutuhkan SQL injection-nya. Namun, saat ini injeksinya cukup menggunakan bahasa manusia yang kita inginkan untuk memanipulasi AI untuk membuat malware custom sesuai target,” jelasnya.

Baca Juga: Akan Dihadirkan Mendigi RI, Pameran Teknologi 'Ruang Cipta' Bakal Tampilkan Inovasi AI Karya Anak Bangsa

Dimaz juga menyoroti risiko pembajakan pada aplikasi bisnis, misalnya semacam aplikasi CRM seperti Salesforce. Melalui sistem itu, AI diberikan wewenang untuk mengakses data-data ke database

“Mungkin kalau teman-teman tau ya Salesforce, semacam aplikasi CRM tentang penjualan. Di situ si AI memang diberikan, wewenang untuk mengakses data di database,” lanjutnya.

Dimaz menambahkan bahwa kini serangan terhadap sistem AI lebih beragam, mulai dari prompt injection hingga kebocoran data. Menurutnya, ini perlu diantisipasi karena dapat merugikan perusahaan. Untuk pencegahannya, ia menyarankan agar input yang masuk harus divalidasi. Selain itu, perusahaan juga perlu menambahkan lapisan keamanan berupa AI yang khusus digunakan untuk menyaring perintah dan menolak perintah berbahaya.

“AI ini kecil aja, fungsinya sebagai satpam. Kalau prompt-nya jahat, ditolak. Kalau baik, baru diteruskan ke AI utama. Cara ini masih paling efektif dibanding terus-menerus melatih ulang AI utama yang makan waktu dan biaya,” tambahnya.