Temuan OpenAI
OpenAI
Pada Oktober 2024, OpenAI mengungkapkan bahwa mereka telah memblokir lebih dari 20 jaringan penipuan yang mencoba memanfaatkan platformnya untuk kegiatan seperti pengintaian dan penelitian kerentanannya.
Peneliti dari Unit 42 juga menyarankan bahwa meskipun LLM dapat meningkatkan jumlah varian malware yang dapat dibuat dengan lebih mudah, teknologi ini juga memiliki potensi untuk digunakan dalam meningkatkan ketahanan model pembelajaran mesin itu sendiri.
Dengan menggunakan teknik yang sama, data pelatihan baru dapat dikembangkan untuk membantu memperkuat deteksi malware di masa depan.
“Hasil akhir adalah varian baru dari JavaScript berbahaya yang mempertahankan perilaku yang sama dengan skrip asli, sementara hampir selalu memiliki skor berbahaya yang jauh lebih rendah,” ujar peneliti.
Selain perkembangan dalam penggunaan LLM untuk malware, penelitian terbaru juga mengungkapkan tren mengkhawatirkan lainnya, yaitu serangan pencurian model AI. Sejumlah akademisi dari Universitas Negeri Carolina Utara telah merancang serangan bernama TPUXtract.
Serangan ini mampu mencuri informasi model dari Unit Pemrosesan Tensor (TPU) Google Edge dengan akurasi yang sangat tinggi. Serangan ini juga berhasil mengekstrak konfigurasi lapisan model ML, termasuk ukuran kernel, jumlah node, dan fungsi aktivasi.
Penyerang dalam serangan ini memanfaatkan sinyal elektromagnetik yang dipancarkan oleh TPU saat menjalankan model. Hal ini memungkinkan para hacker dapat menyimpulkan struktur dan konfigurasi model meskipun tidak memiliki akses langsung ke perangkat keras yang digunakan.
Dengan meningkatnya kecanggihan teknologi AI dan generatif, para peneliti memperingatkan bahwa ancaman terhadap keamanan siber akan semakin sulit untuk dikendalikan, baik dari segi malware yang semakin canggih maupun pencurian data berbasis AI.