Bisnis.com, JAKARTA - Perusahaan induk dari ChatGPT, OpenAI bekerja sama dengan militer Amerika Serikat untuk menggunakan AI dalam menjaga keamanan siber negara.
VP Global Relation OpenAI Anna Makanju mengatakan OpenAI mengembangkan perangkat lunak open source dengan Departemen Pertahanan AS. Proyek inipun sudah dalam pembicaraan awal.
Selain itu, OpenAI juga tengah berdiskusi dengan pemerintah AS mengenai pengembangan alat untuk mengurangi kasus bunuh diri para veteran.
Namun, Makanju menegaskan perangkat lunak AI dari OpenAI tidak boleh digunakan untuk mengembangkan senjata, menghancurkan properti, ataupun menyakiti orang. Hal inipun juga tertuang dalam ketentuan layanan OpenAI.
Dikutip dari Business Times, tindakan ini diambil hanya sesaat setelah OpenAI menghapus ketentuan layanan yang melarang AI miliknya digunakan untuk militer dan peperangan.
“Kebijakan kami tidak mengizinkan alat kami digunakan untuk menyakiti orang, mengembangkan senjata, untuk pengawasan komunikasi, atau untuk melukai orang lain atau menghancurkan properti. Namun, ada kasus penggunaan keamanan nasional yang sejalan dengan misi kami,” ujar pernyataan OpenAI.
Adapun dalam ketentuan layanan yang baru ini, selain yang telah disebutkan di atas, OpenAI memperbolehkan adanya tindakan militer selama tidak merugikan orang lain.
Lebih lanjut, dalam suratnya itu, OpenAI juga mengatakan telah bekerjasama dengan Badan Proyek Riset Pertahanan Amerika Serikat (DARPA) untuk menciptakan alat keamanan siber.
Nantinya, alat itu dapat mengamankan sejumlah software open source dari perusahaan infrastruktur dan industri yang cukup krusial.
Dikutip dari The Intercept, Direktur Teknik Keamanan Siber Trail of Bits Heidy Khlaaf mengatakan pembaharuan peraturan layanan ini cukup berbahaya karena mementingkan legalitas dibandingkan keselamatan.
Menurutnya, larangan yang tercantum dalam aturan OpenAI belum mencakup semua aspek penggunaan militer, sehingga masih bisa digunakan untuk keperluan yang dianggap merugikan bagi segelintir orang ataupun negara lain.
Heidy menambahkan, belum lagi adanya potensi bias dan halusinasi yang terdapat di Model Bahasa Besar (LLM).
“Bias dan halusinasi yang terdapat dalam Model Bahasa Besar (LLM), dan kurangnya keakuratannya, penggunaannya dalam peperangan militer hanya akan menghasilkan operasi yang tidak tepat dan bias yang cenderung memperburuk kerugian dan korban sipil,” ujar Heidy dikutip dari The Intercept.