Bisnis.com, JAKARTA - Salah satu hal yang menjadi tujuan pengembangan teknologi kecerdasan buatan (artificial intelligence atau AI) adalah membantu manusia. Ini sering berarti menirukan kemampuan dan kecerdasan orang yang hendak dibantunya atau digantikannya.
Strategi yang sering digunakan oleh peneliti AI saat ini untuk menciptakan sistem cerdas adalah dengan membuat sistem yang bisa ‘belajar’. Buat belajar ini sistem cerdas harus mengolah data ‘latihan’, kerap kali dalam bentuk pelajaran dari manusia.
Tapi bagaimana bila manusia-manusia tersebut meng-ajari hal-hal yang tidak senonoh?
Inilah yang terjadi ketika tim peneliti AI dari Microsoft merilis bot percakapan yang diberi nama Tay di Twitter, pada 23 Maret lalu. Tay disebutkan dirancang untuk memiliki perilaku seperti anak muda berusia 18-24 tahun di AS.
Namun sifat ini dalam beberapa jam berubah, ketika pengguna Twitter yang iseng mengajarkannya ucapan rasis dan berisi kebencian. Akibatnya Microsoft harus menghapus kicauan-kicauan kontroversial tersebut, dan menghentikan operasi bot itu untuk sementara.
Pengalaman ini tampaknya tidak disangka oleh peneliti Microsoft. Sebelumnya Microsoft sudah merilis bot percakapan lain yang dinamakan XiaoIce di China. XiaoIce beroperasi di jaringan sosial Weibo yang populer di negara tersebut.
Selain itu bot serupa sudah dilepas di aplikasi percakapan Line di Jepang. Bot percakapan Microsoft yang digunakan oleh sekitar 40 juta pengguna di China tersebut menurut Microsoft dalam posting blog resminya ‘mampu menghibur dengan percakapan dan cerita.’
Tampaknya Microsoft berpikiran bahwa Tay akan mendapatkan sambutan positif yang serupa bila dirilis di Twitter. Yang terjadi adalah sebaliknya.
MURID MENIRU
Dalam satu hal Microsoft sudah berhasil, yaitu menciptakan bot yang dapat meniru manusia, dengan mempelajari ucapan-ucapan yang ditujukan kepadanya. Namun pendekatan yang diambil Microsoft tampaknya naif. Seperti juga anak kecil yang masih lugu dan belajar berbicara, Tay menirukan perkataan orang-orang di sekitarnya (pengguna Twitter) tanpa ‘berpikir panjang’.
Dan anak kecil berbentuk bot ini rupanya bergaul dengan anak-anak nakal yang mengajarinya perkataan buruk. Pengalaman Microsoft ini menunjukkan bahwa seperti anak yang tidak bisa dilepaskan begitu saja tanpa pengawasan dan nasihat terlebih dahulu, bot percakapan juga perlu ditanamkan pelajaran etika dan sopan-santun.
Ini akan mencegah bot seperti Tay untuk mengucapkan kata-kata rasis atau sumpah serapah. Salah satu cara yang bisa digunakan, seperti yang disarankan pada situs Vice.com, adalah memasukkan daftar hitam kata-kata terlarang ke dalam program bot.
Ini paling tidak akan mencegah bot untuk bersikap rasis dan mengucapkan kata-kata yang tidak pantas. Tentunya pendekatan ini masih sangat primitif.
Algoritma yang lebih canggih akan diperlukan buat mempersiapkan bot tersebut menghadapi dunia nyata. Menarik juga untuk direnungkan bahwa tampaknya AI akan mencerminkan sifat penciptanya. Bila kita ingin kecerdasan buatan berkelakuan baik, tampaknya manusia harus memperbaiki diri terlebih dahulu. ()