KASUS MICROSOFT TAY: Perlunya Kecerdasan Buatan Beretika

Gombang Nan Cengka
Senin, 4 April 2016 | 08:30 WIB
Sebelumnya Microsoft sudah merilis bot percakapan lain yang dinamakan XiaoIce di China. /Twitter
Sebelumnya Microsoft sudah merilis bot percakapan lain yang dinamakan XiaoIce di China. /Twitter
Bagikan

Bisnis.com, JAKARTA - Salah satu hal yang menjadi tujuan pengembangan teknologi kecerdasan buatan (artificial intelligence atau AI) adalah membantu manusia. Ini sering berarti menirukan kemampuan dan kecerdasan orang yang hendak dibantunya atau digantikannya.

Strategi yang sering digunakan oleh peneliti AI saat ini untuk menciptakan sistem cerdas adalah dengan membuat sistem yang bisa ‘belajar’. Buat belajar ini sistem cerdas harus mengolah data ‘latihan’, kerap kali dalam bentuk pelajaran dari manusia.

Tapi bagaimana bila manusia-manusia tersebut meng-ajari hal-hal yang tidak senonoh?

Inilah yang terjadi ketika tim peneliti AI dari Microsoft merilis bot percakapan yang diberi nama Tay di Twitter, pada 23 Maret lalu. Tay disebutkan dirancang untuk memiliki perilaku seperti anak muda berusia 18-24 tahun di AS.

Namun sifat ini dalam beberapa jam berubah, ketika pengguna Twitter yang iseng mengajarkannya ucapan rasis dan berisi kebencian. Akibatnya Microsoft harus menghapus kicauan-kicauan kontroversial tersebut, dan menghentikan operasi bot itu untuk sementara.

Pengalaman ini tampaknya tidak disangka oleh peneliti Microsoft. Sebelumnya Microsoft sudah merilis bot percakapan lain yang dinamakan XiaoIce di China. XiaoIce beroperasi di jaringan sosial Weibo yang populer di negara tersebut.

Selain itu bot serupa sudah dilepas di aplikasi percakapan Line di Jepang. Bot percakapan Microsoft yang digunakan oleh sekitar 40 juta pengguna di China tersebut menurut Microsoft dalam posting blog resminya ‘mampu menghibur dengan percakapan dan cerita.’

Tampaknya Microsoft berpikiran bahwa Tay akan mendapatkan sambutan positif yang serupa bila dirilis di Twitter. Yang terjadi adalah sebaliknya.

MURID MENIRU

Dalam satu hal Microsoft sudah berhasil, yaitu menciptakan bot yang dapat meniru manusia, dengan mempelajari ucapan-ucapan yang ditujukan kepadanya. Namun pendekatan yang diambil Microsoft tampaknya naif. Seperti juga anak kecil yang masih lugu dan belajar berbicara, Tay menirukan perkataan orang-orang di sekitarnya (pengguna Twitter) tanpa ‘berpikir panjang’.

Dan anak kecil berbentuk bot ini rupanya bergaul dengan anak-anak nakal yang mengajarinya perkataan buruk. Pengalaman Microsoft ini menunjukkan bahwa seperti anak yang tidak bisa dilepaskan begitu saja tanpa pengawasan dan nasihat terlebih dahulu, bot percakapan juga perlu ditanamkan pelajaran etika dan sopan-santun.

Ini akan mencegah bot seperti Tay untuk mengucapkan kata-kata rasis atau sumpah serapah. Salah satu cara yang bisa digunakan, seperti yang disarankan pada situs Vice.com, adalah memasukkan daftar hitam kata-kata terlarang ke dalam program bot.

Ini paling tidak akan mencegah bot untuk bersikap rasis dan mengucapkan kata-kata yang tidak pantas. Tentunya pendekatan ini masih sangat primitif.

Algoritma yang lebih canggih akan diperlukan buat mempersiapkan bot tersebut menghadapi dunia nyata. Menarik juga untuk direnungkan bahwa tampaknya AI akan mencerminkan sifat penciptanya. Bila kita ingin kecerdasan buatan berkelakuan baik, tampaknya manusia harus memperbaiki diri terlebih dahulu. ()

Simak berita lainnya seputar topik artikel ini di sini:

Editor : Fatkhul Maskur
Sumber : Bisnis Indonesia, Senin (4/4/2016)
Bagikan

Artikel Terkait

Berita Lainnya

Berita Terkini

Nyaman tanpa iklan. Langganan BisnisPro

Nyaman tanpa iklan. Langganan BisnisPro

Terpopuler

Topik-Topik Pilihan

Nyaman tanpa iklan. Langganan BisnisPro

Nyaman tanpa iklan. Langganan BisnisPro

Rekomendasi Kami

Scan QR Code Bisnis Indonesia e-paper