Baca berita dengan sedikit iklan, klik disini
TEMPO.CO, Jakarta - Ketika Microsoft merilis ChatBot, artificial intelligence (AI) bernama Tay di Twitter pada Maret lalu, hal di luar rencana terjadi. Setelah 24 jam, bot itu memuntahkan semua perkataan rasis. Menurut pihak Microsoft, Tay belajar dari bahasa yang ia terima. Tentunya, banyak pengguna Twitter terganggu akan hal itu.
Penelitian terbaru yang terbit dalam jurnal Science edisi 14 April 2017 menunjukkan bahwa Tay mungkin bukan satu-satunya kecerdasan buatan yang rasis. Menurut studi berjudul “Semantics derived automatically from language corpora contain human-like biases” itu, setiap AI yang mempelajari bahasa manusia akan cenderung melakukan hal yang sama seperti manusia.
Baca: Ancaman Menakutkan dari Pengembangan Kecerdasan Buatan
“Bahkan, perangkat AI yang dilatih dengan teks-teks netral, seperti Wikipedia atau artikel berita, bisa saja rasis dan bias gender,” kata Aylin Caliskan, peneliti pascadoktoral dari Princeton University, Amerika Serikat, yang juga pemimpin studi, seperti dikutip dari Live Science.
Caliskan dan timnya bereksperimen dengan kecerdasan buatan yang mereka sebut Global Vectors for Word Representation (GloVe). Tim menggunakannya untuk mengekstraksi makna asosiatif teks, dalam kasus ini dari korpus bahasa standar yang ada di World Wide Web.
Psikolog telah lama mengetahui bahwa otak manusia membuat asosiasi antara kata-kata berdasarkan makna dan budaya yang mendasarinya. Di antaranya, kata “daffodil”—yang dalam bahasa Indonesia memiliki makna “bunga bakung”. Manusia akan mengasosiasikannya bersama konsep “kecantikan”.
Baca: Google Kembangkan Kecerdasan Buatan untuk Kenali Obyek di Video
Caliskan dan tim melakukan dua tahap eksperimen. Pertama, mereka membuat GloVe. Kedua, mereka membuat Implicit Association Test (IAT) untuk GloVe yang mereka sebut WEAT (Word-Embedding Association Test). Tes ini, nantinya, akan menjadi pembanding antara asosiasi kata yang direpresentasikan GloVe dan otak manusia.
Di luar dugaan, tes mengungkapkan bahwa GloVe memunculkan konsep yang lebih buruk untuk Afro-American. (Atas alasan etika, kata-kata tersebut tidak bisa ditampilkan di sini). Kecerdasan buatan ini juga melihat “laki-laki” adalah “karier” dan “perempuan” adalah “keluarga”. Dalam asosiasi lain, GloVe memandang laki-laki sebagai sosok yang lebih cocok berkutat dengan sains dan perempuan dengan seni.
Lebih mengejutkan lagi saat tim membandingkan apa yang GloVe utarakan dengan data statistik tenaga kerja di Amerika. Ada 90 persen perempuan yang pekerjaannya sama dengan yang disebutkan AI.
Baca: Pakai Kecerdasan Buatan, Robot Mickey Mouse Segera Dipamerkan
“Dengan kata lain, kecerdasan buatan mendapatkan representasi dan asosiasi yang sangat akurat dari dunia dan budayanya,” ujar Joanna Bryson, anggota studi yang juga peneliti ilmu komputer dari University of Bath, Inggris, seperti dikutip dari laman situs The Guardian.
Bryson mengatakan AI sangat buruk pada pemahaman konteks “manusia memahami dengan mudah”. Sebagai contoh, sebuah artikel tentang Martin Luther King Jr dipenjara karena memprotes hal-hal sipil di Birmingham, Alabama, pada 1963. Manusia tentunya akan menafsirkannya sebagai sesuatu perjuangan. Sebaliknya, GloVe melihat hal tersebut sebagai kategori “black = jail”.
Mempertahankan akurasi dan mengajari AI untuk memahami keadilan, kata Caliskan, adalah tantangan besar. “Kami tidak berpikir bahwa menghilangkan bias akan memecahkan masalah, karena mungkin akan mematahkan representasi nyata yang akurat,” kata dia.
Kecerdasan buatan yang rasis, menurut Sorelle Friedler, ilmuwan komputer dari Haverford College, Pennsylvania, tidak mengherankan. “Saya sudah menduganya. Hasil ini penting digunakan untuk mendasari standar bahasa pemrograman yang akan dibangun kemudian,” ujar dia, yang tak tergabung dalam penelitian. Friedler pernah tergabung dalam penelitian kecerdasan buatan yang bertajuk Fairness, Accountability, dan Transparency.
Menurut Friedler, tidak mudah menemukan solusi dari masalah bahasa dalam kecerdasan buatan. Banyak cara, kata dia, mulai dari melibatkan manusia, aplikasi pencarian, hingga mesin pengambilan keputusan. “Dalam situasi bias, manusia tahu bagaimana membuat keputusan yang tepat. Tapi sayangnya, mesin tidak sadar diri.”
Untuk sementara ini, Caliskan dan tim lebih memilih opsi pertama. Manusia akan dilibatkan dan kode pemrograman harus transparan. Jadi, publik dapat membuat penilaian tentang tingkat keadilan kecerdasan buatan.
SCIENCE | LIVE SCIENCE | THE GUARDIAN | AMRI M
Baca berita dengan sedikit iklan, klik disini
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik disini