Baca berita dengan sedikit iklan, klik di sini

Digital

Microsoft Bing dengan AI Juga Lakukan Kesalahan, Ini Sederet Contohnya

Kabar Chatbot AI Google, Bard, yang memberi jawaban salah pada demo awal ternyata diikuti oleh Bing. Apa kata Microsoft?

16 Februari 2023 | 15.06 WIB

Image of Tempo
Perbesar

Baca berita dengan sedikit iklan, klik di sini

TEMPO.CO, Jakarta - Kabar Chatbot AI Google, Bard, yang memberi jawaban salah pada demo awal ternyata diikuti oleh Bing dari Microsoft. Pengguna Bing telah menemukan bahwa chatbot Microsoft dengan AI itu membuat kesalahan soal data keuangan, dan banyak lainnya.

Baca berita dengan sedikit iklan, klik di sini

Microsoft dengan percaya diri mendemonstrasikan kemampuan AI Bing pada pekan lalu. Perusahaan menguji mesin mencari data pro dan kontra untuk penyedot debu hewan peliharaan terlaris, merencanakan perjalanan 5 hari di Mexico City, dan membandingkan data dalam laporan keuangan.

Baca berita dengan sedikit iklan, klik di sini

Hasilnya, Bing gagal membedakan antara vakum berkabel dan tanpa kabel, melewatkan detail yang relevan untuk bar yang dirujuknya di Mexico City, dan data keuangan yang rusak. Yang terakhir dianggap sebagai kesalahan terbesar setelah Bing menyebut angka margin kotor 

Lebih rinci, Microsoft Bing dengan AI mencoba meringkas laporan keuangan triwulan tiga 2022 untuk penjualan busana merek Gap. Bing didapati keliru mengeluarkan angka margin kotor dan margin operasi perusahaan itu.

Yang pertama disebut 37,4 persen termasuk biaya penyesuaian dan penurunan nilai, padahal seharusnya belum termasuk dua komponen itu. Yang kedua, margin operasi, Bing melaporkan angka 5,9 persen dari seharunya 3,9 persen. 

Selama demo, Bing kemudian membandingkan data keuangan Gap dengan hasil yang sama dari Lululemon selama kuartal Q3 2022. Bing membuat lebih banyak kesalahan dengan data Lululemon, dan hasilnya adalah perbandingan yang dinilai penuh dengan ketidakakuratan.

Pada jawaban soal mesin sedot debut untuk hewan peliharaan, Bing mengutip 'Bissell Pet Hair Eraser Handheld Vacuum' dan mencantumkan kekurangannya adalah panjang kabel pendek 16 kaki. Padahal mesin yang dimaksud tidak memiliki kabel alias vakum alias portabel.

Bing menunjukkan dengan jelas bahwa ada versi vakum ini dengan kabel 16 kaki baik dalam ulasan tertulis maupun video. Ada juga versi nirkabel, yang ditautkan dalam artikel HGTV yang bersumber dari Bing. Diduga Bing menggunakan banyak sumber data tanpa mencantumkan sumber tersebut sepenuhnya, lalu menggabungkan dua versi vakum.

Kesalahan tidak terbatas hanya pada demo. Bagi orang yang telah mendapatkan akses ke mesin pencari bertenaga AI ini, mereka bisa melihat bahwa fitur tersebut membuat kesalahan yang lebih jelas. Misalnya hasil percobaan Reddit, Bing AI menjadi sangat bingung dan berpendapat bahwa kita sedang berada pada tahun 2022.

“Maaf, tapi hari ini bukan 2023. Hari ini adalah tahun 2022,” kata Bing AI. Ketika pengguna mengatakan ini tahun 2023 di ponsel mereka, Bing menyarankan untuk memeriksa pengaturan yang benar dan memastikan ponsel tidak memiliki virus atau bug yang mengacaukan tanggal.

Microsoft Menjawab

Microsoft menyadari kesalahan-kesalahan tersebut. “Kami sudah menduga sistem dapat membuat kesalahan selama periode pratinjau ini, dan umpan balik sangat penting untuk membantu mengidentifikasi hal-hal yang tidak berfungsi dengan baik sehingga kami dapat mempelajari dan membantu model menjadi lebih baik,” tutur Caitlin Roulston, Direktur Komunikasi Microsoft.

Pengguna Reddit lain menemukan kesalahan serupa. Bing AI dengan percaya diri namun salah menyatakan, "Kroasia meninggalkan UE pada 2022”. PCWorld juga menemukan bahwa Bing AI Microsoft yang baru mengajarkan penghinaan etnis kepada orang-orang.

Microsoft pun langsung memperbaiki query yang menyebabkan cercaan rasial dicantumkan dalam hasil pencarian chatbot Bing. “Kami telah memasang pagar pengaman untuk mencegah promosi konten berbahaya atau diskriminatif sesuai dengan prinsip AI kami,” kata Roulston.

Saat ini pula, Roulston menambahkan, perusahaan sedang mencari peningkatan tambahan dengan belajar dari fase awal peluncuran. "Kami berkomitmen untuk meningkatkan kualitas pengalaman ini dari waktu ke waktu dan menjadikannya alat yang bermanfaat dan inklusif untuk semua orang.”

Pengguna Bing AI juga menemukan bahwa chatbot sering menyebut dirinya sebagai Sydney, terutama ketika pengguna menggunakan suntikan cepat untuk mencoba dan memunculkan aturan internal chatbot. “Sydney mengacu pada nama kode internal untuk pengalaman obrolan yang kami jelajahi sebelumnya,” kata Roulston menjelaskan. Dia berdalih, “Kami menghapus nama secara bertahap dalam pratinjau, tetapi terkadang masih muncul.”

Ada juga yang menanyakan daftar bioskop terbaru di Leicester Square London. Dan, meskipun menggunakan sumber untuk Cineworld dan Odeon, mesin tetap mengklaim bahwa Spider-Man: No Way Home dan The Matrix Resurrections, masih tayang. 

Microsoft jelas memiliki jalan panjang untuk mencapai Bing AI ini untuk dapat dengan percaya diri dan akurat menanggapi semua pertanyaan dengan data faktual. Jika diperhatikan, kesalahan yang terjadi serupa dari ChatGPT di masa lalu, tetapi Microsoft telah mengintegrasikan fungsi ini langsung ke mesin pencarinya sebagai produk langsung yang juga mengandalkan data langsung. 

THE VERGE 


Selalu update info terkini. Simak breaking news dan berita pilihan dari Tempo.co di kanal Telegram “Tempo.co Update”. Klik https://t.me/tempodotcoupdate untuk bergabung. Anda perlu meng-install aplikasi Telegram terlebih dahulu.

 

Image of Tempo

Baca berita dengan sedikit iklan, klik di sini

Image of Tempo
Logo Tempo
Unduh aplikasi Tempo
download tempo from appstoredownload tempo from playstore
Ikuti Media Sosial Kami
© 2024 Tempo - Hak Cipta Dilindungi Hukum
Beranda Harian Mingguan Tempo Plus