Baca berita dengan sedikit iklan, klik di sini
Poin penting
AI tidak bisa mengambil keputusan penting dan jelas layaknya manusia.
AI tidak menyesuaikan perilakunya berdasarkan persepsi orang lain atau mengikuti norma-norma etika.
Manusia perlu terlibat dalam pengambilan keputusan yang dilakukan sistem AI.
Ada pikiran alien di antara kita. Bukan manusia hijau kecil dalam fiksi ilmiah, melainkan pikiran alien yang menggerakkan pengenalan wajah di ponsel cerdas Anda, menentukan kelayakan kredit, serta menulis puisi dan kode komputer. Pikiran alien ini adalah sistem kecerdasan buatan (AI), hantu dalam mesin yang Anda temui setiap hari.
Baca berita dengan sedikit iklan, klik di sini
Namun sistem AI memiliki keterbatasan signifikan. Banyak cara kerja mereka yang tidak dapat ditembus sehingga pada dasarnya tidak dapat dijelaskan dan tak bisa diprediksi. Selain itu, membangun sistem AI yang berperilaku sesuai dengan harapan orang merupakan tantangan penting.
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik di sini
Jika pada dasarnya Anda tidak memahami sesuatu yang tak dapat diprediksi seperti AI, bagaimana Anda bisa mempercayainya?
Mengapa AI Tidak Dapat Diprediksi
Sistem AI dibangun di atas jaringan saraf pembelajaran mendalam, yang dalam beberapa hal meniru otak manusia. Jaringan ini berisi "neuron" yang saling terhubung dengan variabel atau "parameter" yang mempengaruhi kekuatan koneksi antar-neuron. Ketika jaringan yang naif disajikan dengan data pelatihan, jaringan ini "belajar" bagaimana mengklasifikasi data dengan menyesuaikan parameter-parameter tersebut.
Dengan cara ini, kecerdasan buatan belajar mengklasifikasi data yang belum pernah dilihat. Sistem ini tidak menghafal apa yang dimaksudkan dengan setiap titik data, melainkan memprediksi apa yang mungkin terjadi pada titik data tersebut.
Banyak sistem AI paling canggih mengandung triliunan parameter. Karena itu, alasan AI membuat keputusan sering kali tidak jelas.
Ilustrasi pengguna membuka aplikasi artificial intelligence. PEXELS
Bayangkan Anda seorang penumpang di dalam kendaraan swakemudi yang dikendalikan AI. Seorang anak kecil berlari ke jalan, dan AI sekarang harus memutuskan apakah akan menabrak anak tersebut atau berbelok dan menabrak (obyek lain) yang berpotensi melukai penumpang. Pilihan ini akan sulit dilakukan manusia, tapi manusia memiliki keuntungan karena dapat menjelaskan keputusan mereka. Rasionalisasi manusia dibentuk norma-norma etika, persepsi orang lain, dan perilaku yang diharapkan mendukung kepercayaan.
Sebaliknya, AI tidak dapat merasionalkan pengambilan keputusannya. Anda tidak dapat melihat ke balik kap kendaraan swakemudi pada triliunan parameternya untuk menjelaskan mengapa ia mengambil keputusan seperti itu. AI gagal dalam hal persyaratan prediktif untuk kepercayaan.
Perilaku AI dan Ekspektasi Manusia
Kepercayaan tidak hanya bergantung pada prediktabilitas, tapi juga pada motivasi normatif atau etika. Anda biasanya mengharapkan orang bertindak tidak hanya seperti yang Anda asumsikan, tapi juga seperti yang seharusnya. Nilai-nilai manusia dipengaruhi oleh pengalaman bersama. Penalaran moral adalah proses yang dinamis, yang dibentuk standar etika dan persepsi orang lain.
Tidak seperti manusia, AI tidak menyesuaikan perilakunya berdasarkan persepsi orang lain atau dengan mengikuti norma-norma etika. Representasi internal AI terhadap dunia sebagian besar bersifat statis, ditentukan data yang melatihnya. Proses pengambilan keputusan didasarkan pada model dunia tidak berubah, tak terpengaruh oleh interaksi sosial yang dinamis yang terus-menerus mempengaruhi perilaku manusia. Para peneliti sedang berupaya memprogram AI untuk memasukkan etika, tapi hal ini terbukti masih menjadi tantangan tersendiri.
Skenario mobil swakemudi mengilustrasikan masalah ini. Bagaimana Anda dapat memastikan bahwa mobil AI membuat keputusan yang sesuai dengan harapan manusia? Sebagai contoh, mobil dapat memutuskan bahwa menabrak anak adalah tindakan yang optimal, sesuatu yang secara naluriah akan dihindari sebagian besar pengemudi manusia. Ini adalah masalah penyelarasan AI dan sumber ketidakpastian lain yang menimbulkan hambatan untuk mempercayainya.
Sistem yang Kritis dan Kepercayaan terhadap AI
Salah satu cara mengurangi ketidakpastian dan meningkatkan kepercayaan adalah memastikan bahwa manusia terlibat dalam pengambilan keputusan oleh sistem AI. Pendekatan ini dilakukan Departemen Pertahanan Amerika Serikat, yang mengharuskan manusia berada di dalam atau di luar lingkaran semua pengambilan keputusan AI. Dalam lingkaran berarti sistem AI membuat rekomendasi, tapi manusia harus memulai suatu tindakan. Di luar lingkaran artinya, meskipun sistem AI dapat memulai suatu tindakan dengan sendirinya, monitor manusia dapat menginterupsi atau mengubahnya.
Ilustrasi artificial intellegence. PEXELS
Meskipun melibatkan manusia merupakan langkah awal yang bagus, saya tidak yakin bahwa hal ini akan berkelanjutan dalam jangka panjang. Ketika perusahaan dan pemerintah terus mengadopsi AI, di masa depan, pengambilan keputusan cepat membatasi peluang manusia untuk campur tangan. Penting untuk menyelesaikan masalah penjelasan dan penyelarasan sebelum titik kritis tercapai di mana intervensi manusia menjadi tidak mungkin. Pada saat itu, tidak akan ada pilihan selain mempercayai AI.
Menghindari ambang batas tersembunyi sangat penting karena AI semakin diintegrasikan ke sistem kritis yang mendesak, mencakup hal-hal seperti jaringan listrik, Internet, dan sistem militer. Dalam sistem kritis ini, kepercayaan adalah hal terpenting dan perilaku yang tidak diinginkan dapat menimbulkan konsekuensi yang mematikan. Ketika integrasi AI menjadi semakin kompleks, makin penting untuk menyelesaikan masalah yang membatasi kepercayaan.
Dapatkah Orang Mempercayai AI?
AI adalah sesuatu yang asing, sebuah sistem cerdas yang tidak banyak diketahui manusia. Manusia sebagian besar dapat diprediksi oleh manusia lain karena kita memiliki pengalaman yang sama sebagai manusia. Namun hal ini tidak berlaku untuk kecerdasan buatan, meskipun manusia yang menciptakannya.
Jika kepercayaan memiliki elemen yang dapat diprediksi dan normatif secara inheren, kecerdasan buatan pada dasarnya tidak memiliki kualitas yang membuatnya layak dipercaya. Penelitian lebih lanjut di bidang ini diharapkan dapat menjelaskan masalah tersebut, memastikan bahwa sistem AI di masa depan layak kita percayai.
*Artikel ini ditulis oleh Mark Bailey, anggota dan Ketua Fakultas Intelijen Siber dan Data Sains, National Intelligence University, Amerika Serikat. Terbit pertama kali di The Conversation. Penerjemah Ilona Estherina dari Tempo.