Baca berita dengan sedikit iklan, klik di sini
TEMPO.CO, Jakarta - Inovasi kecerdasan buatan (artificial intelligence atau AI) terus berkembang pesat. Namun, kekhawatiran terkait risiko yang mengiringinya lama-lama semakin menonjol.
Baca berita dengan sedikit iklan, klik di sini
Pemangku kebijakan di sejumlah negara bahkan diminta untuk membuat peraturan baru seputar penggunaan AI. Para praktisi teknologi dan bisnis pun telah menyarankan jeda pengembangan AI sementara waktu dan menilai keamanannya.
Baca berita dengan sedikit iklan, klik di sini
Avivah Litan, pimpinan analis di Gartner, baru-baru ini mendiskusikan apa yang perlu diperhatikan oleh pihak perusahaan yang bertanggung jawab atas pengembangan AI berkaitan dengan manajemen kepercayaan, risiko, dan keamanan (AI TRiSM)
Menurut Litan, pengembangan AI pada dasarnya tidak akan berhenti. Perusahaan harus segera bertindak dalam merumuskan strategi AI TRiSM. Ada kebutuhan mendesak untuk menciptakan alat pengelola data dan aliran proses antara pengguna dan perusahaan yang menghosting model dasar AI.
Saat ini, belum ada teknologi yang memberikan jaminan privasi sistematis kepada pengguna. Belum ada pula filter konten yang efektif dari keterlibatan mereka dengan AI generatif, seperti menyaring kesalahan faktual, halusinasi, materi berhak cipta, atau informasi rahasia.
Intinya, pengembang AI perlu bekerja sama dengan otoritas baru yang mungkin muncul untuk menetapkan kebijakan dan praktik pengawasan AI dan manajemen risiko.
Ketika ditanya tentang risiko atau bahaya paling signifikan yang ditimbulkan AI, terutama jenis AI generatif, Litan menjabarkan hal-hal berikut.
1. “Halusinasi” dan Pemalsuan
Ini termasuk kesalahan faktual, satu dari beberapa masalah paling umum yang muncul dari produksi AI, misal jawaban chatbot. Sangat mungkin bagi AI untuk menghasilkan respons yang bias atau bahkan salah. Namun, kekeliruan itu semakin sulit dikenali karena solusi AI terlalu cepat dipercaya dan diandalkan oleh pengguna.
2. Deepfake
Risiko AI semakin signifikan ketika itu digunakan untuk membuat konten dengan niat jahat. Gambar, video, dan rekaman suara palsu telah digunakan untuk menyerang selebritas dan politisi dalam menyebarkan informasi yang menyesatkan. Seseorang tak bertanggung jawab bahkan dapat menggunakan AI untuk membuat akun palsu atau mengambil alih akun resmi yang sudah ada.
Dalam contoh baru-baru ini, gambar Paus Francis buatan AI yang mengenakan jaket puffer putih nan modis menjadi viral di media sosial. Walau mungkin tidak berbahaya, contoh ini memberikan gambaran sekilas di mana deepfake menciptakan risiko reputasi, pemalsuan, dan penipuan yang signifikan bagi individu, organisasi, ataupun pemerintah.
3. Privasi Data
Seorang karyawan dapat dengan mudah mengekspos data perusahaan yang sensitif dan eksklusif saat berinteraksi dengan solusi chatbot AI. Aplikasi itu dapat menyimpan informasi yang ditangkap melalui input pengguna tanpa batas waktu serta menggunakannya untuk melatih model lain sehingga makin membahayakan kerahasiaan. Informasi tersebut juga bisa jatuh ke tangan yang salah jika terjadi pelanggaran keamanan.
4. Masalah Hak Cipt
Chatbot AI dilatih pada sejumlah besar data internet yang mungkin menyertakan materi berhak cipta. Akibatnya, beberapa respons mungkin melanggar perlindungan hak cipta atau kekayaan intelektual. Tanpa referensi sumber atau transparansi tentang bagaimana jawaban dihasilkan, satu-satunya cara untuk mengurangi risiko ini adalah pengguna harus memastikan kembali bahwa mereka tidak melanggar hak cipta atau kekayaan intelektual.
5. Polemik Keamanan Siber
Selain rekayasa sosial dan ancaman phishing yang lebih canggih, seorang pelaku kejahatan siber dapat memanfaatkan AI untuk membuat malware dengan lebih mudah. Vendor yang menawarkan model dasar AI generatif meyakinkan pengguna bahwa model mereka telah dilatih untuk menolak permintaan keamanan siber berbahaya. Namun, mereka tidak menyediakan alat bagi pengguna untuk secara efektif mengaudit seluruh kontrol keamanan yang ada.
Vendor juga sangat menekankan pada pendekatan “red teaming”, suatu simulasi untuk mengevaluasi sistem keamanan organisasi dengan menempatkan tim keamanan yang independen sebagai posisi penyerang. Metode ini semata-mata mengharuskan pengguna menaruh kepercayaan penuh kepada kemampuan vendor untuk mengeksekusi tujuan keamanan.
SYAHDI MUHARRAM