Scroll ke bawah untuk membaca berita

Logo
Digital

NIST Mengembangkan Alat Uji Risiko Model AI, Dioptra

Dioptra alat berbasis web yang bersifat modular dan open-source, dikembangkan untuk membantu pengembang AI

30 Juli 2024 | 09.23 WIB

Ilustrasi Kecerdasan Buatan (Yandex)
material-symbols:fullscreenPerbesar
Ilustrasi Kecerdasan Buatan (Yandex)

Baca berita dengan sedikit iklan, klik di sini

Logo

TEMPO.CO, Jakarta - National Institute of Standards and Technology (NIST), lembaga pemerintah Amerika Serikat (AS) mengembangkan dan menguji teknologi alat uji baru bernama Dioptra. Dikutip dari situs web NIST, Dioptra alat berbasis web yang bersifat modular dan open-source, dikembangkan untuk membantu pengembang kecerdasan buatan (artificial intelligence atau AI) dan pengguna dalam menilai dan mengelola risiko yang terkait dengan model AI.

Baca berita dengan sedikit iklan, klik di sini

Logo

Dioptra, yang pertama kali diperkenalkan pada 2022. Saat ini tersedia kembali dengan berbagai pembaruan untuk membantu perusahaan dan pengguna dalam menilai, menganalisis, dan melacak risiko AI.

Tentang AI Dioptra

Baca berita dengan sedikit iklan, klik di sini

Alat ini dirancang untuk mengukur risiko yang terkait dengan serangan berbahaya, khususnya yang rentan meracuni data pelatihan model AI, dan dampaknya terhadap kinerja sistem kecerdasan buatan. NIST menyatakan, Dioptra dapat digunakan untuk membandingkan dan meneliti model, serta menyediakan platform umum untuk mengekspos model terhadap ancaman simulasi dalam lingkungan red-teaming.

“Pengujian efek serangan adversarial terhadap model pembelajaran mesin adalah salah satu tujuan Dioptra,” tulis NIST dalam siaran persnya.

Dioptra diperkenalkan bersamaan dengan dokumen dari NIST dan Institut Keselamatan AI NIST yang baru dibentuk. In  yang menjelaskan cara untuk mengurangi beberapa bahaya AI, seperti disalahgunakan.

Dikutip dari TechCrunch, peluncuran ini mengikuti peluncuran alat dari Institut Keselamatan AI Inggris, Inspect, yang juga bertujuan untuk menilai kemampuan model dan keselamatan model secara keseluruhan.

Amerika dan Inggris memiliki kemitraan yang berkelanjutan untuk mengembangkan pengujian model AI tingkat lanjut bersama-sama, yang diumumkan pada KTT Keselamatan AI Inggris di Bletchley Park pada November 2024.

Dioptra juga merupakan produk dari perintah eksekutif Presiden Joe Biden tentang AI, yang antara lain mengamanatkan bahwa NIST membantu pengujian sistem AI. Perintah eksekutif ini juga menetapkan standar untuk keselamatan dan keamanan AI. Ini termasuk persyaratan bagi perusahaan yang mengembangkan model untuk memberi tahu pemerintah federal dan berbagi hasil dari semua tes keselamatan sebelum model tersebut diluncurkan ke publik.

NIST tidak menyatakan bahwa Dioptra dapat sepenuhnya menghilangkan risiko model. Tetapi, lembaga tersebut mengusulkan, Dioptra menjelaskan jenis serangan mana yang dapat membuat sistem AI berkinerja kurang efektif dan mengukur dampak ini terhadap kinerja.

close

Baca berita dengan sedikit iklan, klik di sini

Logo
Logo Tempo
Unduh aplikasi Tempo
download tempo from appstoredownload tempo from playstore
Ikuti Media Sosial Kami
© 2024 Tempo - Hak Cipta Dilindungi Hukum
Beranda Harian Mingguan Tempo Plus