Baca berita dengan sedikit iklan, klik di sini
Poin penting
Dirilis pada November 2022, ChatGPT berkembang pesat, baik dari teknologi maupun jumlah pemakai.
Karena banyak penyalahgunaan, sekelompok akademikus dan praktisi, termasuk Elon Musk, meminta pengembangan ChatGPT dihentikan enam bulan.
Pakar data science Monash University menganggap pembuatan regulasi lebih penting ketimbang menghentikan pengembangan ChatGPT.
Hanya dalam waktu dua bulan sejak diluncurkan pada November 2022, ChatGPT mengakumulasi jumlah pengguna dari hanya 1 juta menjadi 100 juta pada Januari 2023. Dengan ChatGPT, manusia seakan-akan memiliki senjata baru yang memudahkan hidup mereka, dari membikin resume pekerjaan, membuat laporan, hingga menyusun proposal. Semua bisa dilakukan dengan hanya memberikan instruksi di kolom perintah pada aplikasi tersebut.
Baca berita dengan sedikit iklan, klik di sini
ChatGPT merupakan aplikasi terbaru dengan teknologi kecerdasan buatan (artificial intelligence/AI) yang memungkinkan pengguna berinteraksi dan melakukan permintaan (prompt engineering) untuk kemudian diwujudkan oleh teknologi.
Baca berita dengan sedikit iklan, klik di sini
Namun banyak kekhawatiran muncul di balik penggunaan teknologi ini. Ada kasus penyalahgunaan ChatGPT untuk praktik yang tidak berintegritas di kalangan akademikus serta kecurangan di kalangan mahasiswa. ChatGPT juga bisa memfasilitasi aktivitas penipuan, penyebaran disinformasi, serta peretasan dan berbagai kejahatan siber lainnya.
Berbagai kontroversi yang muncul dari pemanfaatan teknologi ChatGPT mendorong Future of Life Institute (FLI) menerbitkan surat terbuka penghentian sementara selama enam bulan riset-riset yang bertujuan meningkatkan kemampuan GPT-4.
Generative pre-trained transformer (GPT) merupakan teknologi inti aplikasi ChatGPT. Sebagai teknologi inti, GPT terus diteliti dan berkembang. Saat tulisan ini dibuat, ChatGPT versi gratis masih menggunakan GPT-3.5. Sedangkan ChatGPT versi berbayar sudah menggunakan GPT-4.
Teknologi GPT-4, yang dirilis pada Maret lalu, bisa membaca, menganalisis, serta menghasilkan teks hingga 25 ribu kata dan menghasilkan kode-kode pemrograman dari berbagai bahasa pemrograman. GPT-4 ini diperkirakan memiliki 1 triliun parameter, lebih banyak dari GPT-3 yang hanya mempunyai 175 miliar parameter.
FLI, yang mengeluarkan surat terbuka tersebut, merupakan organisasi nirlaba yang didirikan pada 2014 dan bertujuan memitigasi risiko penggunaan teknologi kecerdasan buatan. Pendapat yang disuarakan oleh organisasi ini cepat tersebar luas ke publik karena banyak nama besar akademikus serta praktisi teknologi dan inovasi yang ada di dalamnya, seperti Max Tegmark dari Massachusetts Institute of Technology (MIT), Amerika Serikat; dan Elon Musk.
Per 23 Mei 2023, sudah ada 27.565 orang yang menandatangani surat yang ditulis FLI tersebut. Sejumlah nama besar, seperti Elon Musk, Steve Wozniak, Andrew Yang, dan Yuval Noah Harari, ikut menandatangani surat tersebut.
Namun, berdasarkan pengamatan kami yang meneliti mengenai inovasi AI yang bertanggung jawab serta pemrosesan bahasa dengan AI selama lebih dari lima tahun, menghentikan penelitian dan eksperimen AI bukanlah solusi jitu. Kami melihat justru yang terpenting adalah regulasi yang lebih tegas dan inovatif di sektor ini.
CEO OpenAI, Sam Altman berbicara dalam 'Pengawasan AI: Aturan untuk Kecerdasan Buatan' di Capitol Hill, Washington, Amerika Serikat, 16 Mei 2023. REUTERS/Elizabeth Frantz
Pentingnya Regulasi yang Inovatif
Sejarah menunjukkan bahwa regulasi selalu lebih lambat dari inovasi. Pelarangan penggunaan model GPT juga belum tentu menyelesaikan masalah. Penghentian eksperimen seperti yang diminta FLI dapat berdampak pada terhambatnya penelitian-penelitian yang bertujuan memperbaiki model GPT.
Misalnya, penelitian untuk mengurangi bias dan “halusinasi” di ChatGPT. Kemudian penelitian mengenai kerentanan manipulasi dan kesalahan informasi yang ada dalam ChatGPT. Lalu penelitian untuk meningkatkan transparansi dan akuntabilitas dari jawaban-jawaban ChatGPT. Juga penelitian mengenai penyalahgunaan ChatGPT dalam penyebaran misinformasi.
CEO OpenAI, Sam Altman, yang mengembangkan ChatGPT, bahkan menyarankan, alih-alih menghentikan penelitian, kita sebenarnya memerlukan regulasi yang jelas untuk teknologi AI.
Otoritas yang berkepentingan terhadap mitigasi risiko AI, termasuk pemerintah, harus lincah dan tanggap dengan inovasi.
Pada Maret 2022, Cina sudah mengeluarkan undang-undang tentang aplikasi AI. Cina juga sudah memiliki UU tentang pengelolaan rekomendasi algoritma yang disahkan pada Maret lalu. Pada April lalu, Cina mengusulkan draf pengaturan generative AI.
Saat ini, Uni Eropa sudah memiliki draf Undang-Undang AI dan berencana merevisi draf tersebut terkait dengan penggunaan generative AI.
Negara-negara lainnya juga sudah melangkah maju. Brasil, Kanada, dan India, misalnya, sudah memiliki draf dan kertas kerja yang diarahkan untuk mengatur inovasi AI.
Ilustrasi penggunaan ChatGPT. PEXELS
Tanggung Jawab Korporasi
Di lain pihak, organisasi atau korporasi yang mengembangkan AI juga harus berinovasi dengan hati-hati serta mempertimbangkan prinsip antisipatif, reflektif, inklusif, dan responsif.
Antisipatif dalam arti analisis yang melibatkan pemikiran sistematis mengenai dampak yang mungkin saja terjadi. Namun pada saat yang bersamaan juga mempertimbangkan peluang dan dampak positif dari inovasi yang dilakukan.
Institusi yang mengembangkan AI juga harus reflektif. Artinya, inovasi mereka dibatasi oleh nilai-nilai sosial, tanggung jawab moral, dan hukum.
Prinsip inklusif seharusnya diterapkan agar inovasi direncanakan dengan matang, baik dari sisi teknis maupun regulasi. Desain teknologi harus mempertimbangkan manfaat dan risiko serta disesuaikan dengan kepentingan berbagai kelompok masyarakat.
Berbagai pihak yang terlibat dalam inovasi dan regulasi AI harus responsif jika terjadi dampak yang tidak diharapkan. Inovasi harus diarahkan untuk membawa dampak sebesar-besarnya bagi publik dan memitigasi risikonya.
Pengembangan AI harus dilakukan secara transparan dan memiliki tata kelola data yang baik. Antisipasi dan mitigasi potensi risiko harus diformulasikan dengan saksama.
Praktik yang bertanggung jawab harus dilakukan di setiap aspek pengembangan AI (pengumpulan data, penganalisisan data, pengembangan model, serta evaluasi dan interpretasi data).
Kehadiran GPT merupakan momen penting yang menyadarkan banyak pihak bahwa etika dan regulasi AI menjadi sangat penting.
---
Artikel ini ditulis oleh Arif Perdana dan Derry Wijaya, Lektor Kepala Data Science Monash University. Terbit pertama kali di The Conversation.
- Akses edisi mingguan dari Tahun 1971
- Akses penuh seluruh artikel Tempo+
- Baca dengan lebih sedikit gangguan iklan
- Fitur baca cepat di edisi Mingguan
- Anda Mendukung Independensi Jurnalisme Tempo