Baca berita dengan sedikit iklan, klik disini
TEMPO.CO, Jakarta - Media sosial X (dulu Twitter) memblok pencarian untuk kata-kata Taylor Swift ataupun Taylor Swift AI. Ini adalah reaksi X terhadap foto atau gambar palsu dari artis penyanyi terkenal itu yang sempat viral di platformnya.
Baca berita dengan sedikit iklan, klik disini
Gambar-gambar bangkitan kecerdasan buatan atau AI itu diunggah pada pekan lalu dan sempat viral selama 17 jam sebelum dicabut oleh X--dan akun pengunggahnya dibekukan. Gambar-gambar itu menjadikan Taylor Swift korban terkini dari perkembangan produk pornografi bangkitan AI.
Baca berita dengan sedikit iklan, klik di sini
Baca berita dengan sedikit iklan, klik disini
Salah satu gambar palsu Taylor Swift itu sempat menarik lebih dari 45 juta views, di-repost 24 ribu kali, dan mendapat ratusan ribu tanda disukai. Di beberapa bagian dunia, Taylor Swift AI menjadi trending topic dan membuat gambar-gambarnya tambah meluas.
Saat ini, jika mencari 'Taylor Swift' atau 'Tayor Swift AI' di X, pengguna akan melihat pesan 'ada kesalahan teknis. coba muat ulang'. Kepala Bagian Bisnis X Joe Benarroch mengakui tindakan sementara itu sebagai 'prioritize safety'.
Kebijakan itu menyusul tindakan X sebelumnya, pada 26 Januari lalu, yang menegaskan mengunggah gambar-gambar Non-Consensual Nudity dilarang di platformnya. Pernyataan ini dikeluarkan bersamaan dengan X menghapus semua gambar unggahan yang teridentifikasi sebagai Taylor Swift AI.
Meta juga kelihatannya menerapkan yang sama. Ini ditandai dengan Threads maupun Instagram yang langsung menyarankan "Taylor Swift AI" jika pengguna mulai mengetik "Taylor" di kotak pencariannya. Tapi, kemudian, tidak ada yang memberikan hasil pencarian tersebut. Sebaliknya, pengguna mungkin mendapatkan pesan yag mengatakan 'is sometimes associated with activities of dangerous organizations and individuals'.
Sejumlah laporan menyebutkan kalau Taylor Swift menimbang langkah hukum terhadap situs-situs yang memberi ruang kepada gambar-gambar palsunya itu.
Adapun sebuah laporan dari 404 MEDIA menyatakan menemukan gambar-gambar sang artis yang dibuat eksplisit secara seksual itu mungkin berasal dari sebuah grup di Telegram. Di grup itu, para penggunanya membagikan gambar-gambar perempuan bangkitan AI yang dibuat menggunakan Microsoft Designer.
Menanggapi itu, CEO Microsoft Satya Nadella menegaskan deepfakes, "sudah membahayakan dan menyebabkan masalah." Dalam wawancaranya dengan NBC Nightly News, Jumat lalu, Nadella mengatakan percaya perusahaan AI butuh bergerak cepat untuk membuatkan rambu-rambu yang lebih baik.
Juru bicara Gedung Putih, Karine Jean-Pierre, juga menekankan yang sama dengan menyerukan kepada Kongres untuk menciptakan peraturan melindungi orang-orang dari gambar porno deepfakes.
THE VERGE