Sabtu, 23 September 2023

Porno Deepfake Bisa Menjadi Masalah yang Berkembang di Tengah Tumbuhnya Artifical Intelligence

Porno Deepfake Bisa Menjadi Masalah yang Berkembang di Tengah Tumbuhnya Artifical Intelligence

NEW YORK (AP), mediasumatera.id — Pencitraan kecerdasan buatan dapat digunakan untuk membuat karya seni, mencoba pakaian di ruang pas virtual, atau membantu merancang kampanye iklan.

Tetapi para ahli kuatir sisi gelap dari alat yang mudah diakses dapat memperburuk sesuatu yang terutama merugikan perempuan: pornografi deepfake nonkonsensual.

Deepfake adalah video dan gambar yang telah dibuat atau diubah secara digital dengan kecerdasan buatan atau pembelajaran mesin. Porno yang dibuat menggunakan teknologi ini pertama kali menyebar di internet beberapa tahun lalu ketika seorang pengguna Reddit membagikan klip yang menempatkan wajah selebritas wanita di pundak aktor porno.

Sejak itu, pembuat deepfake telah menyebarkan video dan gambar serupa yang menargetkan influencer online, jurnalis, dan lainnya dengan profil publik. Ribuan video ada di banyak situs web. Dan beberapa telah menawarkan pengguna kesempatan untuk membuat gambar mereka sendiri — pada dasarnya memungkinkan siapa pun untuk mengubah siapa pun yang mereka inginkan menjadi fantasi seksual tanpa persetujuan mereka, atau menggunakan teknologi untuk menyakiti mantan pasangan.

Masalahnya, kata para ahli, tumbuh karena semakin mudah membuat deepfake yang canggih dan menarik secara visual. Dan mereka mengatakan itu bisa menjadi lebih buruk dengan pengembangan alat Artificial Intelligence (AI) generatif yang dilatih pada miliaran gambar dari internet dan mengeluarkan konten baru menggunakan data yang ada.

“Kenyataannya adalah bahwa teknologi akan terus berkembang biak, akan terus berkembang dan akan terus menjadi semudah menekan tombol,” kata Adam Dodge, pendiri EndTAB, sebuah grup yang memberikan pelatihan tentang penyalahgunaan yang dimungkinkan oleh teknologi. “Dan selama itu terjadi, orang pasti akan terus menyalahgunakan teknologi itu untuk menyakiti orang lain, terutama melalui kekerasan seksual online, pornografi deepfake, dan gambar telanjang palsu.”

Noelle Martin, dari Perth, Australia, pernah mengalami kenyataan itu. Wanita berusia 28 tahun itu menemukan deepfake porno dirinya 10 tahun yang lalu ketika karena penasaran suatu hari dia menggunakan Google untuk mencari gambar dirinya. Hingga hari ini, Martin mengatakan dia tidak tahu siapa yang membuat gambar palsu, atau video dirinya melakukan hubungan seksual yang nantinya akan dia temukan. Dia mencurigai seseorang mungkin mengambil gambar yang diposting di halaman media sosialnya atau di tempat lain dan mengubahnya menjadi porno.

Baca Juga :  Presiden Ukraina: Situs Pemakaman Berisi Korban Penyiksaan

Merasa ngeri, Martin menghubungi situs web yang berbeda selama beberapa tahun dalam upaya untuk menghapus gambar tersebut. Beberapa tidak menanggapi. Yang lain mengambilnya tetapi dia segera menemukannya lagi.

“Kamu tidak bisa menang,” kata Martin. “Ini adalah sesuatu yang akan selalu ada di luar sana. Ini seperti itu selamanya menghancurkanmu.”

Semakin dia berbicara, katanya, semakin banyak masalahnya meningkat. Beberapa orang bahkan memberi tahu dia cara dia berpakaian dan memposting gambar di media sosial berkontribusi pada pelecehan – pada dasarnya menyalahkan dia atas gambar tersebut, bukan pembuatnya.

Akhirnya, Martin mengalihkan perhatiannya ke undang-undang, mengadvokasi undang-undang nasional di Australia yang akan mendenda perusahaan sebesar 555.000 dolar Australia (US $370.706) jika mereka tidak mematuhi pemberitahuan penghapusan konten semacam itu dari regulator keamanan online.

Namun mengatur internet hampir mustahil ketika negara memiliki undang-undang mereka sendiri untuk konten yang terkadang dibuat di belahan dunia lain. Martin, saat ini seorang pengacara dan peneliti hukum di University of Western Australia, mengatakan dia yakin masalah tersebut harus dikendalikan melalui semacam solusi global.

Sementara itu, beberapa model AI mengatakan mereka sudah membatasi akses ke gambar eksplisit.

OpenAI mengatakan itu menghapus konten eksplisit dari data yang digunakan untuk melatih alat penghasil gambar DALL-E, yang membatasi kemampuan pengguna untuk membuat jenis gambar tersebut. Perusahaan juga memfilter permintaan dan mengatakan memblokir pengguna untuk membuat gambar AI dari selebritas dan politisi terkemuka. Midjourney, model lain, memblokir penggunaan kata kunci tertentu dan mendorong pengguna untuk menandai gambar bermasalah ke moderator.

Sementara itu, AI Stabilitas startup meluncurkan pembaruan pada bulan November yang menghilangkan kemampuan untuk membuat gambar eksplisit menggunakan pembuat gambar Stable Diffusion. Perubahan itu terjadi menyusul laporan bahwa beberapa pengguna membuat gambar telanjang yang terinspirasi selebriti menggunakan teknologi tersebut.

Baca Juga :  Paus Fransiskus Tandaskan, Barat Telah Mengambil Jalan yang Salah

Juru bicara Stability AI Motez Bishara mengatakan filter menggunakan kombinasi kata kunci dan teknik lain seperti pengenalan gambar untuk mendeteksi ketelanjangan dan mengembalikan gambar buram. Tetapi pengguna dapat memanipulasi perangkat lunak dan menghasilkan apa yang mereka inginkan sejak perusahaan merilis kodenya ke publik. Bishara mengatakan lisensi Stability AI “meluas ke aplikasi pihak ketiga yang dibangun di atas Stable Diffusion” dan dengan tegas melarang “penyalahgunaan apa pun untuk tujuan ilegal atau tidak bermoral.”

Beberapa perusahaan media sosial juga telah memperketat aturan mereka untuk lebih melindungi platform mereka dari materi berbahaya.

TikTok mengatakan bulan lalu semua deepfake atau konten yang dimanipulasi yang menunjukkan adegan realistis harus diberi label untuk menunjukkan bahwa itu palsu atau diubah dalam beberapa cara, dan bahwa deepfake tokoh pribadi dan anak muda tidak lagi diizinkan. Sebelumnya, perusahaan telah melarang konten seksual eksplisit dan deepfake yang menyesatkan pemirsa tentang peristiwa dunia nyata dan menyebabkan kerugian.

Platform game Twitch juga baru-baru ini memperbarui kebijakannya seputar gambar deepfake eksplisit setelah streamer populer bernama Atrioc diketahui membuka situs web porno deepfake di browsernya selama streaming langsung pada akhir Januari. Situs tersebut menampilkan gambar palsu dari sesama streamer Twitch.

Twitch sudah melarang deepfake eksplisit, tetapi sekarang menampilkan sekilas konten semacam itu – bahkan jika itu dimaksudkan untuk mengungkapkan kemarahan – “akan dihapus dan akan menghasilkan penegakan hukum,” tulis perusahaan itu dalam posting blog. Dan dengan sengaja mempromosikan, membuat, atau membagikan materi adalah alasan untuk pelarangan instan.

Perusahaan lain juga telah mencoba untuk melarang deepfake dari platform mereka, tetapi mempertahankannya membutuhkan ketekunan.

Apple dan Google mengatakan baru-baru ini mereka menghapus aplikasi dari toko aplikasi mereka yang menjalankan video aktris deepfake yang menjurus ke arah seksual untuk memasarkan produk tersebut. Penelitian tentang pornografi deepfake tidak lazim, tetapi satu laporan yang dirilis pada tahun 2019 oleh perusahaan AI DeepTrace Labs menemukan bahwa hampir seluruhnya dipersenjatai untuk melawan wanita dan individu yang paling ditargetkan adalah aktris barat, diikuti oleh penyanyi K-pop Korea Selatan.

Baca Juga :  46 Migran Ditemukan Tewas dalam Trailer yang Ditinggalkan di San Antonio

Aplikasi yang sama yang dihapus oleh Google dan Apple telah menjalankan iklan di platform Meta, yang mencakup Facebook, Instagram, dan Messenger. Juru bicara Meta Dani Lever mengatakan dalam sebuah pernyataan bahwa kebijakan perusahaan membatasi konten dewasa yang dihasilkan AI dan non-AI dan telah membatasi halaman aplikasi dari iklan di platformnya.

Pada bulan Februari, Meta, serta situs dewasa seperti OnlyFans dan Pornhub, mulai berpartisipasi dalam alat online, yang disebut Take It Down, yang memungkinkan remaja melaporkan gambar dan video eksplisit diri mereka sendiri dari internet. Situs pelaporan berfungsi untuk gambar biasa, dan konten buatan AI — yang telah menjadi perhatian yang berkembang untuk kelompok keselamatan anak.

“Ketika orang-orang bertanya kepada pimpinan senior kami, apa batu besar yang turun dari bukit yang kami kuatirkan? Yang pertama adalah enkripsi end-to-end dan artinya bagi perlindungan anak. Dan yang kedua adalah AI dan khususnya deepfake,” kata Gavin Portnoy, juru bicara National Center for Missing and Exploited Children, yang mengoperasikan alat Take It Down.

“Kami belum … dapat merumuskan tanggapan langsung terhadapnya,” kata Portnoy.