Google sedang mengembangkan alat untuk mendeteksi konten buatan AI. Sebab, konten buatan AI kini makin marak dan meresahkan.
Di Korea Selatan misalnya, Kasus pornografi hasil AI deepfake menjadi masalah serius di dalam beberapa waktu terakhir. Sebab, semakin banyak warga Korsel, termasuk anak di bawah umur, menjadi korban kejahatan seks deepfake.
Menurut Badan Kepolisian Nasional Korea Selatan, terdapat 297 kasus kejahatan deepfake pornografi yang dilaporkan dari Januari hingga Juli. Dari 178 terdakwa, 113-nya adalah remaja. Di Seoul sendiri sudah menangkap 10 remaja 14 tahun atas kejahatan ini.
Untuk mengatasi maraknya deepfake pornografi, sejak awal tahun Google bergabung dengan komite Coalition for Content Provenance and Authenticity (C2PA). Bersama anggota komite beberapa bulan ini Google tengah mengembangkan teknologi untuk mendeteksi dan menandai konten hasil kecerdasan buatan.
Nantinya teknologi ini akan diimplementasikan pada Content Credentials, yang merupakan ekstensi yang membantu melacak asal konten video dan foto. Google akan memasukkan versi terbaru Content Credentials ke produk-produk utama Google untuk mempermudah kita mendeteksi konten AI di hasil pencarian Google.
Melansir Engadget, Senin (30/9/2024), pendeteksi ini akan tersedia juga di Google Images, Lens, dan Circle to Search. Jika gambar yang muncul memiliki metadata C2PA, kita akan mudah mendeteksi perubahan yang dilakukan oleh AI dalam menu "About this image".
Google juga tengah belajar untuk membuat sistem yang dapat mengidentifikasi rincian video YouTube. Detailnya, sistem yang mengidentifikasi kapan video tersebut diambil oleh kamera.
Sistem pendeteksian ini juga memiliki beberapa kelemahan, Sistem ini bergantung pada penggunaan sistem penandaan C2PA oleh perusahaan-perusahaan yang terkait seperti pembuat kamera dan pembuat alat AI.
Artinya jika seseorang menghapus metadata pada suatu foto, maka Google juga akan kesusahan untuk mendeteksi kadar AI pada suatu foto. []
© Copyright 2024, All Rights Reserved