Deepfake adalah video, gambar, atau klip audio palsu yang dibuat oleh kecerdasan buatan (AI). Pada dasarnya, perangkat lunak komputer mempelajari cara menukar wajah seseorang dengan tubuh orang lain dalam sebuah video. Bayangkan filter pertukaran wajah yang canggih, tetapi jauh lebih meyakinkan.
Meskipun deepfake dapat digunakan untuk hiburan, seperti dalam film atau gim video, deepfake juga memiliki risiko serius. Penipu dapat menggunakan deepfake untuk menyamar sebagai seseorang untuk tujuan penipuan, menyebarkan informasi palsu, dan merusak reputasi pribadi atau profesional.
Berdasarkan angka:
- 2019 : Perusahaan AI Deeptrace menemukan 15.000 video deepfake daring
- 2023 : Setidaknya 500.000 video dan audio deepfake dibagikan di media sosial
- Sekitar 90% deepfake menargetkan wanita
- Deepfake dasar kini dapat dibuat dalam hitungan menit dengan aplikasi
Bagaimana deepfake dibuat?
Deepfake bukan sekadar konten yang diedit atau di-photoshop. Deepfake menggunakan AI dan pembelajaran mesin untuk menciptakan video dan audio yang sangat realistis, yang memanipulasi wajah dan suara orang sungguhan.
Membuat video tukar wajah melibatkan beberapa langkah AI. Pertama, Anda menjalankan ribuan foto wajah kedua orang melalui algoritma AI yang disebut encoder . Encoder ini menemukan dan mempelajari kemiripan antara kedua wajah tersebut.
Kemudian, satu “dekoder” AI dilatih untuk setiap orang. Untuk bertukar wajah, algoritma memasukkan gambar melalui dekoder orang lain, merekonstruksi satu wajah dengan ekspresi wajah orang lain. Proses ini diulang untuk setiap frame untuk menghasilkan video yang realistis.
Jenis-jenis deepfake yang perlu Anda ketahui
Deepfake dapat hadir dalam berbagai bentuk, masing-masing menggunakan AI dengan cara berbeda untuk mengubah atau membuat audio dan video. Berikut adalah jenis-jenis utama yang paling mungkin Anda temui:
- Deepfake pertukaran wajah: Ini adalah jenis deepfake yang paling umum, di mana wajah seseorang ditempelkan ke tubuh orang lain. Hasilnya bisa beragam, mulai dari klip lucu yang jelas-jelas palsu hingga video yang sangat meyakinkan yang membuat Anda mempertanyakan keasliannya. Pertukaran wajah sering digunakan dalam meme, video parodi, atau, sayangnya, dalam konteks berbahaya seperti konten selebritas palsu.
- Deepfake kloning suara: AI kini dapat menyalin suara seseorang dengan sangat presisi sehingga Anda akan bersumpah bahwa suara itu benar-benar mereka yang berbicara. Penipu telah menggunakan ini dalam panggilan telepon untuk mengelabui orang agar mentransfer uang atau mengungkapkan informasi sensitif. Klip audio palsu juga dapat disebarkan secara daring agar seolah-olah seseorang mengatakan sesuatu yang sebenarnya tidak pernah mereka lakukan, sehingga merusak reputasi dan kepercayaan.
- Deepfake sinkronisasi bibir: Teknik ini memanipulasi gerakan bibir seseorang agar sesuai dengan audio baru, sehingga seolah-olah mereka mengucapkan kata-kata tertentu. Teknik ini sering digunakan untuk membuat pidato, wawancara, atau klip politik palsu yang menyesatkan. Meskipun suara asli orang tersebut tidak digunakan, visualnya cukup untuk mengelabui penonton agar percaya bahwa suara tersebut asli.
- Rekonstruksi seluruh tubuh: Alih-alih mengubah foto atau video yang sudah ada, teknologi ini menciptakan orang-orang baru sepenuhnya dari awal menggunakan AI. Hasilnya bisa berupa wajah yang tampak realistis atau bahkan video lengkap seseorang yang sebenarnya tidak ada. Meskipun terkadang digunakan secara tidak berbahaya (seperti dalam gim atau iklan), deepfake sintetis juga dapat digunakan untuk membuat akun media sosial palsu atau menyebarkan misinformasi dengan menyamar sebagai orang “nyata”.
Mengapa deepfake bisa berbahaya?
Meskipun deepfake dapat digunakan untuk menghasilkan karya seni baru atau industri hiburan, deepfake juga dapat digunakan dengan cara yang berbahaya:
- Misinformasi dan manipulasi politik: Video palsu para pemimpin dunia atau tokoh masyarakat digunakan untuk mempengaruhi opini, menyebarkan propaganda, atau menciptakan kebingungan.
- Penipuan dan pencurian identitas: Penjahat menyamar sebagai eksekutif, karyawan, atau individu pribadi untuk mengakses data sensitif seperti rekening bank atau catatan perusahaan.
- Kerusakan reputasi dan pemerasan: Penggunaan berbahaya yang paling umum adalah konten seksual deepfake nonkonsensual. Deepfake juga dapat menempatkan korban dalam skenario yang membahayakan atau ilegal untuk memeras, melecehkan, atau merusak reputasi.
- Bukti palsu dan manipulasi saham: Video atau klip audio palsu dapat digunakan untuk menyesatkan proses hukum atau memengaruhi nilai pasar perusahaan.
AIEXV
