Seorang ayah di Malaysia kehilangan 1,8 miliar korban penipuan deepfake
DEWA CASE – Pada akhir tahun 2024 lalu beredar video dari Malaysia tentang penipuan memanfaatkan deepfake disertai informasi korban kena penipuan atau scam deepfake dengan kerugian RM 500.000 atau sekitar Rp 1,8 miliar. Video yang beredar di Tiktok dan Instagram tersebut adalah video deepfake penipu yang memalsukan dari anak yang meminta uang kepada orang tuanya karena mengalami musibah. Sang ayah setuju transfer RM 500 tetapi anaknya meminta transfer RM 5.000 ke rekening temannya dan disetujui oleh orang tuanya. Pada akhir video tersebut terungkap bahwa penelpon yang menghubungi kedua orang tua tersebut adalah palsu karena anak yang dipalsukan masuk ke ruangan orang tua tersebut.
Deepfake, frasa yang menggabungkan “deep learning” dan “fake” adalah media sintetis yang mengganti wajah seseorang dalam gambar, video, atau rekaman yang sudah ada dengan wajah orang lain. Tidak seperti Photoshop atau bentuk perubahan media lainnya, deepfake memanfaatkan pembelajaran mesin dan AI untuk memanipulasi media dan membuat konten dengan potensi penipuan yang tinggi. Sederhananya: deepfake adalah video, gambar, atau rekaman yang tampak nyata, tetapi sebenarnya tidak.
Contoh deepfake yang paling umum meliputi:
- Pertukaran wajah, atau mengganti wajah seseorang dengan wajah orang lain,
- Sinkronisasi bibir, atau mengganti audio asli dari sebuah video dengan audio yang berbeda, dan memanipulasi video agar bibir pembicara sinkron dengan audio yang baru,
- Animasi seluruh tubuh, atau mengganti gambar tubuh seseorang dengan yang lain, sehingga orang tersebut tampak bertindak seperti orang dalam video asli.
Manipulasi gambar dan video sudah ada hampir sepanjang sejarah fotografi dan film. Teknologi dan praktik seputar manipulasi visual dan audio meningkat selama abad ke-20, dengan teknologi deepfake yang dikembangkan di lembaga-lembaga akademis pada awal 1990-an. Kemudian, para amatir mulai mengembangkan teknologi deepfake sendiri, dan, baru-baru ini, deepfake juga digunakan oleh perusahaan dan organisasi lain.
Istilah “deepfake” sendiri berasal dari Reddit. Pengguna membagikan video deepfake yang mereka buat di subreddit r/deepfakes, yang sebagian besar videonya melibatkan pertukaran wajah selebritas dengan tubuh aktris dewasa dalam video porno. Subreddit r/deepfakes ditutup pada 7 Februari 2018 karena “pornografi yang tidak disengaja” karena sifat media yang tidak konsensual, tetapi komunitas daring lainnya terus membagikan pornografi di platform yang belum melarang pornografi deepfake. Di Reddit, masih ada komunitas yang membagikan deepfake, tetapi mereka menggambarkan skenario non-pornografi.
Kini penggunaan deepfake bisa jadi sedikit lebih abu-abu, mayoritas berita dan perhatian seputar deepfake berpusat pada video porno selebritas, balas dendam porno, misinformasi dan hoax, berita palsu, pemerasan, dan penipuan.
Meskipun deepfake dibuat untuk meyakinkan, namun tidak sepenuhnya sempurna. Meskipun ada alat deteksi AI yang dapat mendeteksi deepfake, ada beberapa indikator yang dapat membantu Anda mengidentifikasi deepfake sendiri, seperti pencahayaan yang tidak konsisten, keburaman di sekitar wajah atau rambut, audio yang tidak cocok, atau sesuatu yang aneh pada mata, seperti terlalu banyak atau terlalu sedikit kedipan.
Cara lain untuk mengidentifikasi deepfake adalah dengan mengidentifikasi asal video atau media dan meminta verifikasi sebelum ditayangkan di berbagai platform media sosial, atau menyertakan tanda air. Meskipun ini tidak sepenuhnya mengidentifikasi deepfake, harapannya adalah persyaratan verifikasi akan mengurangi penyebaran media deepfake yang mungkin berbahaya.
