Pemalsuan wajah

Daripada Wikipedia, ensiklopedia bebas.
(Dilencongkan dari Deepfake)

Pemalsuan wajah atau pemalsuan/kepalsuan dalam (bahasa Inggeris: deepfake) adalah kaedah menggantikan rupa atau wajah seseorang dalam media audiovisual sedia ada (baik gambar atau video) dengan rupa orang yang lain menggunakan rangkaian neural buatan[1] seterusnya menghasilkan bahantara yang baharu (yakni palsuan wajah, palsu tulen atau palsu asli). Kaedah penggantian ini menggunakan pembelajaran mesin tertentu termasuk pengekod auto dan rangkaian perseteruan janaan (GAN).[2][3]

Teknologi sebegini mendapat liputan yang luas berikutan laporan mengenai kegunaannya dalam banyak jenayah termasuk video lucah selebriti, pornografi dendam, berita palsu, olokan dan penipuan kewangan.[4][5][6][7] Hail ini telah menimbulkan pelbagai maklum balas daripada pihak industri dan pemerintah dalam langkah mengesan dan menyekat penggunaannya.[8][9]

Peristilahan[sunting | sunting sumber]

Istilah asal yang digunakan untuk menggambarkan teknologi ini, "deepfake", berasal pada sekitar penghujung tahun 2017 sempena nama seorang pengguna Reddit bernama "deepfakes"[1] yang mempelopori bahantara ini dalam kelompok r/deepfakes yang melibatkan projek menggantikan muka selebriti masuk pada tubuh pelakon video lucah.[1]; nama tersebut sendirinya diperolehi hasil gabungan perkataan "deep learning" (pembelajaran dalam) dan "fake" (palsu).[10]

Sejarah pembangunan[sunting | sunting sumber]

Pembangunan teknologi ini berkembang dengan pesat dalam dua keadaan, iaitu kajian oleh institusi ilmiah dan pembangunan oleh orang-orang amatur di kalangan kelompok dalam talian.[11][12] Baru-baru ini, deepfake juga diguna pakai oleh pihak industri.[13]

Kajian ilmiah[sunting | sunting sumber]

Kajian ilmiah berkenaan teknologi ini selalunya berkisar dalam bidang visi komputer iaitu sebuah bidang kecil dalam sains komputer.[11] Contoh projek mercu tanda yang awal ialah program Tulis Semula Video (Video Rewrite) terbitan tahun 1997 yang mengubah suai rakaman video sedia ada mengenai seseorang yang bercakap agar kelihatan seperti dia mengomong-omongkan kata-kata daripada runut bunyi yang lain.[14] Sistem ini merupakan yang pertama mengautomasikan penganimasian semula wajah secara penuh menggunakan kaedah pembelajaran mesin untuk menghubungkaitkan bunyi yang terhasil oleh subjek video dengan bentuk wajah subjek.[14]

Projek ilmiah yang sezaman betumpu dalam penghasilan video yang lebih realistik di samping menambah baik kaedah sedia ada.[15][16] Program “Pensintesisan Obama (Synthesizing Obama)” terbitan tahun 2017 telah mengubah suai rakaman video bekas presiden Amerika Syarikat, Barack Obama, untuk menggambarkan beliau sedang mengucapkan kata-kata daripada runut bunyi yang lain.[15] Program Face2Face (MukaKeMuka) terbitan tahun 2016 mengubah suai rakaman video wajah seseorang agar kelihatan raut mukanya berubah-ubah mengikut raut muka orang lain dalam masa nyata.[16] Projek tersebut menyenaraikan kaedah pertama melakon semula raut muka dalam masa nyata adalah dengan penggunaan sebiji kamera tanpa ciri pengesanan kedalaman sebagai sumbangan kajian utama. Hal ini membolehkan kaedah ini dilaksanakan menggunakan kamera kebanyakan.[16]

Pada Ogos 2018, pengkaji di Universiti California, Berkeley menerbitkan senaskhah kertas kerja yang memperkenalkan suatu aplikasi tarian palsu yang membuat-buat kebolehan tarian yang cekap dengan menggunakan kepintaran buatan (AI).[17][18] Projek ini mengembangkan kegunaan teknologi ini sehingga meliputi seluruh tubuh bilamana hasil kerja sebelum itu hanya bertumpu pada kepala atau bahagian muka sahaja.[17]

Pembangunan amatur[sunting | sunting sumber]

Sepertimana yang disebut sebelum ini, teknologi ini mula diketahui dalam lingkungan orang ramai hasil pengembangan teknologi sedemikian yang melibatkan penebitan lucah dalam laman sosial Reddit pada Februari 2018.[1] Bagi kandungan tidak lucah pula, muka pelakon Nicolas Cage diganti masuk dalam beberapa filem.[19] Pada Disember 2017, Samantha Cole menerbitkan sebuah rencana mengenai r/deepfakes dalam Vice yang menarik perhatian arus perdana yang pertama mengenai perihal perkongsian palsuan ini dalam kalangan kelompok dalam talian.[20] Enam minggu kemudian, Cole menulis sebuah rencana susulan mengenai peningkatan yang mendadak jumlah lucah palsu berbantu AI.[1] Pada Februari 2018, kelompok r/deepfakes diharamkan para pengelola laman Reddit atas sebab perkongsian bahan lucah yang hilang kawalan.[21] Tapak-tapak web lain turut mengharamkan penggunaan pemalsuan ini dalam bahan lucah luar kawal termasuklah platform media sosial, Twitter malah juga servis bahan lucah, Pornhub.[22] Sungguhpun begitu, beberapa bidang tapak web lain masih membenarkan kandungan seumapaman antaranya termasuklah papan imej seperti 4chan dan 8chan.[23]

Kelompok dalam talian masih terus hidup termasuklah kelompok Reddit yang tidak berkongsi bahan lucahseperti r/SFWdeepfakes (singkatan "safe for work deepfakes" [deepfake selamat untuk tempat kerja]). Di r/SFWdeepfakes, ahli kelompok berkongsi pemalsuan ini yang menggambarkan selebriti, ahli politik dan lain-lain tanpa unsur-unsur lucah.[24] Kelompok dalam talian lain tetap meneruskan perkongsian teknologi ini di platform yang tidak mengharamkan bahan lucah sebegitu.[23]

Pembangunan komersial[sunting | sunting sumber]

Pada Januari 2018, sebuah perisian atas meja milikan dengan nama FakeApp telah dilancarkan.[25] Aplikasi ini membenarkan penggunanya mencipta serta berkongsi video-video dengan muka mereka saling bertukaran.[26] Setakat 2019, FakeApp telah digantikan oleh pilihan lain yang bersumber terbuka seperti Faceswap dan perisian berasaskan garis perintah, DeepFaceLab.[27][28]

Perusahaan dan syarikat yang lebih besar juga mula menggunakan deepfake.[13] Syarikat perisian mudah alih gergasi, Momo, menghasilkan sebuah aplikasi bernama Zao yang membolehkan penggunanya menindan muka mereka di televisyen dan cantasan wayang dengan hanya sekeping gambar.[13] Sebuah syarikat Jepun AI, DataGrid, telah menggunapakai suatu sistem menerapkan penyalinan imej mamtubuh penuh yang mampu menghasilkan seorang manusia tanpa sebarang asas.[29] Tujuan syarikat tersebut adalah untuk fesyen dan pakaian.

Kaedah[sunting | sunting sumber]

Imej yang dijana bergantung kepada sejenis rangkaian neural iaitu pengekod auto.[3][30] yang mengecilkan imej ke ruang pendam bermatra lebih rendah dan sebuah penyahkod yang membina semula imej tersebut daripada gambaran pendam. Teknologi ini mengguna pakai seni bina ini melalui sebuah pengekod sejagat yang mengekod seseorang ke dalam ruang pendam.[31] Gambaran pendam ini mengandungi sifat penting berkenaan raut wajah dan gaya dirinya. Ruang pendam ini boleh dinyahkod dengan suatu model yang telah dilatih khas untuk sasaran tersebut.[3] Hal ini bermakna maklumat terperinci sasaran akan ditindan pada sifat wajah dan tubuh dasar video asal yang diwakili dalam ruang pendam.[3]

Salah satu naik taraf yang terkenal untuk seni bina ini melibatkan penyambungan rangkaian perseteruan janaan dengan penyahkod.[31] GAN akan melatih suatu penjana, iaitu penyahkod dalam contoh ini, dan suatu pembeza layan dalam hubungan perseteruan.[31] Penjana akan menghasilkan sekeping gambar baharu daripada gambaran pendam bahan sumber sambil pembeza layan cuba mengenal pasti sama ada gambar itu telah dihasilkan.[31] Hal ini menyebabkan penjana menghasilkan sekeping gambar yang meniru kenyataan dengan begitu bagus sehinggakan mana-mana cacat-cela akan dikesan oleh pembeza layan.[32] Kedua-dua algoritma tersebut sentiasa bertambah baik dalam mainan campur-tolak.[31] Hal ini menjadikan pemenggambaran berkepintaran ini sangat sukar dilakukan kerana sifatnya yang kerap berubah ansur iaitu tiap kali terdapatnya kecacatan yang dikenal pasti, kecacatan ini akan diperbaiki.[32]

Penggunaan[sunting | sunting sumber]

Penerapan dalam bahan lucah[sunting | sunting sumber]

Sekitar 96% bahan terbitan teknologi ini yang berleluasa di internet diterapkan dalam bahan lucah yang dihasilkan tanpa kebenaran pelakon atau pemilik rupa, lebih-lebih lagi selebriti wanita.[33] Bahan lucah diterap mula muncul dengan ketara di internet pada tahun 2017 khususnya di Reddit.[34] Teknologi ini mula menarik perhatian khalayak dengan mengolah masuk imej wajah Daisy Ridley dipaparkan pada beberapa laman rencana.[34] Beberapa selebriti yang kerap dijadikan sasaran Pemalsuan wajah jenis ini termasuklah Gal Gadot, Emma Watson, Masie Williams, Taylor Swift dan Scarlett Johansson.[34][35][36][37] Setakat Oktober 2019, kebanyakan subjek sasaran palsuan sebegini di internet merupakan pelakon wanita British dan Amerika Syarikat.[33] Walau bagaimanapun, sesuku subjek tersebut ialah orang Korea Selatan yang kebanyakannya bintang K-pop.[33]

Pada Jun 2019, sebuah perisian boleh muat turun untuk Windows dan Linux yang diberi nama DeepNude telah diterbitkan. Perisian ini menggunakan rangkaian neural, atau lebih khusus lagi rangkaian perseteruan janaan, untuk membuang pakaian di gambar yang memaparkan perempuan. Perisian ini mempunyai dua versi, berbayar dan tanpa bayar. Harga versi berbayar ialah $50.[38][39] Pada 27 Jun, pembangun perisian terbabit telah menghentikan pengedaran perisian itu dan telah memberikan bayaran balik kepada pengguna.[40]

Untuk tujuan politik[sunting | sunting sumber]

Teknologi ini turut telah digunakan untuk menyalahgambarkan ahli-ahli politik terkenal dalam video. Dalam video yang berasingan, wajah Presiden Argentina, Mauricio Macri, telah digantikan dengan wajah Adolf Hitler, manakala wajah Angela Merkel telah digantikan dengan wajah Donald Trump.[41][42] Pada April 2018, Jordan Peele telah bekerja sama dengan Buzzfeed untuk menghasilkan suatu video penggambaran Barack Obama dengan suara Peele bertujuan meningkatkan kesedaran terhadap pengembangan teknologi ini serta kemungkinan penyalahgunaan ia.[43] Pada Januari 2019, saluran Fox KCPQ menyiarkan sebuah video di mana adanya palsuan yang menggunakan riak wajah Trump semasa ucapan Pejabat Bujurnya. Dalam video tersebut, perawakan dan warna kulitnya telah diperolokkan.[44]

Pada Mei 2019, Speaker Dewan Perwakilan Amerika Syarikat Nancy Pelosi menjadi sasaran dua buah video tular yang dihasilkan di mana salah satunya diperlahankan sehingga hanya 75 peratus kelajuan asal agar kedengaran seakan "mabuk"[45] manakala yang lainnya terdiri daripada suntingan ucapannya ketika sidang akhbar untuk sebuah segmen Fox News, Lou Dobbs Tonight. Kedua-dua video tersebut betujuan menunjukkan bahawa kononnya Pelosi berkata-kata secara tidak jelas.[46] Presiden Donald Trump berkongsi video Pelosi tersebut sambil menambahkan keterangan yang mendakwa Pelosi dalam keadaan tidak mampu membawa diri bertutur dengan baik.[47] Video-video ini dipaparkan dalam banyak saluran akhbar terkemuka yang mengakibatkan Jawatankuasa Risikan Rumah Amerika Syarikat mengambil tahu akan palsuan tulemn.[48][49]

Dalam bidang lakonan[sunting | sunting sumber]

Terdapat agakan mengenai penggunaan teknologi ini dalam penghasilan pelakon digital dalam wayang akan datang. Manusia yang telah dibina/diubah secara digital telah pun digunakan dalam wayang dan deepfake memungkinkan pembangunan baharu dalam masa terdekat.[50] Pembangunan teknologi begini dalam peringkat amatur telah pun digunakan untuk meletakkan wajah dalam wayang sedia ada seperti pemasukan wajah Harrison Ford ketika muda pada wajah Han Solo dalam Solo: A Star Wars Story.[51] Kaedah yang serupa turut digunakan dalam pelakonan Puteri Leia dalam Rogue One.[52]

Kebimbangan[sunting | sunting sumber]

Penipuan[sunting | sunting sumber]

Pemalsuan wajah diterapkan bunyi telah digunakan dalam penipuan pengendalian sosial dengan menggunakan rupa seseorang yang dipercayai untuk berpura-pura memberikan arahan kepada orang-orang tertentu.[53] Pada tahun 2019, seorang ketua pegawai eksekutif sebuah firma yang berpangkalan di UK telah tertipu apabila diarahkan untuk memindahkan €220,000 ke sebuah akaun bank Hungary oleh seseorang yang menggunakan palsuan jenis ini sebagai suatu kaedah menyama suara pegawai eksekutif syarikat induk firma tersebut.[54] Pelaku perbuatan tersebut dilaporkan telah membuat panggilan telefon sebanyak tiga kali dan meminta bayaran kedua namun ditolak permintaannya apabila CEO tersebut menyedari nombor telefon pemanggil itu merupakan nombor Austria manakala wang itu tidak dibayar balik seperti yang diberitahu.[54]

Kesan terhadap kebolehpercayaan dan ketulenan[sunting | sunting sumber]

Keberadaan deepfake membuatkan penentuan sama ada satu-satu video itu merupakan suatu satira atau tulen semakin sukar.[41] Pengkaji AI, Alex Champandard, telah mengatakan bahawa orang ramai sepatutnya tahu betapa pantasnya sesuatau perkara itu boleh dicemarrosakkan oleh teknologi ini. Malahan masalah ini bukan hanya bersifat teknikal, bahkan merupakan permasalahan yang harus diselesaikan oleh kepercayaan dalam maklumat dan kewartawanan.[41] Masalah tersembunyi yang utama ialah kemeruduman manusia ke dalam zaman yang mana suatu kandungan itu telah sukar dikenal pasti kesahannya.[41]

Persamaan dengan perihal tersebut, Hao Li, seorang profesor madya sains komputer dari Universiti California Selatan menyatakan bahawa pemalsuan yang dicipta untuk kegunaan hasad (cth. berita palsu) akan menjadi lebih berbahaya jikalau tiada tindakan yang dilaksanakan untuk meningkatkan kesedaran masyarakat tentang teknologi ini.[55] Li membuat ramalan mengenai keadaan yang mana video tulen dan video deepfake tidak dapat dibezakan antara satu sama lain seawal setengah tahun kemudian, setakat Oktober 2019, lantaran kemajuan pesat kepintaran buatan dan grafik komputer.[55]

Tindak balas[sunting | sunting sumber]

Pengesanan[sunting | sunting sumber]

Kebanyakan kajian ilmiah berkenaan teknologi ini bertujuan mencari video yang terubah.[56] Kaedah yang paling terkenal ialah penggunaan algoritma yang mirip dengan algoritma yang digunakan untuk membangunkan deepfake sebagai kaedah pengesanannya.[56] Ketidaktekalan tidak ketara mampu dikenal pasti oleh algoritma melalui pengecaman corak penciptaan deepfake.[56] Pengkaji telah membangunkan sebuah sistem kendiri yang memeriksa video untuk mengenal pasti ralat-ralat seperti corak kedipan pencahayaan yang tidak teratur.[11] Kaedah ini juga telah menerima kritikan kerana mencipta keadaan "Gawang Gol Bergerak" iaitu semakin baik algoritma pengesanan berjalan, semakin baik pula palsuan sebegini mengelak pengesanan.[56] Cabaran Mengesan Pemalsuan Wajah (The Deepfake Detection Challenge) yang dianjurkan oleh campuran beberapa syarikat tekonologi terkemuka mempunyai harapan memacu teknologi pengenalpastian kandungan yang telah dimanipulasi.[8]

Kaedah lain menggunakan blok rantai untuk menentusahkan sumber bahantara.[57] Video perlu disahkan melalui sebuah lejar sebelum dipaparkan di pelantar media sosial.[57] Teknologi ini akan mengurangkan penyebaran bahantara ini dengan hanya meluluskan video daripada sumber yang dipercayai.[57]

Selebriti[sunting | sunting sumber]

Pelakon Amerika Syarikat Scarlett Johansson kerap menjadi sasaran bahan lucah diterapkan teknologi sedemikian bercakap secara umum mengenai hal tersebut dalam suatu lidah pengulas akhbar The Washington Post pada Disember 2018.[58] Dalam suatu kenyataan yang disediakannya, beliau meluahkan bahawa tidak akan ada cubaan menghapuskan mana-mana video yang diolah mempergunakan mukanya atas alasan imej umumnya tidak akan terjejas dan terdapat undang-undang merentas negara yang bercanggah di samping sifat budaya internet mengakibatkan apa-apa usaha yang dilakukan hanya akan mendatangkan kegagalan biarpun terdapat kebimbangan.[58] Beliau turut menyatakan kepercayaannya bahawa walaupun selebriti yang cukup terkenal sepertinya terlindung daripada ancaman deepfake, masih terdapat ancaman-ancaman bagi mereka yang kurang terkenal yang boleh dirosakkan maruah mereka oleh penggambaran rupa mereka dalam bahan lucah deepfake tanpa kebenaran atau pelucahan dendam.[58]

Tindak balas internet[sunting | sunting sumber]

Pada Februari 2018, Pornhub menyatakan bahawa sebarang video menerapkan pemalsuan ini akan diharamkan di tapaknya kerana video ini melibatkan “kandungan tanpa kebenaran” yang melanggar terma perkhidmatan.[59] Sebelum itu, Pornhub ada menyatakan kepada Mashable bahawa kandungan yang ditandai atau dilaporkan sebagai deepfake akan dialih keluar.[60] Penulis daripada Motherboard daripada Berita BuzzFeed melaporkan bahawa gelintaran “deepfakes” di Pornhub masih menunjukkan beberapa video terkini menggunakan pengolahan ini.[59]

Dalam bulan yang sama, wakil daripada Twitter menyatakan bahawa mereka akan menggantung akaun yang disyaki menghantar kandungan diolah muka tanpa kebenaran.[22] Tapak pengehosan GIF, Gfycat, dan tapak sembang, Discord, juga membuat perancangan untuk mengharamkan kandungan seumpama daripada pelantar masing-masing.[61] Di Reddit, subreddit r/deepfakes telah diharamkan pada 7 Februari 2018 kerana pelanggaran polisi "bahan lucah tanpa kebenaran".[62][63][64][65][66] Pada September 2018, Google menambah "imejan lucah tiruan tanpa kebenaran” ke dalam senarai pengharamannya untuk membenarkan sesiapa pun memohon penyekatan hasil carian yang memaparkan gambar bogel palsunya.[67]

Facebook ada menyatakan bahawa mereka tidak akan mengalih keluar teknologi ini daripada pelantar mereka.[68] Sebaliknya, video tersebut akan dilaporkan sebagai palsu oleh pihak ketiga dan dikurangkan keutamaannya dalam suapan pengguna.[69] Tindak balas ini dikeluarkan pada Jun 2019 apabila sebuah palsuan tulen memaparkan video Mark Zuckerberg pada tahun 2016 tersebar di Facebook dan Instagram.[68]

Tindak balas undang-undang[sunting | sunting sumber]

Di Amerika Syarikat, terdapat beberapa maklum balas mengenai masalah yang diakibatkan oleh teknologi ini. Pada tahun 2018, Akta Pelarangan Palsu Tulen Hasad (Malicious Deep Fake Prohibition Act) telah dikemukakan kepada Senat AS,[70] manakala pada tahun 2019, Akta Kebertanggungjawapan Deepfake (DEEPFAKES Accountability Act) telah dikemukakan kepada Dewan Perwakilan.[9] Beberapa negeri turut mengemukakan undang-undang berkenaan teknologi ini termasuk Virginia,[71] Texas, California, dan New York.[72] Pada 3 Oktober 2019, gabenor California, Gavin Newsom, menandatangani kelulusan rang undang-undang No. 602 dan No. 730.[73][74] Rang undang-undang No. 602 memberikan orang perseorangan yang menjadi sasaran kandungan deepfake seks yang eksplisit yang dihasilkan tanpa kebenarannya sebuah kuasa tindakan terhadap pencipta kandungan tersebut.[73] Rang undang-undang No. 730 melarang pengedaran bahantara audio atau video bersifat jahat yang menyasarkan seorang calon yang mempertandingkan jawatan awam dalam linkungan 60 hari pemilihannya.[74]

Di United Kingdom, pembikin bahantara ubu boleh didakwa atas sebab gangguan, namun terdapat juga permintaan menjadikan penghasilan deepfake ini suatu jenayah yang khusus;[75] di Amerika Syarikat pula, dakwaan ini selalunya dianggap dalam linkungan jenayah pencurian identiti, intai siber dan pelucahan dendam. Begitupun, terdapat usaha untuk membincangkan statut yang lebih tuntas.[67]

Rujukan[sunting | sunting sumber]

  1. ^ a b c d e Cole, Samantha (24 Januari 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. Dicapai pada 4 Mei 2019.
  2. ^ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (dalam bahasa Inggeris). Dicapai pada 14 November 2018.
  3. ^ a b c d PhD, Sven Charleer (2019-05-17). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  4. ^ "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (dalam bahasa Inggeris). 2018-02-20. Dicapai pada 2018-02-20.
  5. ^ "Experts fear face swapping tech could start an international showdown". The Outline (dalam bahasa Inggeris). Dicapai pada 2018-02-28.
  6. ^ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (dalam bahasa Inggeris). ISSN 0362-4331. Dicapai pada 2018-03-24.
  7. ^ "Adversarial Learning of Deepfakes in Accounting" (PDF). Arxiv.org (dalam bahasa Inggeris). Dicapai pada 2019-10-09.
  8. ^ a b "Join the Deepfake Detection Challenge (DFDC)". deepfakedetectionchallenge.ai. Dicapai pada 2019-11-08.
  9. ^ a b Clarke, Yvette D. (2019-06-28). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. Dicapai pada 2019-10-16.
  10. ^ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (dalam bahasa Inggeris). Dicapai pada 2018-02-20.
  11. ^ a b c Harwell, Drew (12 Jun 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  12. ^ Sanchez, Julian (8 Februari 2018). "Thanks to AI, the future of 'fake news' is being pioneered in homemade porn". NBC News (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  13. ^ a b c Porter, Jon (2019-09-02). "Another convincing deepfake app goes viral prompting immediate privacy backlash". The Verge (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  14. ^ a b Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360 – melalui ACM Digital Library.
  15. ^ a b Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (Julai 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13 – melalui ACM Digital Library.
  16. ^ a b c Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (Jun 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387–2395. doi:10.1109/CVPR.2016.262. ISBN 9781467388511.
  17. ^ a b Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (dalam bahasa Inggeris). Dicapai pada 2018-08-27.
  18. ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Dicapai pada 2018-08-27.
  19. ^ Haysom, Sam (31 Januari 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. Dicapai pada 4 April 2019.
  20. ^ Cole, Samantha (11 Disember 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. Dicapai pada 19 Disember 2018.
  21. ^ Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Dicapai pada 2018-02-20.
  22. ^ a b Cole, Samantha (2018-02-06). "Twitter Is the Latest Platform to Ban AI-Generated Porn". Vice (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  23. ^ a b Hathaway, Jay (8 Februari 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. Dicapai pada 22 Disember 2018.
  24. ^ "r/SFWdeepfakes". Reddit. Dicapai pada 12 Disember 2018.
  25. ^ "What is a Deepfake and How Are They Made?". Online Tech Tips (dalam bahasa Inggeris). 2019-05-23. Dicapai pada 2019-11-08.
  26. ^ Robertson, Adi (2018-02-11). "I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it". The Verge (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  27. ^ "Faceswap is the leading free and Open Source multi-platform Deepfakes software". 15 Oktober 2019 – melalui WordPress.
  28. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 Jun 2019 – melalui GitHub.
  29. ^ Pangburn, D. J. (2019-09-21). "You've been warned: Full body deepfakes are the next step in AI-based human mimicry". Fast Company (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  30. ^ Zucconi, Alan (2018-03-14). "Understanding the Technology Behind DeepFakes". Alan Zucconi (dalam bahasa Inggeris). Dicapai pada 8 November 2019-11-08. Check date values in: |access-date= (bantuan)
  31. ^ a b c d e Kan, C. E. (2018-12-10). "What The Heck Are VAE-GANs?". Medium (dalam bahasa Inggeris). Dicapai pada 2019-11-08.
  32. ^ a b "These New Tricks Can Outsmart Deepfake Videos—for Now". Wired (dalam bahasa Inggeris). ISSN 1059-1028. Dicapai pada 9 November 2019.
  33. ^ a b c Dickson, E. J.; Dickson, E. J. (2019-10-07). "Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars". Rolling Stone (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  34. ^ a b c Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (dalam bahasa Inggeris). Dicapai pada 2018-02-28.
  35. ^ Goggin, Benjamin. "From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big". Business Insider. Dicapai pada 2019-11-09.
  36. ^ Lee, Dave (2018-02-03). "'Fake porn' has serious consequences" (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  37. ^ Cole, Samantha (2018-06-19). "Gfycat's AI Solution for Fighting Deepfakes Isn't Working". Vice (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  38. ^ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason (26 Jun 2019). "This Horrifying App Undresses a Photo of Any Woman with a Single Click". Vice. Dicapai pada 2 Julai 2019.
  39. ^ Cox, Joseph (9 Julai 2019). "GitHub Removed Open Source Versions of DeepNude". Vice Media.
  40. ^ "pic.twitter.com/8uJKBQTZ0o". 27 Jun 2019.
  41. ^ a b c d "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03.
  42. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?".
  43. ^ Romano, Aja (18 April 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Dicapai pada 10 September 2018.
  44. ^ Swenson, Kyle (11 Januari 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (dalam bahasa Inggeris). Dicapai pada 11 Januari 2019.
  45. ^ "Faked Pelosi videos, slowed to make her appear drunk, spread across social media". Washington Post (dalam bahasa Inggeris). Dicapai pada 1 Julai 2019.
  46. ^ Rimer, Sara (11 September 2019). "Q&A: LAW's Danielle Citron Warns That Deepfake Videos Could Undermine the 2020 Election". BUToday. Boston University. Dicapai pada 11 September 2019.
  47. ^ Novak, Matt. "Bullshit Viral Videos of Nancy Pelosi Show Fake Content Doesn't Have to Be a Deepfake". Gizmodo. Dicapai pada 1 Julai 2019.
  48. ^ CNN, Donie O'Sullivan. "Congress to investigate deepfakes as doctored Pelosi video causes stir". CNN. Dicapai pada 2019-11-09.
  49. ^ "'Deepfakes' called new election threat, with no easy fix". AP NEWS. 2019-06-13. Dicapai pada 2019-11-10.
  50. ^ Kemp, Luke (2019-07-08). "In the age of deepfakes, could virtual actors put humans out of business?". The Guardian (dalam bahasa Inggeris). ISSN 0261-3077. Dicapai pada 2019-10-20.
  51. ^ Radulovic, Petrana (2018-10-17). "Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology". Polygon (dalam bahasa Inggeris). Dicapai pada 2019-10-20.
  52. ^ Winick, Erin. "How acting as Carrie Fisher's puppet made a career for Rogue One's Princess Leia". MIT Technology Review (dalam bahasa Inggeris). Dicapai pada 2019-10-20.
  53. ^ Statt, Nick (5 Sep 2019). "Thieves are now using AI deepfakes to trick companies into sending them money". Dicapai pada 13 Sep 2019.
  54. ^ a b Damiani, Jesse. "A Voice Deepfake Was Used To Scam A CEO Out Of $243,000". Forbes (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  55. ^ a b "Perfect Deepfake Tech Could Arrive Sooner Than Expected". www.wbur.org (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  56. ^ a b c d Manke|, Kara; 2019 (2019-06-18). "Researchers use facial quirks to unmask 'deepfakes'". Berkeley News (dalam bahasa Inggeris). Dicapai pada 2019-11-09. Missing |author2= (bantuan)CS1 maint: numeric names: authors list (link)
  57. ^ a b c "The Blockchain Solution to Our Deepfake Problems". Wired (dalam bahasa Inggeris). ISSN 1059-1028. Dicapai pada 2019-11-09.
  58. ^ a b c "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 2018-12-31. Dicapai pada 2019-06-19.
  59. ^ a b Cole, Samantha (2018-02-06). "Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual". Vice (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  60. ^ Gilmer, Damon Beres and Marcus. "A guide to 'deepfakes,' the internet's latest moral crisis". Mashable (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  61. ^ Ghoshal, Abhimanyu (2018-02-07). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  62. ^ Böhm, Markus (2018-02-07). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel Online. Dicapai pada 2019-11-09.
  63. ^ barbara.wimmer. "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". futurezone.at (dalam bahasa Jerman). Dicapai pada 2019-11-09.
  64. ^ online, heise. "Deepfakes: Auch Reddit verbannt Fake-Porn". heise online (dalam bahasa Jerman). Dicapai pada 2019-11-09.
  65. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". DER STANDARD (dalam bahasa Jerman). Dicapai pada 2019-11-09.
  66. ^ Robertson, Adi (2018-02-07). "Reddit bans 'deepfakes' AI porn communities". The Verge (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  67. ^ a b Harrell, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post. Dicapai pada 2019-01-01.
  68. ^ a b "Facebook has promised to leave up a deepfake video of Mark Zuckerberg". MIT Technology Review (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  69. ^ Cole, Samantha (2019-06-11). "This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies". Vice (dalam bahasa Inggeris). Dicapai pada 2019-11-09.
  70. ^ Sasse, Ben (2018-12-21). "S.3805 - 115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018". www.congress.gov. Dicapai pada 2019-10-16.
  71. ^ "'Deepfake' revenge porn is now illegal in Virginia". TechCrunch (dalam bahasa Inggeris). Dicapai pada 2019-10-16.
  72. ^ Brown, Nina Iacono (2019-07-15). "Congress Wants to Solve Deepfakes by 2020. That Should Worry Us". Slate Magazine (dalam bahasa Inggeris). Dicapai pada 2019-10-16.
  73. ^ a b "Bill Text - AB-602 Depiction of individual using digital or electronic technology: sexually explicit material: cause of action". leginfo.legislature.ca.gov. Dicapai pada 2019-11-09.
  74. ^ a b "Bill Text - AB-730 Elections: deceptive audio or visual media". leginfo.legislature.ca.gov. Dicapai pada 2019-11-09.
  75. ^ Call for upskirting bill to include 'deepfake' pornography ban The Guardian

Pautan luar[sunting | sunting sumber]