News

Harus Lebih Teliti, Video pun Kini Bisa Dimanipulasi Jadi Hoax!

[Foto: snopes.com]
Jika selama ini banyak berita berupa tulisan atau gambar yang dipelintir sedemikian rupa hingga menjadi berita palsu (hoax), maka sebentar lagi kita akan menyambut dunia informasi yang lebih ‘kejam’. Pasalnya, kini sudah ada alat teknologi yang bisa memanipulasi video dan audio, sehingga memungkinkan pembuatan cuplikan berita yang nyaris sempurna.

Salah satu penerapan teknologi tersebut adalah video pidato Obama palsu yang sedang viral saat ini. Proyek Synthesizing Obama dari Universitas Washington mengambil audio dari salah satu pidato Obama dan menggunakannya untuk memberikan narasi pada video lain yang berbeda sama sekali.

Pada zaman Photoshop, filter, dan media sosial, banyak dari kita terbiasa melihat gambar yang dimanipulasi. Misalnya, subjek menjadi lebih ramping dan halus. Namun kini, ada alat manipulasi video dan audio jenis baru.

Seiring kemajuan kecerdasan buatan (AI) dan komputer grafis, maka alat ini memungkinkan pembuatan sebuah video dengan narasi yang seolah-olah menjadi kebenaran dari ucapan si tokoh. Oleh karenanya, apa saja bisa dipelintir dan video akan sulit dikenali: Apakah asli atau palsu?

Baca Juga:  Microsoft Teams vs Slack, Pilih Mana?

Sejauh ini, sudah ada beberapa tim peneliti yang bekerja untuk menangkap dan menyatukan elemen visual dan audio yang berbeda dari perilaku manusia. Perangkat lunak yang dikembangkan di Stanford University ini mampu memanipulasi rekaman video orang-orang terkenal dan memungkinkan orang lain untuk berbicara meminjam gerak bibir tokoh tadi secara real time.


Face2Face menangkap ekspresi wajah orang kedua saat mereka berbicara di webcam. Lalu, mengubah gerakan tersebut secara langsung ke wajah orang di video asli. Tim peneliti mendemonstrasikan teknologinya dengan cara mengumpulkan video dari George W. Bush, Vladimir Putin, dan Donald Trump. Jadi, dengan Face2Face, kita bisa meminjam mulut tokoh terkenal atau selebriti.

Sementara itu, sebuah tim peneliti di University of Alabama di Birmingham sedang mengerjakan peniruan suara. Dengan 3-5 menit cuplikan suara korban—diambil secara langsung atau dari video YouTube atau acara lain—kita bisa menyatukan suara. Cara ini bisa menipu manusia maupun sistem keamanan biometrik suara seperti yang digunakan oleh beberapa bank dan smartphone.

Lalu, kita bisa berbicara melalui mikrofon dan perangkat lunak akan mengonversinya sehingga kata-kata tersebut terdengar seperti suara yang diucapkan oleh pemilik suara asli—entah itu melalui telepon atau di acara radio.

Baca Juga:  Ingin Melancong ke Amerika? Bersiaplah Ditanya Soal Akun Media Sosial

Di lain tempat, perusahaan rintisan asal Kanada, Lyrebird, juga sudah mengembangkan kemampuan serupa. Mereka mengklaim bahwa teknologi ini bisa digunakan untuk mengubah teks menjadi audiobook yang dibacakan oleh tokoh terkenal atau karakter tertentu dalam video games.

Walaupun sebenarnya niat mereka baik, namun teknologi voice-morphing yang dikombinasikan dengan teknologi face-morphing bisa digunakan untuk membuat pernyataan palsu yang meyakinkan seolah-olah ucapan tokoh masyarakat.

Memang, teknologi morphing belum sempurna. Ungkapan wajah dalam video bisa terlihat sedikit menyimpang atau tidak wajar. Selain itu, suaranya bisa sedikit terdengar seperti suara robot.

Tetap mengecek kebenaran konten video

Nah, seiring waktu dan penelitian yang berkelanjutan, kelak kita akan mencapai titik yang sangat sulit untuk mendeteksi konten hoax. Apalagi, masih ada segelintir orang yang sangat mudah menerima informasi tanpa mencari tahu kebenarannya.

Oleh karena itu, dengan adanya berita hoax yang tersebar melalui media sosial, maka penting bagi setiap orang atau lembaga yang berkaitan dengan media untuk memeriksa konten yang terlihat atau terdengar seperti asli tersebut.

Baca Juga:  Rambut dan Kuku Tetap Tumbuh Meski Sudah Meninggal: Fakta atau Mitos?

Ada berbagai cara yang bisa dilakukan untuk mengecek kebenaran tersebut. Misalnya, siapa yang berada di acara itu? Apakah cuaca sesuai dengan yang terjadi pada video itu? Anda juga bisa mengeceknya dengan melihat pencahayaan dan bayangan di video.