Headline Artikel   2025/11/24 17:6 WIB

Linimasa Media Sosial Dibanjiri Video Kreasi Kecerdasan Buatan Alias AI

Linimasa Media Sosial Dibanjiri Video Kreasi Kecerdasan Buatan Alias AI
Peneliti kini tengah berupaya mencari cara yang lebih efektif dalam memverifikasi video buatan AI.

LINIMASA media sosial kita dibanjiri oleh banyak video kreasi kecerdasan buatan alias AI. Tapi, ada satu tanda yang bisa membantu kita mengenalinya.

Sudah berakhir. Kita akan tertipu. Mungkin kita sudah tertipu. Dalam enam bulan terakhir, generator video AI menjadi begitu canggih sehingga hubungan kita dengan kamera akan segera berubah.

Skenario terbaiknya: kita akan tertipu berulang kali hingga kita begitu jengkel dan meragukan setiap hal yang kita lihat. Selamat datang di masa depan.

Namun untuk saat ini, masih ada beberapa tanda peringatan yang perlu diwaspadai. Satu di antaranya tampak menonjol.

Jika kita melihat video dengan kualitas gambar buruk – seperti gambar yang buram dan kabur – itu bisa jadi tanda bahwa kita mungkin sedang menonton video buatan AI.

"Ini salah satu hal pertama yang kami periksa," kata Hany Farid, profesor ilmu komputer di University of California, Berkeley, pionir dalam bidang forensik digital, dan pendiri perusahaan deteksi deepfake GetReal Security.

Kenyataannya, alat pencipta video AI akan semakin baik, dan saran ini akan segera menjadi tidak berguna. Itu bisa terjadi dalam hitungan bulan, atau bisa juga butuh bertahun-tahun. Sulit untuk diprediksi. Maaf.

Tapi jika kita bersedia mendalami nuansanya sebentar, tips ini bisa menyelamatkan kita dari konten AI yang buruk hingga kita belajar untuk mengubah cara memandang hal yang faktual.

Tapi, ini bukan bukti. Video AI memang mungkin saja terlihat buruk, walau alat AI yang lebih canggih dapat menghasilkan klip yang indah dan rapi. Dan faktanya, klip berkualitas rendah tidak selalu dibuat oleh AI.

"Jika kita melihat sesuatu yang benar-benar berkualitas rendah, itu tidak berarti palsu. Itu tidak berarti ada niat jahat," kata Matthew Stamm, profesor dan kepala Laboratorium Multimedia dan Keamanan Informasi di Drexel University, AS.

Sebaliknya, intinya adalah video AI yang buram dan berpiksel rendah adalah yang lebih mungkin menipu kita, setidaknya untuk saat ini.

Ini sekaligus jadi peringatan untuk kita lebih waspada dan memeriksa lebih dalam apa yang kita tonton di media sosial.

"Generator teks-ke-video terkemuka seperti Veo [Google] dan Sora [OpenAI] masih menghasilkan sejumlah gambar yang tidak konsisten," kata Farid.

"Tapi bukan seperti jari berjumlah enam atau teks yang kacau. Lebih halus dari itu."

Bahkan model-model paling canggih saat ini sering menimbulkan masalah seperti tekstur kulit yang terlalu halus, pola rambut atau pakaian yang aneh dan berubah-ubah, bahkan objek latar belakang yang bergerak dengan tidak realistis.

Semua itu mudah terlewatkan. Tapi semakin jelas gambarnya, semakin besar kemungkinan kita melihat kesalahan AI yang mencolok.

Itulah yang membuat video berkualitas rendah begitu menggoda.

Misalnya, ketika kita meminta AI untuk membuat video yang terlihat seperti diambil dengan ponsel lama atau kamera keamanan, AI dapat menyembunyikan objek yang mungkin membuat orang curiga.

Dalam beberapa bulan terakhir, ada beberapa video AI viral yang menipu jutaan orang. Mereka semua memiliki kesamaan.

Sebuah video palsu tapi menggemaskan tentang kelinci liar melompat di trampolin mendapat lebih dari 240 juta penayangan di TikTok.

Jutaan orang lain yang romantis secara online menekan tombol suka pada klip dua orang jatuh cinta di kereta bawah tanah New York, hanya untuk menghadapi kekecewaan yang sama ketika ternyata video itu adalah ciptaan AI.

Saya pribadi tertipu oleh video viral seorang pendeta Amerika di gereja konservatif yang memberikan khotbah yang mengejutkan dengan pandangan kiri.

"Miliarder adalah satu-satunya minoritas yang harus kita takuti," dia berteriak dengan aksen selatan.

"Mereka memiliki kekuatan untuk menghancurkan negara ini!"

Saya terkejut.

Apakah batas-batas politik kita benar-benar sudah seburuk itu? Sebenarnya, tidak. Hanya saja ada lebih banyak video AI yang bisa mengaburkan pandangan kita.

Setiap video ini terlihat seolah-olah direkam dengan kamera berkualitas rendah.

Kelinci AI? Tampak seperti rekaman kamera cctv murah yang diambil pada malam hari.

Pasangan di kereta bawah tanah? Bertekstur piksel.

Pendeta imajiner itu? Video tersebut terlihat seperti diperbesar sedikit terlalu jauh. Dan ternyata video-video tersebut juga memiliki petunjuk lain.

"Tiga hal yang perlu diperhatikan adalah resolusi, kualitas, dan durasi," kata Farid. Durasi adalah yang paling mudah.

"Sebagian besar video AI sangat pendek, bahkan lebih pendek dari video biasa yang kita lihat di TikTok atau Instagram yang biasanya berdurasi 30 hingga 60 detik. Sebagian besar video yang diminta untuk diverifikasi berdurasi enam, delapan, atau 10 detik." 

Hal ini karena menghasilkan video AI mahal, jadi sebagian besar alat hanya mampu menghasilkan klip pendek.

Selain itu, semakin lama video, semakin besar kemungkinan AI membuat kesalahan.

"Kita bisa menggabungkan beberapa video AI, tapi kita akan melihat potongan setiap delapan detik atau lebih."

Dua faktor lainnya, resolusi dan kualitas, terkait tapi berbeda.

Resolusi mengacu pada jumlah atau ukuran piksel dalam gambar, sementara kompresi adalah proses yang mengurangi ukuran file video dengan menghilangkan detail, sering kali meninggalkan pola blok dan tepi yang buram.

Sebenarnya, Farid mengatakan bahwa video palsu berkualitas rendah begitu meyakinkan sehingga para penipu sengaja menurunkan kualitas karya mereka.

"Jika saya mencoba menipu orang, apa yang harus saya lakukan? Saya membuat video palsu, lalu mengurangi resolusinya sehingga masih bisa dilihat, tapi detail-detail kecilnya tidak terlihat. Kemudian saya menambahkan kompresi yang bisa menyamarkan objek apa pun," kata Farid.

"Ini adalah teknik yang umum."

Masalahnya adalah, saat kalian membaca ini, raksasa teknologi sedang menghabiskan miliaran dolar untuk membuat video AI semakin realistis.

"Saya punya kabar buruk untuk disampaikan. Jika tanda-tanda visual ini ada sekarang, mereka tidak akan bertahan lama," kata Stamm.

"Saya memperkirakan bahwa tanda-tanda visual ini akan hilang dari video AI dalam dua tahun ke depan, setidaknya yang jelas-jelas terlihat, karena mereka sudah hampir menghilang dari gambar yang dihasilkan AI. Imbasnya, kita tidak lagi bisa mempercayai mata kita."

Itu tidak berarti semua fakta hilang dari video. Ketika peneliti seperti Farid dan Stamm memverifikasi sebuah konten, mereka memiliki teknik yang lebih canggih.

"Ketika kita menghasilkan atau memodifikasi video, ada jejak statistik kecil yang tertinggal, yang tidak dapat dilihat mata kita. Analoginya seperti sidik jari di tempat kejadian perkara," kata Stamm.

"Kami melihat munculnya teknik yang dapat membantu mencari dan mengungkap jejak-jejak ini." 

Terkadang distribusi piksel dalam video palsu buatan AI mungkin berbeda dengan yang asli, misalnya, tapi faktor-faktor seperti ini tidak selalu dapat diandalkan.

Perusahaan teknologi juga sedang mengembangkan standar baru untuk memverifikasi informasi digital.

Pada dasarnya, kamera dapat menyisipkan informasi ke dalam file saat mereka menciptakan gambar untuk membantu membuktikan bahwa gambar tersebut asli.

Dengan cara yang sama, alat AI dapat secara otomatis menambahkan detail serupa ke video dan gambar mereka untuk membuktikan bahwa mereka palsu. Stamm dan lainnya mengatakan upaya ini dapat membantu.

Solusi sebenarnya, menurut ahli literasi digital Mike Caulfield, adalah kita harus mulai berpikir secara berbeda tentang apa yang kita lihat secara online.

Mencari petunjuk yang ditinggalkan AI bukanlah "saran yang tahan lama", karena petunjuk tersebut terus berubah, katanya. Sebaliknya, Caulfield mengatakan kita harus meninggalkan gagasan bahwa video atau gambar punya arti tertentu tanpa konteks.

"Pandangan saya adalah bahwa secara umum video akan menjadi seperti teks dalam jangka panjang, di mana asal-usul video [bukan fitur permukaan] akan menjadi yang paling penting, dan kita sebaiknya bersiap untuk itu," kata Caulfield.

Faktanya, kita tidak akan pernah membaca sepotong teks dan menganggapnya benar hanya karena seseorang menuliskannya.

Jika ada keraguan, kita akan menyelidiki sumber informasi tersebut.

Jika dulu video dan foto dianggap berbeda karena sulit dipalsukan atau dimanipulasi, kini itu sudah berlalu.

Yang penting sekarang adalah dari mana asal konten tersebut, siapa yang mengunggahnya, apa konteksnya, dan apakah telah diverifikasi oleh sumber yang terpercaya.

Pertanyaannya adalah kapan (atau apakah) kita semua akan memahami fakta tersebut.

"Jika saya boleh sedikit berlebihan, saya pikir ini adalah tantangan keamanan informasi terbesar abad ke-21," kata Stamm.

"Tapi masalah ini baru berusia beberapa tahun. Jumlah orang yang bekerja untuk mengatasinya relatif kecil tapi tumbuh dengan cepat. Kita akan membutuhkan kombinasi solusi, pendidikan, kebijakan cerdas, dan pendekatan teknologi yang bekerja bersama. Saya tidak siap untuk menyerah."

Tags : Linimasa, Media Sosial, Video Kreasi, Linimasa Dibanjiri Kecerdasan Buatan, AI,