Cara mengenali video yang dihasilkan oleh kecerdasan buatan

Mohon maaf karena mengecewakan, namun jika Anda mencari daftar singkat cara yang mudah dikenali dan sangat mudah untuk mengenali video yang dihasilkan AI, Anda tidak akan menemukannya di sini. Masa-masa kecerdasan buatan Will Smith telah berakhir Dia makan spageti dengan sangat buruk. Kini kami memiliki alat yang dapat membuat video menarik dan realistis hanya dengan beberapa klik.

Saat ini, video yang dihasilkan AI masih merupakan metode yang relatif baru dibandingkan dengan teks, gambar, dan audio yang dihasilkan AI, karena mendapatkan semua detail dengan benar merupakan sebuah tantangan yang memerlukan banyak data berkualitas tinggi. “Tetapi tidak ada hambatan mendasar untuk mendapatkan data berkualitas lebih tinggi,” kata Siwei Liu, profesor ilmu komputer dan teknik di Universitas Buffalo di Universitas Negeri New York.

Artinya, Anda dapat mengharapkan peningkatan kualitas video yang dihasilkan AI dalam waktu dekat, menghilangkan artefak yang terlihat jelas — cacat atau ketidakakuratan — seperti wajah yang berubah bentuk dan objek yang berubah bentuk yang menjadi ciri kreasi AI saat ini. Kunci untuk mengidentifikasi video yang dihasilkan oleh AI (atau metode AI apa pun) adalah literasi AI. “Pahami itu [AI technologies] “AI sedang berkembang, dan memiliki gagasan dasar tentang ‘sesuatu yang saya lihat dapat diciptakan oleh AI’ lebih penting daripada sinyal individu, misalnya,” kata Liu, yang merupakan direktur Lab Media Forensik di UB.

Menavigasi web yang dilengkapi AI memerlukan penilaian online yang baik untuk mengenali kapan ada sesuatu yang mungkin rusak. Ini adalah pertahanan terbaik Anda agar tidak tertipu oleh deepfake AI, disinformasi, atau sekadar spam berkualitas rendah. Ini adalah keterampilan yang sulit untuk dikembangkan, karena setiap aspek dunia online berjuang untuk mendapatkan perhatian Anda. Tetapi Kabar baiknya adalah Anda dapat menyempurnakan naluri pendeteksian AI Anda.

“Dengan belajar [AI-generated images]“Kami pikir masyarakat dapat meningkatkan pengetahuan mereka tentang AI,” kata Nigar Kamali, ilmuwan peneliti kecerdasan buatan di Kellogg School of Management di Northwestern University, yang ikut menulis makalah tersebut. memandu Untuk memilih gambar yang dihasilkan oleh kecerdasan buatan. “Meskipun saya tidak melihat artefak apa pun [indicating AI-generation]“Otak saya langsung berpikir, ‘Oh, ada yang tidak beres,’” tambah Kamali, yang telah mempelajari ribuan gambar yang dihasilkan AI. “Bahkan jika saya tidak menemukan artefak itu, saya tidak dapat mengatakan dengan pasti apakah itu nyata, dan itulah yang kami inginkan.”

Apa yang harus dicari: Video penipuan vs. video teks-ke-gambar

Sebelum kita dapat mengidentifikasi video yang dihasilkan AI, kita harus membedakan jenis-jenisnya. Video yang dihasilkan AI umumnya terbagi dalam dua kategori berbeda: video penipuan dan video yang dihasilkan oleh model penerbitan teks-ke-gambar.

Video antikristus

Ini adalah video yang diedit dengan AI yang terdiri dari pertukaran wajah – yaitu seluruh wajah seseorang ditukar dengan wajah orang lain (biasanya selebriti atau politisi) dan dibuat untuk mengatakan sesuatu yang palsu – dan sinkronisasi bibir – yang mana mulut seseorang dimanipulasi dan secara halus digantikan dengan suara yang berbeda..

Video prank umumnya sangat meyakinkan, karena teknologinya sudah ada lebih lama dan didasarkan pada rekaman yang sudah ada, bukan membuat sesuatu dari awal. Ingat video penyelaman mendalam Tom Cruise beberapa tahun lalu yang menjadi viral karena begitu meyakinkan? Mereka berhasil karena penciptanya, Chris Omi, sangat mirip dengan Tom Cruise, bekerja dengan peniru profesional Tom Cruise, dan melakukan banyak pengeditan dengan cermat, menurut sebuah laporan. wawancara Dengan Omi dari tepi. Saat ini, ada banyak sekali aplikasi yang melakukan hal yang sama dan juga dapat – Sangat mengerikan – Sematkan audio dari klip audio pendek yang ditemukan pembuatnya secara online.

Namun, ada beberapa hal yang harus diperhatikan jika Anda mencurigai video palsu AI. Pertama, lihat format videonya. Video AI deepfake biasanya “difilmkan” dalam format kepala yang bisa berbicara, di mana Anda hanya dapat melihat kepala dan bahu pembicara, dengan lengannya tidak terlihat (lebih lanjut tentang itu sebentar lagi).

Untuk mengenali perubahan pada wajah, carilah noda atau noda di sekitar kontur wajah. “Anda biasanya melihat artefak ketika kepala bergerak miring ke arah kamera,” kata Hani Farid, pakar forensik digital dan profesor ilmu komputer di UC Berkeley. Adapun lengan dan tangan: “Jika tangan bergerak, atau ada sesuatu yang menutupi wajah, [the image] “Ini akan menjadi sedikit berantakan,” lanjut Fred. Perhatikan lengan dan tubuh untuk gerakan alami. “Jika yang Anda lihat hanyalah ini,” — pada panggilan Zoom kami, Fred menjaga lengannya tetap kaku dan menyamping — “dan orang tersebut tidak bergerak sama sekali, itu palsu.”

Kecepatan cahaya yang dapat dihaluskan

Jika Anda ragu tentang sinkronisasi bibir, fokuskan perhatian Anda pada mulut subjek — terutama gigi. Dalam kasus pemalsuan, “kami telah melihat orang-orang memiliki bentuk gigi yang tidak beraturan,” atau jumlah gigi yang berubah sepanjang video, kata Liu. Liu mengatakan tanda aneh lain yang harus diwaspadai adalah “goyangan bagian bawah” wajah. “Ada prosedur teknisnya, harus sama persis dengan wajah orang itu,” ujarnya. “Saat saya berbicara, saya banyak menggerakkan wajah saya, dan keselarasan itu, jika Anda memiliki sedikit ketidakakuratan di sana, mata manusia dapat mengetahuinya.” Hal ini memberikan efek lebih cair dan kenyal pada bagian bawah wajah.

Terkait deepfake AI, Aruna Sankaranarayanan, asisten peneliti di Laboratorium Ilmu Komputer dan Kecerdasan Buatan MIT, mengatakan bahwa minat terbesarnya bukanlah deepfake yang dilakukan politisi paling terkenal di dunia seperti Donald Trump atau Joe Biden, tetapi tokoh-tokoh penting yang mungkin tidak seperti itu. terkenal. “Pemalsuan yang datang dari mereka, memutarbalikkan beberapa fakta, ketika Anda sering kali tidak tahu seperti apa tampilan atau suaranya, adalah sesuatu yang sangat sulit untuk dibantah,” kata Sankaranarayanan, yang mengatakan. Fokus pekerjaan Tentang pemalsuan politik. Sekali lagi, di sinilah literasi AI berperan; Video seperti ini memerlukan penelitian untuk memverifikasi atau menyangkalnya.

Konversi teks menjadi video gambar

Lalu ada pendatang baru yang menarik: model penerbitan teks-ke-gambar yang menghasilkan video dari teks atau gambar. OpenAI membuat heboh ketika mengumumkan Sora, generator video bertenaga AI. Meskipun belum tersedia, video demo sudah cukup untuk membuat orang kagum dengan detailnya yang halus, fotorealisme yang jelas, dan pelacakan yang mulus, semuanya dengan perintah teks sederhana.

Sejak itu, banyak aplikasi lain bermunculan yang dapat mengubah meme favorit Anda menjadi GIF dan adegan fantasi yang terlihat seperti menghabiskan seluruh tim CGI dengan anggaran Disney. Pencipta Hollywood Wajar jika mereka marah atas maraknya model teks-ke-gambar, yang… Mereka kemungkinan besar akan dilatih untuk pekerjaan mereka Sekarang dia mengancam untuk menggantikannya.

Namun teknologinya belum ada, karena video Sora pun mungkin memerlukan pengeditan yang rumit dan memakan waktu. Video demo Sora terdiri dari serangkaian pengeditan cepat, karena teknologinya belum cukup baik untuk membuat video yang lebih panjang dan tanpa cacat. Jadi, Anda bisa memberikan perhatian khusus pada klip pendek: “Jika video berdurasi 10 detik, bersikaplah skeptis. Ada alasan mengapa video tersebut pendek,” kata Fred. “Pada dasarnya, text-to-video tidak dapat menghasilkan satu klip berdurasi satu menit,” lanjutnya, seraya menambahkan bahwa hal ini kemungkinan akan membaik dalam enam bulan ke depan.

Farid juga mengatakan untuk mencari “inkonsistensi temporal”, seperti “sebuah bangunan menambah cerita, atau mobil berubah warna, hal-hal yang secara fisik tidak mungkin dilakukan.” “Dan hal ini sering kali jauh dari pusat perhatian.” Jadi, fokuslah pada detail latar belakang. “Anda mungkin melihat benda-benda yang halus atau bengkok secara tidak wajar, atau ukuran seseorang berubah saat mereka berjalan di sekitar gedung,” kata Liu.

Kamali mengatakan untuk mencari “ketidakmungkinan sosial dan budaya” atau petunjuk konteks di mana realitas situasi tampaknya tidak masuk akal. “Anda tidak langsung melihat anekdotnya, tapi Anda merasa ada yang tidak beres – seperti foto Biden dan Obama mengenakan jas berwarna merah muda,” atau Paus mengenakan jaket puffer Balenciaga.

Terlepas dari petunjuk kontekstualnya, keberadaan artefak tersebut kemungkinan besar akan segera menurun. Wall Street bersedia bertaruh Miliaran dolar loteng. (Ini berarti kapitalisme ventura Tidak begitu tahu Untuk mendapatkan penilaian yang terjangkau terhadap startup teknologi berdasarkan bukti profitabilitas yang kuat.)

Pabrikan mungkin berubah, tetapi penilaian yang baik tetap ada.

Seperti yang dikatakan Fred kepada Mashable: “Bicaralah dengan saya enam bulan lagi dan ceritanya akan berubah.” Jadi, mengandalkan sinyal tertentu untuk memeriksa apakah suatu video dibuat oleh AI dapat membuat Anda mendapat masalah.

Penelitian Lyu pada tahun 2018 tentang menemukan video yang dihasilkan AI karena orang tidak berkedip dengan benar dipublikasikan secara luas di komunitas AI. Akibatnya, orang mulai mencari cacat pada bulu mata, namun seiring kemajuan teknologi, jumlah bulu mata alami pun bertambah. “Orang-orang mulai berpikir bahwa jika ada kedipan mata yang bagus, itu pasti bukan kedipan mata palsu, dan itulah bahayanya,” kata Liu. “Kami sebenarnya ingin meningkatkan kesadaran tetapi tidak terikat pada objek tertentu, karena artefak tersebut akan dimodifikasi.”

Bangun kesadaran akan sesuatu itu mungkin Liu mengatakan penciptaan kecerdasan buatan “akan memicu serangkaian tindakan.” “Verifikasi, siapa yang membagikan ini? Apakah orang ini dapat diandalkan? Apakah ada sumber lain yang terkait dengan cerita yang sama, dan apakah ini telah diverifikasi dengan cara lain? Saya rasa ini adalah tindakan penanggulangan yang paling efektif terhadap deepfake.”

Bagi Farid, mengidentifikasi video yang dihasilkan AI dan deepfake yang menyesatkan dimulai dari sumber informasi Anda. Mengambil Gambar dihasilkan oleh kecerdasan buatan yang beredar di media sosial pasca Badai Helen dan Badai Milton. Kebanyakan dari mereka jelas-jelas palsu, tetapi memiliki dampak emosional pada orang-orang. “Meski hal-hal tersebut kurang baik, bukan berarti tidak bisa menembus, bukan berarti tidak berdampak pada cara masyarakat menyerap informasi,” katanya.

Berhati-hatilah dalam menerima berita dari media sosial. “Kalau sebuah foto terlihat seperti clickbait, itu adalah clickbait,” kata Farid sebelum menambahkan bahwa itu semua tergantung pada literasi media. Pikirkan tentang siapa yang memposting video tersebut dan mengapa mereka membuatnya. “Anda tidak bisa hanya melihat sesuatu di Twitter dan berkata, ‘Oh, ini pasti benar, izinkan saya membagikannya.’”

Jika Anda ragu dengan konten yang dihasilkan AI, periksa sumber lain untuk melihat apakah mereka juga membagikannya, dan apakah semuanya terlihat sama. Seperti yang dikatakan Liu, “deepfake hanya terlihat nyata dari satu sudut.” Temukan sudut lain dari contoh yang dimaksud. Fred merekomendasikan situs seperti Snopes dan Politifact, yang mengungkap misinformasi dan disinformasi. Saat kita semua terus menavigasi lanskap AI yang berubah dengan cepat, sangatlah penting untuk mulai bekerja — dan percaya pada naluri Anda.

Topik
kecerdasan buatan



Sumber