Facebook dan Michigan State University telah mengungkapkan metode baru untuk mengidentifikasi gambar palsu yang dalam dan melacaknya kembali ke sumbernya. Atau, paling tidak, menelusuri kembali model generatif mana yang digunakan untuk membuat gambar. Sistem baru, menurut target laporan seputar pengungkapan, menggunakan teknik rekayasa balik yang kompleks. Khususnya, untuk mengidentifikasi pola di balik model AI yang digunakan untuk menghasilkan gambar palsu yang dalam.
Sistem ini bekerja dengan menjalankan gambar melalui Jaringan Estimasi Sidik Jari (FEN), untuk menguraikan pola — sidik jari — pada gambar tersebut. Sidik jari tersebut secara efektif dibangun dari serangkaian variabel yang diketahui dalam gambar palsu yang dalam. Dengan model generatif yang meninggalkan pola terukur dalam “besarnya sidik jari, sifat berulang, rentang frekuensi, dan respons frekuensi simetris”.
Dan, setelah memasukkan batasan tersebut kembali melalui FEN, metode ini dapat mendeteksi gambar mana yang dalam. palsu. Mereka kemudian diumpankan kembali melalui sistem untuk memisahkan gambar melalui “hyperparameters” yang disetel untuk memandu sistem mempelajari sendiri berbagai model generatif.
Ini masih dalam tahap awal, tetapi sudah selangkah lebih dekat untuk mengidentifikasi dan melacak gambar palsu yang dalam
Salah satu kemunduran besar pada iterasi sistem saat ini berfungsi untuk menyoroti bahwa ini masih merupakan teknologi baru. Itu sama sekali tidak siap untuk primetime. Yaitu, tidak dapat mendeteksi gambar palsu yang dibuat oleh model generatif yang belum dilatih. Dan ada banyak model seperti itu yang digunakan.
Terlebih lagi, ini sama sekali bukan metode final untuk mengidentifikasi gambar palsu yang dalam dari Facebook dan MSU. Tidak hanya tidak ada cara untuk memastikan bahwa setiap model generatif diperhitungkan. Tidak ada penelitian lain yang terkait dengan topik ini. Atau, paling tidak, tidak ada kumpulan data untuk dijadikan dasar perbandingan. Ringkasnya, tidak ada cara untuk mengetahui, dengan pasti, seberapa bagus model AI yang baru.
Tim di balik proyek ini menunjukkan bahwa ada “korelasi yang jauh lebih kuat dan umum antara gambar yang dihasilkan dan ruang penyematan hyperparameter arsitektur yang bermakna dan tipe fungsi kerugian.” Dan itu membandingkannya dengan vektor acak dengan panjang dan distribusi yang sama. Tapi itu didasarkan pada garis dasar yang dibuat sendiri.
Jadi, tanpa penelitian lebih lanjut, satu-satunya kesimpulan adalah model mendeteksi Gambar palsu buatan AI dan sumbernya lebih baik daripada tebakan langsung.
Apa gunanya ini?
Tujuan dari proyek ini, seperti yang disajikan oleh tim, adalah untuk menghasilkan cara untuk melacak gambar palsu yang dalam kembali ke sumbernya setelah mengidentifikasi mereka. Itu berpotensi membuat penegakan kebijakan dan aturan yang salah informasi lebih mudah. Khususnya, yang berkaitan dengan ke situs media sosial dan penyebaran misinformasi yang masih merajalela.