Diksia.com - Teknologi kecerdasan buatan generatif (generative AI) kini menjadi sorotan utama Microsoft, terlihat dari integrasinya pada berbagai perangkat lunak dan keras terbaru mereka.
Tak terkecuali, Microsoft baru saja memperkenalkan VASA-1, sebuah model pembelajaran mesin yang mampu mengubah gambar statis wajah seseorang menjadi video pendek yang realistis. Hebatnya lagi, video tersebut akan mengikuti rekaman audio yang diberikan.
Beberapa tahun lalu, karya yang dihasilkan generative AI masih mudah dikenali. Pada gambar statis, misalnya, jumlah jari pada tangan atau bahkan postur tubuh yang tidak natural menjadi petunjuk utama. Video buatan AI pun demikian, meski seringkali malah menjadi meme lucu.
Namun, laporan penelitian Microsoft menunjukkan tren yang mengkhawatirkan. Sifat “buatan” pada karya generative AI perlahan memudar. VASA-1, misalnya, mampu menganalisis perubahan nada dan tempo suara pada rekaman audio.
Berdasarkan analisis tersebut, VASA-1 kemudian menciptakan serangkaian gambar baru yang menampilkan mimik wajah yang sesuai dengan audio.
Deskripsi tersebut mungkin terdengar biasa saja. Namun, faktanya, beberapa contoh video yang dipublikasikan Microsoft terlihat sangat meyakinkan. Memang, tak semuanya sempurna.
Microsoft diduga hanya menampilkan hasil terbaik untuk mendemonstrasikan pencapaian mereka. Terutama pada video demonstrasi real-time, terlihat jelas bahwa VASA-1 masih perlu banyak perbaikan sebelum kita tak lagi bisa membedakan realitas dan dunia buatan komputer.
Meski begitu, kemampuan VASA-1 untuk beroperasi pada PC desktop (walaupun menggunakan RTX 4090) dan bukan superkomputer raksasa, memunculkan kekhawatiran baru.
Dengan akses ke perangkat lunak semacam ini, siapa saja berpotensi menciptakan deepfake yang sempurna. Microsoft sendiri mengakui hal tersebut dalam laporan penelitian mereka.
“Teknologi ini tidak dimaksudkan untuk menciptakan konten yang menyesatkan atau menipu. Namun, seperti teknik pembuatan konten lain, VASA-1 berpotensi disalahgunakan untuk pemalsuan identitas.
Kami menentang segala bentuk konten yang menyesatkan atau merugikan orang lain, dan kami tertarik untuk menggunakan teknologi ini untuk pengembangan deteksi pemalsuan.”
Inilah yang kemungkinan menjadi alasan Microsoft masih merahasiakan penelitian mereka. Namun, bisa diprediksi bahwa tak butuh waktu lama bagi pihak lain untuk tidak hanya mereplikasi, tetapi juga meningkatkan kemampuan VASA-1, dan berpotensi menggunakannya untuk tujuan jahat.
Di sisi lain, jika VASA-1 dapat dimanfaatkan untuk mendeteksi deepfake, apalagi jika dikemas dalam bentuk aplikasi desktop sederhana, maka ini bisa menjadi langkah maju yang signifikan. Sebuah langkah menjauh dari dunia di mana AI menjadi momok kehancuran.