Baru-baru ini, hasil penelitian baru yang dipimpin oleh Kuaishou, “I2V-Adapter: A General Image-to-Video Adapter for Video Diffusion Models”, dirilis, yang memperkenalkan metode konversi gambar-ke-video yang inovatif dan mengusulkan modul adaptor ringan, yaitu I2V-Adapter, yang mengubah gambar statis menjadi video dinamis tanpa mengubah struktur asli dan parameter terlatih dari model text-to-video generation (T2V) yang ada.
Dibandingkan dengan metode yang ada, I2V-Adapter secara signifikan mengurangi parameter yang dapat dilatih (hingga 22M, yang merupakan solusi utama seperti Difusi Video Stabil [1][2] sebesar 1%), yang juga kompatibel dengan Difusi Stabil [3] Model T2I kustom yang dikembangkan komunitas (DreamBooth [4]Lora [5]) dan alat kontrol (ControlNet Kompatibilitas. Melalui eksperimen, para peneliti telah menunjukkan efektivitas I2V-Adapter dalam menghasilkan konten video berkualitas tinggi, membuka kemungkinan baru untuk aplikasi kreatif di bidang I2V.