חברת stability.ai, שעומדת מאחורי הכלי המהפכני סטייבל דיפיוז’ן (Stable Diffusion) שיחררה ב-21.11.23 את Stable Video Diffusion ומכוונת היישר לפלח השוק של Pika, Runway ו-Gen2.
אז מה זה בעצם Stable Video Diffusion?
- מדובר בשני מודלי ווידאו ג’נרטיביים שמבוססים על Stable Diffusion. המודלים עדיין לא זמינים במלואם לציבור הרחב ופתוחים רק בגרסת preview (תצוגה מוקדמת).
- בלינק הבא תוכלו לקבל מידע נוסף בהודעה הרשמת שפרסמה החברה.
- בלינק הבא תמצאו את הקוד.
- בלינק הבא תמצאו את המודל הראשון: stabilityai/stable-video-diffusion-img2vid
- ובלינק הזה תמצאו את המודל השני: stabilityai/stable-video-diffusion-img2vid-xt
- המודל יכול להתאים למגוון משימות ושימושים (כמו יצירת מודלים תלת מימדיים המבוססים על דאטה של תמונות).
- הוא מופץ בצורה של שני מודלי image-to-video, המסוגלים לייצר עד 30 פריימים לשנייה (הראשון 24 פריימים 576×1024 והשני 14 פריימים 576×1024).
- בשלב זה המודל הוא למחקר בלבד ואינו מיועד ליישומים מעשיים. החברה מבקשת משוב ותובנות ממשתמשים כדי לשפר את המודל לקראת שחרורו הסופי. לדבריהם, ביצועי המודלים החדשים טובים משל פיקה וראנוויי וככל הנראה בימים הקרובים נראה ממשקים רשמיים מטעם החברה.
בינתיים, אם בא לכן להתנסות בכלי, תוכלו לעשות זאת באמצעות decoherence.
וכן, אם תהיתם – יש להם גם חבילה חינמית:
מוזמנים לצפות בסרטון מטה ולהתרשם מיכולות המודלים החדשים.