This media is not supported in your browser
VIEW IN TELEGRAM
🎭 Puppeteer:
ریگ و انیمیت خودکار مدلهای سهبعدی
✅بالاخره رسید! 🔥 پروژهی Puppeteer میتونه یک مدل سهبعدی ساده (مثلاً در فرمت obj) رو بگیره و بهصورت خودکار ریگ اولیه بسازه:
🦴 اضافهکردن اسکلت
🎨 ساخت نقشههای وزن برای اسکینینگ
⛔️البته ریگ کامل (blendshapeهای اصلاحی، constraintها، deformها، inverse kinematics و …) اینجا وجود نداره.
اما نکته جالبتر: 🕹️
👉 این سیستم میتونه یک ویدیو مرجع حرکت رو بگیره و انیمیشن همون حرکت رو روی اسکلت منتقل کنه!
🔍 ابزارهای پشت پرده:
♻️Video-Depth-Anything
برای تخمین عمق
♻️CoTracker3
برای ترکینگ نقاط
♻️MagicArticulate, MeshAnything, RigNet, Michelangelo, AnyMole, Lab4D
برای بخش ریگینگ
📌 با وجود محدودیتها (مثل بحث زاویه دوربین و دقت پایین انیمیشن)، این پروژه یک گام مهم محسوب میشه: اتوماتیکسازی ریگ و اسکینینگ
🔗 جزئیات: صفحه پروژه
💻 کد: GitHub
@rss_ai_ir
#3D #Animation #Rigging #AI #OpenSource
ریگ و انیمیت خودکار مدلهای سهبعدی
✅بالاخره رسید! 🔥 پروژهی Puppeteer میتونه یک مدل سهبعدی ساده (مثلاً در فرمت obj) رو بگیره و بهصورت خودکار ریگ اولیه بسازه:
🦴 اضافهکردن اسکلت
🎨 ساخت نقشههای وزن برای اسکینینگ
⛔️البته ریگ کامل (blendshapeهای اصلاحی، constraintها، deformها، inverse kinematics و …) اینجا وجود نداره.
اما نکته جالبتر: 🕹️
👉 این سیستم میتونه یک ویدیو مرجع حرکت رو بگیره و انیمیشن همون حرکت رو روی اسکلت منتقل کنه!
🔍 ابزارهای پشت پرده:
♻️Video-Depth-Anything
برای تخمین عمق
♻️CoTracker3
برای ترکینگ نقاط
♻️MagicArticulate, MeshAnything, RigNet, Michelangelo, AnyMole, Lab4D
برای بخش ریگینگ
📌 با وجود محدودیتها (مثل بحث زاویه دوربین و دقت پایین انیمیشن)، این پروژه یک گام مهم محسوب میشه: اتوماتیکسازی ریگ و اسکینینگ
🔗 جزئیات: صفحه پروژه
💻 کد: GitHub
@rss_ai_ir
#3D #Animation #Rigging #AI #OpenSource
❤23🔥23👍20👏20🎉20😁14🥰13
🎬 انیمیشن تمامهوشمصنوعی OpenAI روی فرش قرمز کن!
سال آینده جشنواره کن ۲۰۲۶ شاهد یک اتفاق تاریخی خواهد بود: اولین فیلم انیمیشن بلند ساختهشده کاملاً با هوش مصنوعی به روی پرده میرود.
💰 بودجه؟ کمتر از ۳۰ میلیون دلار — بسیار ارزانتر از تولید انیمیشنهای معمولی، چون هزینهها بیشتر صرف صیقلدادن طراحی کاراکترها توسط هنرمندان و صداپیشگی بازیگران شده است.
🎥 اسم فیلم؟ Critterz (یا «هیولاچهها») — اسمی بامزه و کارتونی!
⏳ جشنواره کن در ماه مه ۲۰۲۶ شروع میشود و بلافاصله بعد از آن فیلم در سینماهای جهان اکران خواهد شد.
✨ بهنظر میرسد وقتش رسیده که هوش مصنوعی نهتنها فیلم بسازد، بلکه روی فرش قرمز هم بدرخشد. شاید حتی منتقدها هم شیفتهاش شوند!
@rss_ai_ir
#AI #Cinema #Cannes2026 #Critterz #Animation
سال آینده جشنواره کن ۲۰۲۶ شاهد یک اتفاق تاریخی خواهد بود: اولین فیلم انیمیشن بلند ساختهشده کاملاً با هوش مصنوعی به روی پرده میرود.
💰 بودجه؟ کمتر از ۳۰ میلیون دلار — بسیار ارزانتر از تولید انیمیشنهای معمولی، چون هزینهها بیشتر صرف صیقلدادن طراحی کاراکترها توسط هنرمندان و صداپیشگی بازیگران شده است.
🎥 اسم فیلم؟ Critterz (یا «هیولاچهها») — اسمی بامزه و کارتونی!
⏳ جشنواره کن در ماه مه ۲۰۲۶ شروع میشود و بلافاصله بعد از آن فیلم در سینماهای جهان اکران خواهد شد.
✨ بهنظر میرسد وقتش رسیده که هوش مصنوعی نهتنها فیلم بسازد، بلکه روی فرش قرمز هم بدرخشد. شاید حتی منتقدها هم شیفتهاش شوند!
@rss_ai_ir
#AI #Cinema #Cannes2026 #Critterz #Animation
👍26🥰19❤16👏15😁14🔥12🎉12🤔1👌1🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 علیبابا مدل جدید ویدیویی Wan 2.2 (14B Animate) را معرفی کرد
این مدل تازه برای انتقال حرکتها و انیمیشن روی شخصیتها یا حتی حذف کامل آنها از صحنه طراحی شده است. نکته جالب اینجاست که حرکات بسیار ظریف مثل تغییرات صورت، حالت لبها و حتی حرکت انگشتان نیز منتقل میشوند.
🔹 دو حالت اصلی عملکرد:
1️⃣ حالت انیمیشن – با دریافت یک تصویر و یک ویدیو مرجع، شخصیت موجود در تصویر را انیمیت میکند.
2️⃣ حالت جایگزینی – شخصیت صحنه را حذف کرده و شخصیت تصویر را بهطور طبیعی جایگزین میکند (همراه با تطبیق نور و محیط).
⚡️ تست سختافزاری:
روی RTX 4090 + 128GB RAM، ویدیو 832×480 با 16fps و 49 فریم در ~۵ دقیقه تولید شد (VRAM پر و ۶۰GB رم مصرف شد).
در رزولوشن 1280×720، پردازش ~۲ ساعت طول کشید، با مصرف رم تا 130GB؛ اما کیفیت بالاتر بود و حرکات انگشتان بهتر دیده میشدند.
🛠 ابزارها:
ComfyUI هماکنون وزنها را آماده کرده.
Kijai نیز ورکفلو و نسخهی GGUF برای دستگاههای با VRAM کمتر ارائه داده است.
📌 نکته: هنوز مشکلاتی مثل حذف شدن گوش گربه (!) یا قطع شدن برخی اندامها دیده میشود، اما با تنظیم پارامترها و محتوا قابل بهبود است.
👀 این مدل در آینده میتواند نقش مهمی در میکس ویدیو، انیمیشنسازی و تولید محتوای سینمایی داشته باشد. جامعهی مولتیمدیا حالا مشتاق است واکنشهای خلاقانه کاربران را ببیند.
🟩🔻
https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_WanAnimate_example_01.json
https://www.modelscope.cn/studios/Wan-AI/Wan2.2-Animate
@rss_ai_ir
#Alibaba #Wan22 #AIvideo #Animation #GenerativeAI
این مدل تازه برای انتقال حرکتها و انیمیشن روی شخصیتها یا حتی حذف کامل آنها از صحنه طراحی شده است. نکته جالب اینجاست که حرکات بسیار ظریف مثل تغییرات صورت، حالت لبها و حتی حرکت انگشتان نیز منتقل میشوند.
🔹 دو حالت اصلی عملکرد:
1️⃣ حالت انیمیشن – با دریافت یک تصویر و یک ویدیو مرجع، شخصیت موجود در تصویر را انیمیت میکند.
2️⃣ حالت جایگزینی – شخصیت صحنه را حذف کرده و شخصیت تصویر را بهطور طبیعی جایگزین میکند (همراه با تطبیق نور و محیط).
⚡️ تست سختافزاری:
روی RTX 4090 + 128GB RAM، ویدیو 832×480 با 16fps و 49 فریم در ~۵ دقیقه تولید شد (VRAM پر و ۶۰GB رم مصرف شد).
در رزولوشن 1280×720، پردازش ~۲ ساعت طول کشید، با مصرف رم تا 130GB؛ اما کیفیت بالاتر بود و حرکات انگشتان بهتر دیده میشدند.
🛠 ابزارها:
ComfyUI هماکنون وزنها را آماده کرده.
Kijai نیز ورکفلو و نسخهی GGUF برای دستگاههای با VRAM کمتر ارائه داده است.
📌 نکته: هنوز مشکلاتی مثل حذف شدن گوش گربه (!) یا قطع شدن برخی اندامها دیده میشود، اما با تنظیم پارامترها و محتوا قابل بهبود است.
👀 این مدل در آینده میتواند نقش مهمی در میکس ویدیو، انیمیشنسازی و تولید محتوای سینمایی داشته باشد. جامعهی مولتیمدیا حالا مشتاق است واکنشهای خلاقانه کاربران را ببیند.
🟩🔻
https://huggingface.co/Wan-AI/Wan2.2-Animate-14B
https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_WanAnimate_example_01.json
https://www.modelscope.cn/studios/Wan-AI/Wan2.2-Animate
@rss_ai_ir
#Alibaba #Wan22 #AIvideo #Animation #GenerativeAI
❤18👏13🔥12😁12👍10🎉10🥰9🙏1