This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ علیبابا با MoDA برگشت به صحنه!
یک معماری چندوجهی مبتنی بر Diffusion برای ساخت آواتارهای متحرک و talking head generation معرفی شده که کاملاً اپنسورس منتشر شده.
🔑 نکته جالب اینجاست که بعد از مدتها انتظار برای کد پروژههایی مثل EMO، بالاخره یک کد باز و آماده تست در اختیار داریم.
📌 پروژه: MoDA
📂 کد: GitHub
👀 در صفحهی پروژه دموهایی از مقالات قدیمی و جدید ترکیب شدهاند، و در بخش acknowledgements هم لیستی از منابع و پروژههای مرتبط مثل:
LivePortrait, EchoMimic, JoyVasa, Ditto, Open Facevid2vid, InsightFace, X-Pose, DiffPoseTalk, Hallo, wav2vec 2.0, Q-Align, Syncnet
⚡ نتیجه: یک فرصت عالی برای علاقهمندان به lip-sync و آواتارهای متحرک. کد را تست کنید، چون معلوم نیست همیشه در دسترس بماند!
#LipSync #MoDA #Alibaba #Diffusion
@rss_ai_ir
یک معماری چندوجهی مبتنی بر Diffusion برای ساخت آواتارهای متحرک و talking head generation معرفی شده که کاملاً اپنسورس منتشر شده.
🔑 نکته جالب اینجاست که بعد از مدتها انتظار برای کد پروژههایی مثل EMO، بالاخره یک کد باز و آماده تست در اختیار داریم.
📌 پروژه: MoDA
📂 کد: GitHub
👀 در صفحهی پروژه دموهایی از مقالات قدیمی و جدید ترکیب شدهاند، و در بخش acknowledgements هم لیستی از منابع و پروژههای مرتبط مثل:
LivePortrait, EchoMimic, JoyVasa, Ditto, Open Facevid2vid, InsightFace, X-Pose, DiffPoseTalk, Hallo, wav2vec 2.0, Q-Align, Syncnet
⚡ نتیجه: یک فرصت عالی برای علاقهمندان به lip-sync و آواتارهای متحرک. کد را تست کنید، چون معلوم نیست همیشه در دسترس بماند!
#LipSync #MoDA #Alibaba #Diffusion
@rss_ai_ir
👍6🔥5🥰5👏5🎉5😁4❤3
🪄 معرفی MagicTryOn؛ نسل تازهی ویدئو-پروبار مجازی 👗🎥
🔹 پروژهی MagicTryOn با بهرهگیری از Diffusion Transformer، امکان تغییر پوشاک روی ویدئو را فراهم میکند، بدون آنکه جزئیات لباس از بین برود.
✨ اجزای کلیدی:
✅مبتنی بر VideoX-Fun / Wan2.1-I2V-14B برای تولید ویدئو.
✅توصیف دقیق لباسها با کمک Qwen2.5-VL-7B-Instruct.
✅استفاده از ابزارهای مکمل مانند openpose و densepose برای هماهنگی بدن و لباس.
⚡️ دستاورد:
اگر به دنبال فاینتیون کردن WAN 2.1 برای پروبار مجازی بودید، این پروژه همان چیزی است که نیاز دارید.
📌 کد و جزئیات: GitHub
📖 پروژه: MagicTryOn
@rss_ai_ir
#هوش_مصنوعی #VirtualTryOn #Image2Video #Diffusion #Transformers #AIfashion
🔹 پروژهی MagicTryOn با بهرهگیری از Diffusion Transformer، امکان تغییر پوشاک روی ویدئو را فراهم میکند، بدون آنکه جزئیات لباس از بین برود.
✨ اجزای کلیدی:
✅مبتنی بر VideoX-Fun / Wan2.1-I2V-14B برای تولید ویدئو.
✅توصیف دقیق لباسها با کمک Qwen2.5-VL-7B-Instruct.
✅استفاده از ابزارهای مکمل مانند openpose و densepose برای هماهنگی بدن و لباس.
⚡️ دستاورد:
اگر به دنبال فاینتیون کردن WAN 2.1 برای پروبار مجازی بودید، این پروژه همان چیزی است که نیاز دارید.
📌 کد و جزئیات: GitHub
📖 پروژه: MagicTryOn
@rss_ai_ir
#هوش_مصنوعی #VirtualTryOn #Image2Video #Diffusion #Transformers #AIfashion
🥰104👍101🎉89❤87🔥86😁59👏56❤🔥19💯17🤩15😍12
This media is not supported in your browser
VIEW IN TELEGRAM
🌌 معرفی Mirage از تیم Decart.ai
این همون Mirage نیست که کار DynamicsLab بود! درواقع این مدل در ابتدا با نام MirageLSD: The First Live-Stream Diffusion AI Model معرفی شد.
⚡ ماجرا چیه؟
هر جریان ویدیویی (وبکم، ویدیوچت، تصویر بازی یا حتی صفحهنمایش) رو میگیره و در لحظه (با تأخیر کمتر از ۴۰ میلیثانیه) به هر دنیایی که بخواید تبدیل میکنه.
🎮 یعنی یه فیلتر زنده برای دنیاهاست: میتونید تصویر خودتون رو تبدیل کنید به انیمه، محیط گیم یا یه فضای فانتزی عجیب.
🔗 به نظر میاد Oasis هم فقط دموئی از همین Mirage باشه:
👉 Mirage
👉 Oasis
@rss_ai_ir
#هوش_مصنوعی #Mirage #Diffusion #Realtime #Oasis
این همون Mirage نیست که کار DynamicsLab بود! درواقع این مدل در ابتدا با نام MirageLSD: The First Live-Stream Diffusion AI Model معرفی شد.
⚡ ماجرا چیه؟
هر جریان ویدیویی (وبکم، ویدیوچت، تصویر بازی یا حتی صفحهنمایش) رو میگیره و در لحظه (با تأخیر کمتر از ۴۰ میلیثانیه) به هر دنیایی که بخواید تبدیل میکنه.
🎮 یعنی یه فیلتر زنده برای دنیاهاست: میتونید تصویر خودتون رو تبدیل کنید به انیمه، محیط گیم یا یه فضای فانتزی عجیب.
🔗 به نظر میاد Oasis هم فقط دموئی از همین Mirage باشه:
👉 Mirage
👉 Oasis
@rss_ai_ir
#هوش_مصنوعی #Mirage #Diffusion #Realtime #Oasis
😁8❤5👍5🔥5🎉4👏1
This media is not supported in your browser
VIEW IN TELEGRAM
👔 LucidFlux:
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
👏4❤1👍1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
✂️👩🦱 کنترل واقعگرایانه مو با AI 👩🦱✂️
تیم پژوهشی CONTROLHAIR یک فریمورک هیبریدی معرفی کرده که شبیهساز فیزیک را با ویدئو دیفیوشن شرطی ترکیب میکند تا رندر موهای متحرک واقعی و قابلکنترل ممکن شود.
✨ ویژگیها:
♻️ترکیب فیزیک و دیفیوشن برای بازنمایی دقیق حرکات مو
♻️امکان کنترلپذیری بالا در شبیهسازی
♻️نسل جدید رندر مو برای فیلم، بازی و متاورس
📖 منابع:
🔗 Paper
🔗 Project
@rss_ai_ir
#AI #Diffusion #HairSimulation #ComputerGraphics #CONTROLHAIR
@rss_ai_ir
تیم پژوهشی CONTROLHAIR یک فریمورک هیبریدی معرفی کرده که شبیهساز فیزیک را با ویدئو دیفیوشن شرطی ترکیب میکند تا رندر موهای متحرک واقعی و قابلکنترل ممکن شود.
✨ ویژگیها:
♻️ترکیب فیزیک و دیفیوشن برای بازنمایی دقیق حرکات مو
♻️امکان کنترلپذیری بالا در شبیهسازی
♻️نسل جدید رندر مو برای فیلم، بازی و متاورس
📖 منابع:
🔗 Paper
🔗 Project
@rss_ai_ir
#AI #Diffusion #HairSimulation #ComputerGraphics #CONTROLHAIR
@rss_ai_ir