This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیدهایم!
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
✨ مدل CauSight؛ مدل نوینی که علّیت را در تصویر کشف میکند 🧠📸
مدل CauSight نسل جدیدی از VLMهاست که میتواند رابطه علت و معلول را مستقیماً از داخل تصاویر استخراج کند.
این مدل بر پایه دیتاست VCG-32K و رویکردی جدید به نام Tree-of-Causal-Thought ساخته شده و توانسته عملکردی سهبرابر بهتر از GPT-4.1 در وظایف کشف علّیت بصری ثبت کند.
🔍 قابلیتها
استخراج روابط علّی بین اشیاء و رویدادها
استنتاج دلیل رخدادها، نه فقط توصیف تصویر
پشتیبانی کامل از وظایف visual causal reasoning
📄 لینکها:
• arXiv:
https://arxiv.org/abs/2512.01827
• PDF:
https://arxiv.org/pdf/2512.01827
• GitHub:
https://github.com/OpenCausaLab/CauSight
• مدل:
https://huggingface.co/OpenCausaLab/CauSight
• دیتاست:
https://huggingface.co/datasets/OpenCausaLab/VCG-32K
@rss_ai_ir
#CausalInference #VisualCausalDiscovery #AI #DeepLearning #VisionLanguageModels
مدل CauSight نسل جدیدی از VLMهاست که میتواند رابطه علت و معلول را مستقیماً از داخل تصاویر استخراج کند.
این مدل بر پایه دیتاست VCG-32K و رویکردی جدید به نام Tree-of-Causal-Thought ساخته شده و توانسته عملکردی سهبرابر بهتر از GPT-4.1 در وظایف کشف علّیت بصری ثبت کند.
🔍 قابلیتها
استخراج روابط علّی بین اشیاء و رویدادها
استنتاج دلیل رخدادها، نه فقط توصیف تصویر
پشتیبانی کامل از وظایف visual causal reasoning
📄 لینکها:
• arXiv:
https://arxiv.org/abs/2512.01827
• PDF:
https://arxiv.org/pdf/2512.01827
• GitHub:
https://github.com/OpenCausaLab/CauSight
• مدل:
https://huggingface.co/OpenCausaLab/CauSight
• دیتاست:
https://huggingface.co/datasets/OpenCausaLab/VCG-32K
@rss_ai_ir
#CausalInference #VisualCausalDiscovery #AI #DeepLearning #VisionLanguageModels
✨ مایسترال ۳ معرفی شد — نسل تازهای از مدلهای متنباز که روی هر سختافزاری اجرا میشوند!
شرکت Mistral AI خانوادهی جدید مدلهای هوش مصنوعی خود را منتشر کرد؛ مدلهایی که از لپتاپ و موبایل تا سرورهای ابری و سیستمهای Edge بدون محدودیت قابل استفادهاند.
تمام نسخهها—چه Mistral Large 3 و چه مدلهای سبک Ministral—با لایسنس Apache 2.0 ارائه شدهاند، یعنی استفادهی تجاری کاملاً آزاد است.
🔥 نکات مهم:
♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوقالعاده است.
♻️حال Mistral Medium 3.1 در LM Arena رتبههای برتر را کسب کرده:
♻️مقام اول در دسته English (بدون کنترل سبک)
♻️مقام دوم در رتبهبندی کلی
♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواستهای طولانی
♻️نسخه Medium به حدود ۹۰٪ کیفیت مدلهای سنگین میرسد، اما با مصرف سختافزاری بسیار کمتر — یکی از بهترین نسبتهای هزینه/کارایی در بازار فعلی.
📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3
@rss_ai_ir
#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
شرکت Mistral AI خانوادهی جدید مدلهای هوش مصنوعی خود را منتشر کرد؛ مدلهایی که از لپتاپ و موبایل تا سرورهای ابری و سیستمهای Edge بدون محدودیت قابل استفادهاند.
تمام نسخهها—چه Mistral Large 3 و چه مدلهای سبک Ministral—با لایسنس Apache 2.0 ارائه شدهاند، یعنی استفادهی تجاری کاملاً آزاد است.
🔥 نکات مهم:
♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوقالعاده است.
♻️حال Mistral Medium 3.1 در LM Arena رتبههای برتر را کسب کرده:
♻️مقام اول در دسته English (بدون کنترل سبک)
♻️مقام دوم در رتبهبندی کلی
♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواستهای طولانی
♻️نسخه Medium به حدود ۹۰٪ کیفیت مدلهای سنگین میرسد، اما با مصرف سختافزاری بسیار کمتر — یکی از بهترین نسبتهای هزینه/کارایی در بازار فعلی.
📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3
@rss_ai_ir
#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 جهانِ رباتیک دیگر از مرز تخیل عبور کرده است.
سالها شرکتهای بزرگ سعی میکردند رباتهای انساننما را سادهسازی کنند:
بدنهای هندسی، چهرههای کارتونی و حرکات خشک.
اما حالا فضا شبیه فیلم Blade Runner شده است — رباتهایی که نهتنها مثل انسانها کار میکنند، بلکه خیلی شبیه انسانها هم بهنظر میرسند.
توقف اصلی همیشه فنی نبود؛ مسئله اخلاقی و روانی بود:
آیا ما واقعاً آمادهایم کنار ماشینی زندگی کنیم که بیش از حد شبیه خودمان است؟
با این حال، پیشرفت جلو میرود.
سؤال دیگر «آیا اتفاق میافتد؟» نیست —
✨ سؤال «چه زمانی؟» است.
#رباتیک #هوش_مصنوعی #انسان_نما #AI #Robotics #FutureTech @rss_ai_ir
سالها شرکتهای بزرگ سعی میکردند رباتهای انساننما را سادهسازی کنند:
بدنهای هندسی، چهرههای کارتونی و حرکات خشک.
اما حالا فضا شبیه فیلم Blade Runner شده است — رباتهایی که نهتنها مثل انسانها کار میکنند، بلکه خیلی شبیه انسانها هم بهنظر میرسند.
توقف اصلی همیشه فنی نبود؛ مسئله اخلاقی و روانی بود:
آیا ما واقعاً آمادهایم کنار ماشینی زندگی کنیم که بیش از حد شبیه خودمان است؟
با این حال، پیشرفت جلو میرود.
سؤال دیگر «آیا اتفاق میافتد؟» نیست —
✨ سؤال «چه زمانی؟» است.
#رباتیک #هوش_مصنوعی #انسان_نما #AI #Robotics #FutureTech @rss_ai_ir
👍1
A [subject] crafted from layered hand-cut paper, with intricate folds and depth. Each layer reveals a different [color1] and [color2] tone, creating a 3D effect. Set inside a shadow box with soft directional lighting and a storytelling composition.hand-cut paper
👍1
💰 گوگل حالا ارزش یک شرکت ۴ تریلیون دلاری را دارد
شرکتی که تمام لایههای پشتهی هوش مصنوعی را در مالکیت خود دارد و آنها را در یک اکوسیستم واحد ترکیب میکند — از سیلیکون تا مدل، از داده تا توزیع.
🔹 لایه سختافزار (AI Silicon)
گوگل مدلهای خود را روی تراشههای اختصاصی TPU آموزش میدهد؛ یعنی برخلاف همهٔ شرکتهای دیگر، هزینهی گزاف کارتهای NVIDIA را پرداخت نمیکند.
این فقط حرف نیست — چون همین حالا Meta و Anthropic برای خرید میلیاردها دلار TPU در حال مذاکرهاند.
این یعنی استراتژی سختافزاری گوگل کاملاً جواب داده است.
🔹 لایه داده (AI Data Engine)
قدرتمندترین موتور دادهٔ بلادرنگ جهان در اختیار گوگل است:
Search، YouTube، Maps، Gmail، Chrome و Android.
هر حرکت کاربر، کیفیت مدلها را افزایش میدهد و این چرخه بهصورت خودکار مدل را هر روز بهتر میکند.
🔹 لایه مدل (AI Brain)
مدل Gemini 3 یک مدل در سطح فرانتیر است که کامل روی TPUهای گوگل آموزش دیده و اکنون در همهٔ سرویسها فعال است:
از موتور جستجو تا Cloud و YouTube.
برخلاف بدبینیها، هوش مصنوعی نه تنها ریسک نبود — بلکه روند رشد همهٔ سرویسها را بزرگتر کرد.
🔹 لایه توزیع (AI Network)
گوگل یک مزیت بیرقیب دارد:
میتواند یک قابلیت جدید را در یک روز به میلیاردها کاربر برساند.
از طریق Search، YouTube، Android، Chrome و Workspace.
هر بروزرسانی، مثل آپدیتی برای کل اینترنت عمل میکند.
📌 نتیجهٔ نهایی:
گوگل برنده شده است.
#Google #AI #Gemini #TPU #TechStrategy #Silicon #BigTech #Innovation @rss_ai_ir
شرکتی که تمام لایههای پشتهی هوش مصنوعی را در مالکیت خود دارد و آنها را در یک اکوسیستم واحد ترکیب میکند — از سیلیکون تا مدل، از داده تا توزیع.
🔹 لایه سختافزار (AI Silicon)
گوگل مدلهای خود را روی تراشههای اختصاصی TPU آموزش میدهد؛ یعنی برخلاف همهٔ شرکتهای دیگر، هزینهی گزاف کارتهای NVIDIA را پرداخت نمیکند.
این فقط حرف نیست — چون همین حالا Meta و Anthropic برای خرید میلیاردها دلار TPU در حال مذاکرهاند.
این یعنی استراتژی سختافزاری گوگل کاملاً جواب داده است.
🔹 لایه داده (AI Data Engine)
قدرتمندترین موتور دادهٔ بلادرنگ جهان در اختیار گوگل است:
Search، YouTube، Maps، Gmail، Chrome و Android.
هر حرکت کاربر، کیفیت مدلها را افزایش میدهد و این چرخه بهصورت خودکار مدل را هر روز بهتر میکند.
🔹 لایه مدل (AI Brain)
مدل Gemini 3 یک مدل در سطح فرانتیر است که کامل روی TPUهای گوگل آموزش دیده و اکنون در همهٔ سرویسها فعال است:
از موتور جستجو تا Cloud و YouTube.
برخلاف بدبینیها، هوش مصنوعی نه تنها ریسک نبود — بلکه روند رشد همهٔ سرویسها را بزرگتر کرد.
🔹 لایه توزیع (AI Network)
گوگل یک مزیت بیرقیب دارد:
میتواند یک قابلیت جدید را در یک روز به میلیاردها کاربر برساند.
از طریق Search، YouTube، Android، Chrome و Workspace.
هر بروزرسانی، مثل آپدیتی برای کل اینترنت عمل میکند.
📌 نتیجهٔ نهایی:
گوگل برنده شده است.
#Google #AI #Gemini #TPU #TechStrategy #Silicon #BigTech #Innovation @rss_ai_ir
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Vision Bridge Transformer at Scale —
خلاصه و معرفی
📌مدل Vision Bridge Transformer (ViBT) یک مدل بزرگمقیاس برای تولید شرطی (Conditional Generation) است.
این مدل برخلاف دیفیوژنها که فرآیند چندمرحلهای دارند، ورودی را بهصورت مستقیم به خروجی ترجمه میکند و به همین دلیل سریع، پایدار و مقیاسپذیر است.
🔍 ویژگیهای کلیدی:
♻️معماری جدید برای مدلسازی «trajectory» بین ورودی و خروجی
♻️مناسب برای ویرایش تصویر و ویدیو، تغییر سبک، بازسازی و تبدیلهای پیچیده
♻️مقیاسپذیر تا میلیاردها پارامتر
♻️کیفیت بالا در ویرایش صحنههای چندلایه و حفظ یکپارچگی بصری
📄 لینکها:
arXiv: https://arxiv.org/abs/2511.23199
PDF: https://arxiv.org/pdf/2511.23199
Project: https://yuanshi9815.github.io/ViBT_homepage/
GitHub: https://github.com/Yuanshi9815/ViBT
Demo Space: https://huggingface.co/spaces/Yuanshi/ViBT
==============================
@rss_ai_ir
#VisionTransformer #GenerativeAI #ComputerVision #DeepLearning #AI 🌟
خلاصه و معرفی
📌مدل Vision Bridge Transformer (ViBT) یک مدل بزرگمقیاس برای تولید شرطی (Conditional Generation) است.
این مدل برخلاف دیفیوژنها که فرآیند چندمرحلهای دارند، ورودی را بهصورت مستقیم به خروجی ترجمه میکند و به همین دلیل سریع، پایدار و مقیاسپذیر است.
🔍 ویژگیهای کلیدی:
♻️معماری جدید برای مدلسازی «trajectory» بین ورودی و خروجی
♻️مناسب برای ویرایش تصویر و ویدیو، تغییر سبک، بازسازی و تبدیلهای پیچیده
♻️مقیاسپذیر تا میلیاردها پارامتر
♻️کیفیت بالا در ویرایش صحنههای چندلایه و حفظ یکپارچگی بصری
📄 لینکها:
arXiv: https://arxiv.org/abs/2511.23199
PDF: https://arxiv.org/pdf/2511.23199
Project: https://yuanshi9815.github.io/ViBT_homepage/
GitHub: https://github.com/Yuanshi9815/ViBT
Demo Space: https://huggingface.co/spaces/Yuanshi/ViBT
==============================
@rss_ai_ir
#VisionTransformer #GenerativeAI #ComputerVision #DeepLearning #AI 🌟
⚡️ یک منبع فوقالعاده برای درک عمیق اجرای موازی روی GPU
اگر میخواهید بفهمید پردازنده گرافیکی واقعاً چطور کار میکند، مستندات NVIDIA PTX بهترین نقطه شروع است. این سند مدل اجرای سطحپایین GPU را توضیح میدهد:
♻️معماری اجرای دستورها
♻️سلسلهمراتب Thread ،Block و Warp
♻️نحوه مدیریت رجیسترها
♻️انواع حافظه در GPU و شیوه دسترسی به آنها
♻️بدون شناخت این مفاهیم، نوشتن کدهای پرفورمنس بالا با CUDA بسیار دشوار میشود.
♻️این منبع به شما کمک میکند بفهمید چرا کرنلهای GPU گاهی رفتار غیرمنتظره دارند و چطور باید کد را برای بیشترین سرعت و بازده بهینه کرد.
📘 لینک مستندات:
https://docs.nvidia.com/cuda/parallel-thread-execution
@rss_ai_ir
#GPU 🚀 #NVIDIA #CUDA #HighPerformanceComputing
اگر میخواهید بفهمید پردازنده گرافیکی واقعاً چطور کار میکند، مستندات NVIDIA PTX بهترین نقطه شروع است. این سند مدل اجرای سطحپایین GPU را توضیح میدهد:
♻️معماری اجرای دستورها
♻️سلسلهمراتب Thread ،Block و Warp
♻️نحوه مدیریت رجیسترها
♻️انواع حافظه در GPU و شیوه دسترسی به آنها
♻️بدون شناخت این مفاهیم، نوشتن کدهای پرفورمنس بالا با CUDA بسیار دشوار میشود.
♻️این منبع به شما کمک میکند بفهمید چرا کرنلهای GPU گاهی رفتار غیرمنتظره دارند و چطور باید کد را برای بیشترین سرعت و بازده بهینه کرد.
📘 لینک مستندات:
https://docs.nvidia.com/cuda/parallel-thread-execution
@rss_ai_ir
#GPU 🚀 #NVIDIA #CUDA #HighPerformanceComputing
This media is not supported in your browser
VIEW IN TELEGRAM
📅 امروز سوم دسامبر؛ روز جهانی سهبعدیکارها
✨ کمتر کسی میداند که از سال ۱۹۹۸، به پیشنهاد شرکت Alias، روز ۳ دسامبر را «روز سهبعدیکار» نامیدند؛ زمانی که هنوز Autodesk، Maya را نخریده بود و Maya تازه منتشر شده بود.
🎛️ اولین تجربه از 3D برای بسیاری از هنرمندان چیزی شبیه شوک بود:
مدلسازی، تکسچر، شیدینگ، نورپردازی، رندر… و در نهایت یک خروجی ضعیف پس از ساعتها تلاش. آن هم بدون انیمیشن!
کاری سخت، زمانبر و پر از دردسر.
اما همین مسیر سخت، نسل خاصی از ۳D-Artists را ساخت؛ هنرمندانی که با وجود تمام چالشها، عاشقانه به سراغ 3ds Max، Maya، Cinema4D و Houdini برمیگردند.
🔮 این دنیا همیشه شبیه نوعی کیمیاگری بوده: ترکیب هنر، ریاضیات، فیزیک و صبر… تا چیزی خلق شود که در مرز واقعیت و خیال قرار دارد.
📚 بعدها نویسنده این متن، کتاب «Pонимая Maya» را نوشت؛ کاری که قرار بود ۷ ماه طول بکشد، اما ۲ سال زمان برد و در نهایت در دو جلد و ۱۴۲۴ صفحه منتشر شد. چون دنیای سهبعدی را نمیتوان کوتاه توضیح داد؛ باید در آن غرق شد.
🎉 امروز، روز تمام کسانی است که این مسیر دشوار را رفتهاند؛
«همهی زندانیان و جانبازان 3D» که از عشق به این هنر دست نکشیدهاند.
🥂 و حالا تنها آرزو این است که هوش مصنوعی بخشی از این رنج و روتین را کم کند و مسیر رسیدن به تصویر نهایی را کوتاهتر و لذتبخشتر سازد.
@rss_ai_ir
#سه_بعدی #روز_سهبعدیکار #CGI #3DArtist #رویتکامپیوتری #هوش_مصنوعی #cg
✨ کمتر کسی میداند که از سال ۱۹۹۸، به پیشنهاد شرکت Alias، روز ۳ دسامبر را «روز سهبعدیکار» نامیدند؛ زمانی که هنوز Autodesk، Maya را نخریده بود و Maya تازه منتشر شده بود.
🎛️ اولین تجربه از 3D برای بسیاری از هنرمندان چیزی شبیه شوک بود:
مدلسازی، تکسچر، شیدینگ، نورپردازی، رندر… و در نهایت یک خروجی ضعیف پس از ساعتها تلاش. آن هم بدون انیمیشن!
کاری سخت، زمانبر و پر از دردسر.
اما همین مسیر سخت، نسل خاصی از ۳D-Artists را ساخت؛ هنرمندانی که با وجود تمام چالشها، عاشقانه به سراغ 3ds Max، Maya، Cinema4D و Houdini برمیگردند.
🔮 این دنیا همیشه شبیه نوعی کیمیاگری بوده: ترکیب هنر، ریاضیات، فیزیک و صبر… تا چیزی خلق شود که در مرز واقعیت و خیال قرار دارد.
📚 بعدها نویسنده این متن، کتاب «Pонимая Maya» را نوشت؛ کاری که قرار بود ۷ ماه طول بکشد، اما ۲ سال زمان برد و در نهایت در دو جلد و ۱۴۲۴ صفحه منتشر شد. چون دنیای سهبعدی را نمیتوان کوتاه توضیح داد؛ باید در آن غرق شد.
🎉 امروز، روز تمام کسانی است که این مسیر دشوار را رفتهاند؛
«همهی زندانیان و جانبازان 3D» که از عشق به این هنر دست نکشیدهاند.
🥂 و حالا تنها آرزو این است که هوش مصنوعی بخشی از این رنج و روتین را کم کند و مسیر رسیدن به تصویر نهایی را کوتاهتر و لذتبخشتر سازد.
@rss_ai_ir
#سه_بعدی #روز_سهبعدیکار #CGI #3DArtist #رویتکامپیوتری #هوش_مصنوعی #cg
An isometric 3D illustration of a miniature [subject]-themed world, filled with magical props, glowing elements in [color1] and [color2], and stylized terrain. Clean lines, flat shadows, and a pixel-diorama aesthetic.
❤2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 مدل ویدیویی Kling O1 حالا همهجا در دسترس است — حتی روی Fal.ai!
ورود Kling Omni (O1) به پلتفرمهای مختلف ادامه دارد و حالا Fal.ai هم همهی ماژولهای اصلی را فعال کرده.
لینکها برای تست مستقیم در Fal:
• Reference-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/reference-to-video/
• Image-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/image-to-video/
• Video-to-Video (Reference)
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/reference/
• Video Edit
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/edit/
بهنظر میرسد O1 بهسرعت در حال تبدیل شدن به استاندارد جدید ویدیو در اکوسیستم GenAI است.
@rss_ai_ir
#Kling #KlingO1 #AIVideo #GenAI #FalAI #ویدیو_هوش_مصنوعی #هوش_مصنوعی
ورود Kling Omni (O1) به پلتفرمهای مختلف ادامه دارد و حالا Fal.ai هم همهی ماژولهای اصلی را فعال کرده.
لینکها برای تست مستقیم در Fal:
• Reference-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/reference-to-video/
• Image-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/image-to-video/
• Video-to-Video (Reference)
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/reference/
• Video Edit
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/edit/
بهنظر میرسد O1 بهسرعت در حال تبدیل شدن به استاندارد جدید ویدیو در اکوسیستم GenAI است.
@rss_ai_ir
#Kling #KlingO1 #AIVideo #GenAI #FalAI #ویدیو_هوش_مصنوعی #هوش_مصنوعی
🔥2❤1👍1👏1
📌 خبر : OpenAGI مدل جدید Lux را منتشر کرد؛ یک جهش جدی در «کامپیوتریوز»
@rss_ai_ir
✨ در دنیای ایجنتهای کنترلکنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادلهای گوگل، OpenAI و Anthropic یک نسل جلوتر عمل میکند — آن هم با هزینه بسیار کمتر.
🔍 چرا Lux مهم است؟
⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا میشود؛ درحالیکه رقبا نزدیک ۳ ثانیه زمان نیاز دارند.
💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزانتر از سایر مدلهای کامپیوتریوز است.
🧠 معماری متفاوت: این مدل برخلاف ایجنتهایی که از یک LLM عمومی فاینتیون شدهاند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.
🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.
🛠 اوپنسورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعهدهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.
🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل میتواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدلهای تخصصی برای انجام اکشن باشد — آیندهای که مدتها انتظارش میرفت.
#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
@rss_ai_ir
✨ در دنیای ایجنتهای کنترلکنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادلهای گوگل، OpenAI و Anthropic یک نسل جلوتر عمل میکند — آن هم با هزینه بسیار کمتر.
🔍 چرا Lux مهم است؟
⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا میشود؛ درحالیکه رقبا نزدیک ۳ ثانیه زمان نیاز دارند.
💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزانتر از سایر مدلهای کامپیوتریوز است.
🧠 معماری متفاوت: این مدل برخلاف ایجنتهایی که از یک LLM عمومی فاینتیون شدهاند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.
🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.
🛠 اوپنسورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعهدهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.
🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل میتواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدلهای تخصصی برای انجام اکشن باشد — آیندهای که مدتها انتظارش میرفت.
#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
👍2🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
✌️ مدل جدید و پیشرفته برای تولید زبان اشاره ✌️
مدل Stable Signer بهعنوان یک SOTA در حوزه Sign Language Production (SLP) معرفی شده و ساختار این وظیفه را کاملاً بازتعریف میکند.
این مدل فرایند SLP را به یک سیستم سلسلهمراتبی end-to-end تبدیل کرده که تنها شامل سه بخش کلیدی است:
♻️درک متن (Prompt2Gloss و Text2Gloss)
♻️تولید حرکت بدن
♻️تبدیل پوژ به ویدیو (Pose2Vid)
✅این معماری باعث شده تولید زبان اشاره بسیار دقیقتر، یکپارچهتر و طبیعیتر انجام شود.
✅همچنین مخزن دادهها و ابزارها نیز بهصورت کامل ارائه شده است 💙
🔗 Paper: arxiv.org/pdf/2512.04048
🔗 Project: stablesigner.github.io/
🔗 Data: github.com/SignLLM/Prompt2Sign/tree/main/tools-new-2025
#AI #SLP #SignLanguage #GenerativeModels #DeepLearning @rss_ai_ir
مدل Stable Signer بهعنوان یک SOTA در حوزه Sign Language Production (SLP) معرفی شده و ساختار این وظیفه را کاملاً بازتعریف میکند.
این مدل فرایند SLP را به یک سیستم سلسلهمراتبی end-to-end تبدیل کرده که تنها شامل سه بخش کلیدی است:
♻️درک متن (Prompt2Gloss و Text2Gloss)
♻️تولید حرکت بدن
♻️تبدیل پوژ به ویدیو (Pose2Vid)
✅این معماری باعث شده تولید زبان اشاره بسیار دقیقتر، یکپارچهتر و طبیعیتر انجام شود.
✅همچنین مخزن دادهها و ابزارها نیز بهصورت کامل ارائه شده است 💙
🔗 Paper: arxiv.org/pdf/2512.04048
🔗 Project: stablesigner.github.io/
🔗 Data: github.com/SignLLM/Prompt2Sign/tree/main/tools-new-2025
#AI #SLP #SignLanguage #GenerativeModels #DeepLearning @rss_ai_ir