VIRSUN
7.19K subscribers
1.45K photos
819 videos
5 files
908 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیده‌ایم!

در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر می‌کند؟» — این بهترین و دقیق‌ترین بصری‌سازی از فرایند محاسباتی یک LLM است. یک پرواز سه‌بعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.

چه چیزی را می‌بینیم؟

هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.

هر لایه دقیقاً نشان می‌دهد که چه عملی انجام می‌شود:
Attention, Projection, Normalization, MLP

با کلیک روی پنل سمت راست می‌توانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی می‌رود.

تجربه‌اش مثل این است که داخل یک فکر قدم می‌زنید.


و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیل‌های پی‌درپی، تنسورها و لایه‌هایی که معنا را شکل می‌دهند.

⚪️ @rss_ai_ir

#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
مدل CauSight؛ مدل نوینی که علّیت را در تصویر کشف می‌کند 🧠📸

مدل CauSight نسل جدیدی از VLMهاست که می‌تواند رابطه علت و معلول را مستقیماً از داخل تصاویر استخراج کند.
این مدل بر پایه دیتاست VCG-32K و رویکردی جدید به نام Tree-of-Causal-Thought ساخته شده و توانسته عملکردی سه‌برابر بهتر از GPT-4.1 در وظایف کشف علّیت بصری ثبت کند.

🔍 قابلیت‌ها

استخراج روابط علّی بین اشیاء و رویدادها

استنتاج دلیل رخدادها، نه فقط توصیف تصویر

پشتیبانی کامل از وظایف visual causal reasoning


📄 لینک‌ها:
• arXiv:
https://arxiv.org/abs/2512.01827
• PDF:
https://arxiv.org/pdf/2512.01827
• GitHub:
https://github.com/OpenCausaLab/CauSight
• مدل:
https://huggingface.co/OpenCausaLab/CauSight
• دیتاست:
https://huggingface.co/datasets/OpenCausaLab/VCG-32K

@rss_ai_ir

#CausalInference #VisualCausalDiscovery #AI #DeepLearning #VisionLanguageModels
مایسترال ۳ معرفی شد — نسل تازه‌ای از مدل‌های متن‌باز که روی هر سخت‌افزاری اجرا می‌شوند!

شرکت Mistral AI خانواده‌ی جدید مدل‌های هوش مصنوعی خود را منتشر کرد؛ مدل‌هایی که از لپ‌تاپ و موبایل تا سرورهای ابری و سیستم‌های Edge بدون محدودیت قابل استفاده‌اند.

تمام نسخه‌ها—چه Mistral Large 3 و چه مدل‌های سبک Ministral—با لایسنس Apache 2.0 ارائه شده‌اند، یعنی استفاده‌ی تجاری کاملاً آزاد است.

🔥 نکات مهم:

♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوق‌العاده است.

♻️حال Mistral Medium 3.1 در LM Arena رتبه‌های برتر را کسب کرده:

♻️مقام اول در دسته English (بدون کنترل سبک)

♻️مقام دوم در رتبه‌بندی کلی

♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواست‌های طولانی


♻️نسخه Medium به حدود ۹۰٪ کیفیت مدل‌های سنگین می‌رسد، اما با مصرف سخت‌افزاری بسیار کمتر — یکی از بهترین نسبت‌های هزینه/کارایی در بازار فعلی.


📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3

@rss_ai_ir

#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 جهانِ رباتیک دیگر از مرز تخیل عبور کرده است.
سال‌ها شرکت‌های بزرگ سعی می‌کردند ربات‌های انسان‌نما را ساده‌سازی کنند:
بدن‌های هندسی، چهره‌های کارتونی و حرکات خشک.

اما حالا فضا شبیه فیلم Blade Runner شده است — ربات‌هایی که نه‌تنها مثل انسان‌ها کار می‌کنند، بلکه خیلی شبیه انسان‌ها هم به‌نظر می‌رسند.

توقف اصلی همیشه فنی نبود؛ مسئله اخلاقی و روانی بود:
آیا ما واقعاً آماده‌ایم کنار ماشینی زندگی کنیم که بیش از حد شبیه خودمان است؟

با این حال، پیشرفت جلو می‌رود.
سؤال دیگر «آیا اتفاق می‌افتد؟» نیست —
سؤال «چه زمانی؟» است.

#رباتیک #هوش_مصنوعی #انسان_نما #AI #Robotics #FutureTech @rss_ai_ir
👍1
A [subject] crafted from layered hand-cut paper, with intricate folds and depth. Each layer reveals a different [color1] and [color2] tone, creating a 3D effect. Set inside a shadow box with soft directional lighting and a storytelling composition.hand-cut paper
👍1
💰 گوگل حالا ارزش یک شرکت ۴ تریلیون دلاری را دارد

شرکتی که تمام لایه‌های پشته‌ی هوش مصنوعی را در مالکیت خود دارد و آن‌ها را در یک اکوسیستم واحد ترکیب می‌کند — از سیلیکون تا مدل، از داده تا توزیع.

🔹 لایه سخت‌افزار (AI Silicon)
گوگل مدل‌های خود را روی تراشه‌های اختصاصی TPU آموزش می‌دهد؛ یعنی برخلاف همهٔ شرکت‌های دیگر، هزینه‌ی گزاف کارت‌های NVIDIA را پرداخت نمی‌کند.
این فقط حرف نیست — چون همین حالا Meta و Anthropic برای خرید میلیاردها دلار TPU در حال مذاکره‌اند.
این یعنی استراتژی سخت‌افزاری گوگل کاملاً جواب داده است.

🔹 لایه داده (AI Data Engine)
قدرتمندترین موتور دادهٔ بلادرنگ جهان در اختیار گوگل است:
Search، YouTube، Maps، Gmail، Chrome و Android.
هر حرکت کاربر، کیفیت مدل‌ها را افزایش می‌دهد و این چرخه به‌صورت خودکار مدل را هر روز بهتر می‌کند.

🔹 لایه مدل (AI Brain)
مدل Gemini 3 یک مدل در سطح فرانتیر است که کامل روی TPUهای گوگل آموزش دیده و اکنون در همهٔ سرویس‌ها فعال است:
از موتور جستجو تا Cloud و YouTube.
برخلاف بدبینی‌ها، هوش مصنوعی نه تنها ریسک نبود — بلکه روند رشد همهٔ سرویس‌ها را بزرگ‌تر کرد.

🔹 لایه توزیع (AI Network)
گوگل یک مزیت بی‌رقیب دارد:
می‌تواند یک قابلیت جدید را در یک روز به میلیاردها کاربر برساند.
از طریق Search، YouTube، Android، Chrome و Workspace.
هر بروزرسانی، مثل آپدیتی برای کل اینترنت عمل می‌کند.

📌 نتیجهٔ نهایی:
گوگل برنده شده است.

#Google #AI #Gemini #TPU #TechStrategy #Silicon #BigTech #Innovation @rss_ai_ir
This media is not supported in your browser
VIEW IN TELEGRAM
Vision Bridge Transformer at Scale —
خلاصه و معرفی

📌مدل Vision Bridge Transformer (ViBT) یک مدل بزرگ‌مقیاس برای تولید شرطی (Conditional Generation) است.
این مدل برخلاف دیفیوژن‌ها که فرآیند چندمرحله‌ای دارند، ورودی را به‌صورت مستقیم به خروجی ترجمه می‌کند و به همین دلیل سریع، پایدار و مقیاس‌پذیر است.

🔍 ویژگی‌های کلیدی:

♻️معماری جدید برای مدل‌سازی «trajectory» بین ورودی و خروجی

♻️مناسب برای ویرایش تصویر و ویدیو، تغییر سبک، بازسازی و تبدیل‌های پیچیده

♻️مقیاس‌پذیر تا میلیاردها پارامتر

♻️کیفیت بالا در ویرایش صحنه‌های چندلایه و حفظ یکپارچگی بصری


📄 لینک‌ها:

arXiv: https://arxiv.org/abs/2511.23199

PDF: https://arxiv.org/pdf/2511.23199

Project: https://yuanshi9815.github.io/ViBT_homepage/

GitHub: https://github.com/Yuanshi9815/ViBT

Demo Space: https://huggingface.co/spaces/Yuanshi/ViBT


==============================
@rss_ai_ir

#VisionTransformer #GenerativeAI #ComputerVision #DeepLearning #AI 🌟
⚡️ یک منبع فوق‌العاده برای درک عمیق اجرای موازی روی GPU

اگر می‌خواهید بفهمید پردازنده‌ گرافیکی واقعاً چطور کار می‌کند، مستندات NVIDIA PTX بهترین نقطه شروع است. این سند مدل اجرای سطح‌پایین GPU را توضیح می‌دهد:

♻️معماری اجرای دستورها

♻️سلسله‌مراتب Thread ،Block و Warp

♻️نحوه مدیریت رجیسترها

♻️انواع حافظه‌ در GPU و شیوه دسترسی به آن‌ها


♻️بدون شناخت این مفاهیم، نوشتن کدهای پرفورمنس بالا با CUDA بسیار دشوار می‌شود.
♻️این منبع به شما کمک می‌کند بفهمید چرا کرنل‌های GPU گاهی رفتار غیرمنتظره دارند و چطور باید کد را برای بیشترین سرعت و بازده بهینه کرد.

📘 لینک مستندات:
https://docs.nvidia.com/cuda/parallel-thread-execution

@rss_ai_ir
#GPU 🚀 #NVIDIA #CUDA #HighPerformanceComputing
This media is not supported in your browser
VIEW IN TELEGRAM
📅 امروز سوم دسامبر؛ روز جهانی سه‌بعدی‌کارها

کمتر کسی می‌داند که از سال ۱۹۹۸، به پیشنهاد شرکت Alias، روز ۳ دسامبر را «روز سه‌بعدی‌کار» نامیدند؛ زمانی که هنوز Autodesk، Maya را نخریده بود و Maya تازه منتشر شده بود.

🎛️ اولین تجربه از 3D برای بسیاری از هنرمندان چیزی شبیه شوک بود:
مدل‌سازی، تکسچر، شیدینگ، نورپردازی، رندر… و در نهایت یک خروجی ضعیف پس از ساعت‌ها تلاش. آن هم بدون انیمیشن!
کاری سخت، زمان‌بر و پر از دردسر.

اما همین مسیر سخت، نسل خاصی از ۳D-Artists را ساخت؛ هنرمندانی که با وجود تمام چالش‌ها، عاشقانه به سراغ 3ds Max، Maya، Cinema4D و Houdini برمی‌گردند.
🔮 این دنیا همیشه شبیه نوعی کیمیاگری بوده: ترکیب هنر، ریاضیات، فیزیک و صبر… تا چیزی خلق شود که در مرز واقعیت و خیال قرار دارد.

📚 بعدها نویسنده این متن، کتاب «Pонимая Maya» را نوشت؛ کاری که قرار بود ۷ ماه طول بکشد، اما ۲ سال زمان برد و در نهایت در دو جلد و ۱۴۲۴ صفحه منتشر شد. چون دنیای سه‌بعدی را نمی‌توان کوتاه توضیح داد؛ باید در آن غرق شد.

🎉 امروز، روز تمام کسانی است که این مسیر دشوار را رفته‌اند؛
«همه‌ی زندانیان و جانبازان 3D» که از عشق به این هنر دست نکشیده‌اند.

🥂 و حالا تنها آرزو این است که هوش مصنوعی بخشی از این رنج و روتین را کم کند و مسیر رسیدن به تصویر نهایی را کوتاه‌تر و لذت‌بخش‌تر سازد.

@rss_ai_ir
#سه_بعدی #روز_سه‌بعدی‌کار #CGI #3DArtist #رویت‌کامپیوتری #هوش_مصنوعی #cg
An isometric 3D illustration of a miniature [subject]-themed world, filled with magical props, glowing elements in [color1] and [color2], and stylized terrain. Clean lines, flat shadows, and a pixel-diorama aesthetic.
2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 مدل ویدیویی Kling O1 حالا همه‌جا در دسترس است — حتی روی Fal.ai!

ورود Kling Omni (O1) به پلتفرم‌های مختلف ادامه دارد و حالا Fal.ai هم همه‌ی ماژول‌های اصلی را فعال کرده.


لینک‌ها برای تست مستقیم در Fal:
• Reference-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/reference-to-video/
• Image-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/image-to-video/
• Video-to-Video (Reference)
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/reference/
• Video Edit
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/edit/

به‌نظر می‌رسد O1 به‌سرعت در حال تبدیل شدن به استاندارد جدید ویدیو در اکوسیستم GenAI است.

@rss_ai_ir

#Kling #KlingO1 #AIVideo #GenAI #FalAI #ویدیو_هوش_مصنوعی #هوش_مصنوعی
🔥21👍1👏1
📌 خبر : OpenAGI مدل جدید Lux را منتشر کرد؛ یک جهش جدی در «کامپیوتر‌یوز»
@rss_ai_ir

در دنیای ایجنت‌های کنترل‌کنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادل‌های گوگل، OpenAI و Anthropic یک نسل جلوتر عمل می‌کند — آن هم با هزینه بسیار کمتر.

🔍 چرا Lux مهم است؟

⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا می‌شود؛ درحالی‌که رقبا نزدیک ۳ ثانیه زمان نیاز دارند.

💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزان‌تر از سایر مدل‌های کامپیوتر‌یوز است.

🧠 معماری متفاوت: این مدل برخلاف ایجنت‌هایی که از یک LLM عمومی فاین‌تیون شده‌اند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.

🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.

🛠 اوپن‌سورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعه‌دهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.


🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل می‌تواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدل‌های تخصصی برای انجام اکشن باشد — آینده‌ای که مدت‌ها انتظارش می‌رفت.

#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
👍2🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
✌️ مدل جدید و پیشرفته برای تولید زبان اشاره ✌️
مدل Stable Signer به‌عنوان یک SOTA در حوزه Sign Language Production (SLP) معرفی شده و ساختار این وظیفه را کاملاً بازتعریف می‌کند.

این مدل فرایند SLP را به یک سیستم سلسله‌مراتبی end-to-end تبدیل کرده که تنها شامل سه بخش کلیدی است:

♻️درک متن (Prompt2Gloss و Text2Gloss)
♻️تولید حرکت بدن
♻️تبدیل پوژ به ویدیو (Pose2Vid)


این معماری باعث شده تولید زبان اشاره بسیار دقیق‌تر، یکپارچه‌تر و طبیعی‌تر انجام شود.
همچنین مخزن داده‌ها و ابزارها نیز به‌صورت کامل ارائه شده است 💙


🔗 Paper: arxiv.org/pdf/2512.04048
🔗 Project: stablesigner.github.io/
🔗 Data: github.com/SignLLM/Prompt2Sign/tree/main/tools-new-2025

#AI #SLP #SignLanguage #GenerativeModels #DeepLearning @rss_ai_ir