VIRSUN
7.36K subscribers
1.44K photos
813 videos
5 files
902 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
A [subject] crafted from layered hand-cut paper, with intricate folds and depth. Each layer reveals a different [color1] and [color2] tone, creating a 3D effect. Set inside a shadow box with soft directional lighting and a storytelling composition.hand-cut paper
👍1
💰 گوگل حالا ارزش یک شرکت ۴ تریلیون دلاری را دارد

شرکتی که تمام لایه‌های پشته‌ی هوش مصنوعی را در مالکیت خود دارد و آن‌ها را در یک اکوسیستم واحد ترکیب می‌کند — از سیلیکون تا مدل، از داده تا توزیع.

🔹 لایه سخت‌افزار (AI Silicon)
گوگل مدل‌های خود را روی تراشه‌های اختصاصی TPU آموزش می‌دهد؛ یعنی برخلاف همهٔ شرکت‌های دیگر، هزینه‌ی گزاف کارت‌های NVIDIA را پرداخت نمی‌کند.
این فقط حرف نیست — چون همین حالا Meta و Anthropic برای خرید میلیاردها دلار TPU در حال مذاکره‌اند.
این یعنی استراتژی سخت‌افزاری گوگل کاملاً جواب داده است.

🔹 لایه داده (AI Data Engine)
قدرتمندترین موتور دادهٔ بلادرنگ جهان در اختیار گوگل است:
Search، YouTube، Maps، Gmail، Chrome و Android.
هر حرکت کاربر، کیفیت مدل‌ها را افزایش می‌دهد و این چرخه به‌صورت خودکار مدل را هر روز بهتر می‌کند.

🔹 لایه مدل (AI Brain)
مدل Gemini 3 یک مدل در سطح فرانتیر است که کامل روی TPUهای گوگل آموزش دیده و اکنون در همهٔ سرویس‌ها فعال است:
از موتور جستجو تا Cloud و YouTube.
برخلاف بدبینی‌ها، هوش مصنوعی نه تنها ریسک نبود — بلکه روند رشد همهٔ سرویس‌ها را بزرگ‌تر کرد.

🔹 لایه توزیع (AI Network)
گوگل یک مزیت بی‌رقیب دارد:
می‌تواند یک قابلیت جدید را در یک روز به میلیاردها کاربر برساند.
از طریق Search، YouTube، Android، Chrome و Workspace.
هر بروزرسانی، مثل آپدیتی برای کل اینترنت عمل می‌کند.

📌 نتیجهٔ نهایی:
گوگل برنده شده است.

#Google #AI #Gemini #TPU #TechStrategy #Silicon #BigTech #Innovation @rss_ai_ir
This media is not supported in your browser
VIEW IN TELEGRAM
Vision Bridge Transformer at Scale —
خلاصه و معرفی

📌مدل Vision Bridge Transformer (ViBT) یک مدل بزرگ‌مقیاس برای تولید شرطی (Conditional Generation) است.
این مدل برخلاف دیفیوژن‌ها که فرآیند چندمرحله‌ای دارند، ورودی را به‌صورت مستقیم به خروجی ترجمه می‌کند و به همین دلیل سریع، پایدار و مقیاس‌پذیر است.

🔍 ویژگی‌های کلیدی:

♻️معماری جدید برای مدل‌سازی «trajectory» بین ورودی و خروجی

♻️مناسب برای ویرایش تصویر و ویدیو، تغییر سبک، بازسازی و تبدیل‌های پیچیده

♻️مقیاس‌پذیر تا میلیاردها پارامتر

♻️کیفیت بالا در ویرایش صحنه‌های چندلایه و حفظ یکپارچگی بصری


📄 لینک‌ها:

arXiv: https://arxiv.org/abs/2511.23199

PDF: https://arxiv.org/pdf/2511.23199

Project: https://yuanshi9815.github.io/ViBT_homepage/

GitHub: https://github.com/Yuanshi9815/ViBT

Demo Space: https://huggingface.co/spaces/Yuanshi/ViBT


==============================
@rss_ai_ir

#VisionTransformer #GenerativeAI #ComputerVision #DeepLearning #AI 🌟
⚡️ یک منبع فوق‌العاده برای درک عمیق اجرای موازی روی GPU

اگر می‌خواهید بفهمید پردازنده‌ گرافیکی واقعاً چطور کار می‌کند، مستندات NVIDIA PTX بهترین نقطه شروع است. این سند مدل اجرای سطح‌پایین GPU را توضیح می‌دهد:

♻️معماری اجرای دستورها

♻️سلسله‌مراتب Thread ،Block و Warp

♻️نحوه مدیریت رجیسترها

♻️انواع حافظه‌ در GPU و شیوه دسترسی به آن‌ها


♻️بدون شناخت این مفاهیم، نوشتن کدهای پرفورمنس بالا با CUDA بسیار دشوار می‌شود.
♻️این منبع به شما کمک می‌کند بفهمید چرا کرنل‌های GPU گاهی رفتار غیرمنتظره دارند و چطور باید کد را برای بیشترین سرعت و بازده بهینه کرد.

📘 لینک مستندات:
https://docs.nvidia.com/cuda/parallel-thread-execution

@rss_ai_ir
#GPU 🚀 #NVIDIA #CUDA #HighPerformanceComputing
This media is not supported in your browser
VIEW IN TELEGRAM
📅 امروز سوم دسامبر؛ روز جهانی سه‌بعدی‌کارها

کمتر کسی می‌داند که از سال ۱۹۹۸، به پیشنهاد شرکت Alias، روز ۳ دسامبر را «روز سه‌بعدی‌کار» نامیدند؛ زمانی که هنوز Autodesk، Maya را نخریده بود و Maya تازه منتشر شده بود.

🎛️ اولین تجربه از 3D برای بسیاری از هنرمندان چیزی شبیه شوک بود:
مدل‌سازی، تکسچر، شیدینگ، نورپردازی، رندر… و در نهایت یک خروجی ضعیف پس از ساعت‌ها تلاش. آن هم بدون انیمیشن!
کاری سخت، زمان‌بر و پر از دردسر.

اما همین مسیر سخت، نسل خاصی از ۳D-Artists را ساخت؛ هنرمندانی که با وجود تمام چالش‌ها، عاشقانه به سراغ 3ds Max، Maya، Cinema4D و Houdini برمی‌گردند.
🔮 این دنیا همیشه شبیه نوعی کیمیاگری بوده: ترکیب هنر، ریاضیات، فیزیک و صبر… تا چیزی خلق شود که در مرز واقعیت و خیال قرار دارد.

📚 بعدها نویسنده این متن، کتاب «Pонимая Maya» را نوشت؛ کاری که قرار بود ۷ ماه طول بکشد، اما ۲ سال زمان برد و در نهایت در دو جلد و ۱۴۲۴ صفحه منتشر شد. چون دنیای سه‌بعدی را نمی‌توان کوتاه توضیح داد؛ باید در آن غرق شد.

🎉 امروز، روز تمام کسانی است که این مسیر دشوار را رفته‌اند؛
«همه‌ی زندانیان و جانبازان 3D» که از عشق به این هنر دست نکشیده‌اند.

🥂 و حالا تنها آرزو این است که هوش مصنوعی بخشی از این رنج و روتین را کم کند و مسیر رسیدن به تصویر نهایی را کوتاه‌تر و لذت‌بخش‌تر سازد.

@rss_ai_ir
#سه_بعدی #روز_سه‌بعدی‌کار #CGI #3DArtist #رویت‌کامپیوتری #هوش_مصنوعی #cg
An isometric 3D illustration of a miniature [subject]-themed world, filled with magical props, glowing elements in [color1] and [color2], and stylized terrain. Clean lines, flat shadows, and a pixel-diorama aesthetic.
2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 مدل ویدیویی Kling O1 حالا همه‌جا در دسترس است — حتی روی Fal.ai!

ورود Kling Omni (O1) به پلتفرم‌های مختلف ادامه دارد و حالا Fal.ai هم همه‌ی ماژول‌های اصلی را فعال کرده.


لینک‌ها برای تست مستقیم در Fal:
• Reference-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/reference-to-video/
• Image-to-Video
https://fal.ai/models/fal-ai/kling-video/o1/image-to-video/
• Video-to-Video (Reference)
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/reference/
• Video Edit
https://fal.ai/models/fal-ai/kling-video/o1/video-to-video/edit/

به‌نظر می‌رسد O1 به‌سرعت در حال تبدیل شدن به استاندارد جدید ویدیو در اکوسیستم GenAI است.

@rss_ai_ir

#Kling #KlingO1 #AIVideo #GenAI #FalAI #ویدیو_هوش_مصنوعی #هوش_مصنوعی
🔥21👍1👏1
📌 خبر : OpenAGI مدل جدید Lux را منتشر کرد؛ یک جهش جدی در «کامپیوتر‌یوز»
@rss_ai_ir

در دنیای ایجنت‌های کنترل‌کنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادل‌های گوگل، OpenAI و Anthropic یک نسل جلوتر عمل می‌کند — آن هم با هزینه بسیار کمتر.

🔍 چرا Lux مهم است؟

⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا می‌شود؛ درحالی‌که رقبا نزدیک ۳ ثانیه زمان نیاز دارند.

💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزان‌تر از سایر مدل‌های کامپیوتر‌یوز است.

🧠 معماری متفاوت: این مدل برخلاف ایجنت‌هایی که از یک LLM عمومی فاین‌تیون شده‌اند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.

🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.

🛠 اوپن‌سورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعه‌دهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.


🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل می‌تواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدل‌های تخصصی برای انجام اکشن باشد — آینده‌ای که مدت‌ها انتظارش می‌رفت.

#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
👍2🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
✌️ مدل جدید و پیشرفته برای تولید زبان اشاره ✌️
مدل Stable Signer به‌عنوان یک SOTA در حوزه Sign Language Production (SLP) معرفی شده و ساختار این وظیفه را کاملاً بازتعریف می‌کند.

این مدل فرایند SLP را به یک سیستم سلسله‌مراتبی end-to-end تبدیل کرده که تنها شامل سه بخش کلیدی است:

♻️درک متن (Prompt2Gloss و Text2Gloss)
♻️تولید حرکت بدن
♻️تبدیل پوژ به ویدیو (Pose2Vid)


این معماری باعث شده تولید زبان اشاره بسیار دقیق‌تر، یکپارچه‌تر و طبیعی‌تر انجام شود.
همچنین مخزن داده‌ها و ابزارها نیز به‌صورت کامل ارائه شده است 💙


🔗 Paper: arxiv.org/pdf/2512.04048
🔗 Project: stablesigner.github.io/
🔗 Data: github.com/SignLLM/Prompt2Sign/tree/main/tools-new-2025

#AI #SLP #SignLanguage #GenerativeModels #DeepLearning @rss_ai_ir
🚗 انویدیا مدل جدید Alpamayo-R1 را برای خودروهای خودران معرفی کرد — یک مدل کاملاً باز و ویژهٔ «هوش مصنوعی فیزیکی»

انویدیا در کنفرانس NeurIPS سن‌دیگو از نسل جدید زیرساخت‌ها و مدل‌های هوش مصنوعی خود رونمایی کرد؛ تمرکز اصلی: رباتیک، خودروهای خودران و سیستم‌های هوش مصنوعی فیزیکی.

مهم‌ترین معرفی این رویداد، مدل Alpamayo-R1 است —
یک Vision-Language-Reasoning Model بازمتن که به‌طور ویژه برای تحلیل، درک و تصمیم‌گیری در سناریوهای رانندگی خودکار طراحی شده است.

انویدیا می‌گوید این اولین مدل VLM با توانایی reasoning برای حوزهٔ خودروهای خودران است.

🌟 چرا Alpamayo-R1 مهم است؟

مدل باز است و پژوهشگران می‌توانند آن را برای سناریوهای مختلف رانندگی بررسی و بهبود دهند.

ترکیبی از بینایی کامپیوتری + زبان + استدلال است، چیزی که مدل‌های خودران امروز کم داشتند.

مستقیماً برای تصمیم‌گیری در محیط‌های واقعی آموزش دیده، نه فقط تشخیص اشیا.


این مدل می‌تواند یک پایهٔ مشترک برای پژوهش‌های آینده باشد:
از شبیه‌سازی و پیش‌بینی رفتار عابرها تا ارزیابی ریسک و تحلیل صحنه‌های پیچیده ترافیکی.

🔗 جزئیات بیشتر:
https://mltimes.ai/nvidia-predstavila-otkrytuyu-model-alpamayo-r1-dlya-bespilotnyh-avto/
This media is not supported in your browser
VIEW IN TELEGRAM
باشه، بدون هیچ توضیح اضافه‌ای همون را پست می‌کنم:


---

🤖 ویدیو ربات Unitree G1 — رباتی که آزادانه قابل‌خرید هست و API باز داره.

#UnitreeG1 #Robot #AI @rss_ai_ir
👎1👏1
A [subject] in a minimalist children's drawing style, using thick white lines and glowing contours. The background is softly blurred with [environment details]. Floating elements like [floating details] add a whimsical touch. Full-body view, warm and simple aesthetic.
2👍1🔥1👏1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدل‌های ریزونی و اینستراکت از Mistral

مینسترال ۳ در سه نسخه‌ی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدل‌های هم‌رده دارد.

ویژگی‌ها:

⚙️ نسخه‌ی ۱۴B روی لپ‌تاپ با ۲۴ گیگابایت RAM هم اجرا می‌شود

🧠 پشتیبانی از بینایی (Vision)

🚀 عملکرد قوی در تسک‌های استدلال و دنبال‌کردن دستورها

💻 امکان اجرا و فاین‌تیون لوکال


لینک‌ها:
راهنما + لپ‌تاپ:
https://docs.unsloth.ai/new/ministral-3

نسخه‌های GGUF:
https://huggingface.co/collections/unsloth/ministral-3

@rss_ai_ir

#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
اوپن‌اِی‌آی روشی تازه برای وادار کردن مدل‌ها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.

یکی از چالش‌های مهم در مدل‌های زبانی این است که گاهی برای «خوش‌آمدگویى به ارزیاب» تلاش می‌کنند و به‌جای صداقت، پاسخ‌های قانع‌کننده اما غلط می‌سازند؛ یا حتی نقض دستورالعمل‌ها را پنهان می‌کنند.

🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.

این روش چگونه کار می‌کند؟

1️⃣ مدل ابتدا پاسخ عادی خود را تولید می‌کند.
2️⃣ سپس به‌طور مستقل یک گزارش ثانویه می‌نویسد و در آن بررسی می‌کند:

آیا دستورالعمل‌ها را نقض کرده؟

در کدام بخش‌ها احتمال خطا وجود دارد؟

کدام قسمت‌های پاسخ مشکوک یا غیرمطمئن بوده‌اند؟
3️⃣ پاداش نه برای عالی‌بودن پاسخ، بلکه برای صداقت داده می‌شود.


⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.

📊 نتایج اولیه

در آزمایش‌های انجام‌شده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهان‌کردن آن داشته باشد به ۴.۴٪ کاهش یافت.

⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظه‌هایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.

🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/

#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
1🔥1👏1