VIRSUN
6.11K subscribers
1.05K photos
617 videos
5 files
681 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🌵 تشخیص نقاط کلیدی متراکم All-in-One 🌵

📍 مدل DeepDetect یک مدل نوآورانه است که به‌عنوان یک تشخیص‌دهنده‌ی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:

🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel

را در قالب یک شبکه عصبی واحد ترکیب می‌کند.

💬 نویسندگان می‌گویند: این مدل، بازآفرینی عاشقانه‌ای از تمام تکنیک‌های قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.

💙 مجوز: MIT License

🔗 لینک‌ها:
👉 مقاله (arXiv)
👉 مخزن GitHub

#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 «تکامل یادگیری عمیق» — انیمیشنی هنری درباره‌ی تاریخ هوش مصنوعی

یک هنرمند با انتشار اثری به‌نام “Evolution of Deep Learning by Hand” روند تکامل یادگیری عمیق را به‌زیبایی به تصویر کشیده است.

👁️ در این انیمیشن، مسیر از اولین نورون‌های مصنوعی تا معماری‌های پیچیده‌ی امروزی به‌صورت دستی ترسیم شده و بیننده را با تاریخچه‌ی شکل‌گیری دنیای مدرن شبکه‌های عصبی آشنا می‌کند.

هدف اثر — ادای احترام به جفری هینتون، یکی از بنیان‌گذاران یادگیری عمیق و برنده‌ی جایزه نوبل، که با ایده‌هایش راه را برای نسل جدید هوش مصنوعی هموار کرد.

#DeepLearning #AI #NeuralNetworks #Animation #Hinton #ArtTech #هوش_مصنوعی #یادگیری_عمیق #هنر_دیجیتال #تاریخ_فناوری
👍2🔥1💩1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 SAM 2++:
رهگیری هرچیز در هر سطحی! 🔥

🧠 مدل SAM 2++ نسخه‌ای پیشرفته از سیستم Segment Anything است که به‌صورت یکپارچه می‌تواند اشیاء را در هر سطحی (ماسک، باکس یا نقطه) رهگیری کند.
نتایج اولیه بسیار چشمگیر هستند — اما متأسفانه هنوز کد آن منتشر نشده 😢

📘 جزئیات بیشتر:
🔹 مقاله: arxiv.org/pdf/2510.18822
🔹 پروژه: tracking-any-granularity.github.io
🔹 ریپازیتوری: 😞 هنوز منتشر نشده

@rss_ai_ir

#AI #SAM #Segmentation #Tracking #ComputerVision #DeepLearning #هوش_مصنوعی #بینایی_ماشین
1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 هوش مصنوعی متن‌باز با سرعتی بی‌سابقه در حال پیشرفت است — و حالا NVIDIA پیشتاز شده! ⚡️

انویدیا اکنون در صدر مشارکت‌های جهانی AI متن‌باز قرار دارد و با انتشار مجموعه‌ای از مدل‌های بزرگ مانند:

🧠 Nemotron، 🧬 BioNeMo، 🌌 Cosmos و 🤖 Gr00t،

در حال بازتعریف نحوه‌ی توسعه و اشتراک‌گذاری مدل‌های هوش مصنوعی در سراسر دنیاست.
این حرکت نه‌تنها صنعت را متحول می‌کند، بلکه مرز بین مدل‌های اختصاصی و متن‌باز را هم از بین می‌برد.
بی‌نظیر! 🔥

@rss_ai_ir

#NVIDIA #AI #OpenSource #Nemotron #BioNeMo #Cosmos #Gr00t #هوش_مصنوعی #متن_باز #DeepLearning #MachineLearning
This media is not supported in your browser
VIEW IN TELEGRAM
🏜️ مدل ناوبری خودران OmniNWM — گامی تازه در دنیای رانندگی خودکار 🚗🤖

مدل OmniNWM یک سیستم یکپارچه‌ی جهان‌محور و پانورامیک است که آینده‌ی رانندگی خودکار را متحول می‌کند.
این مدل می‌تواند حالت‌های چندوجهی (multi-modal states) شامل تصویر RGB، نقشه‌های معنایی، عمق و اشغال سه‌بعدی (3D occupancy) را به‌صورت همزمان تولید کند.

ویژگی‌های کلیدی:

♻️تولید هم‌زمان داده‌های تصویری، عمقی و فضایی برای درک کامل محیط؛

♻️کنترل دقیق حرکات و تصمیم‌گیری‌ها در لحظه؛

♻️ارزیابی بسته (closed-loop) با پاداش‌های متراکم مبتنی بر اشغال فضا؛

♻️اجرای سریع و بهینه روی GPU.


📘 این مدل تحت مجوز Apache 2.0 منتشر شده و برای پژوهش و توسعه کاملاً آزاد است.

🔗 منابع:
👉 مقاله: arxiv.org/pdf/2510.17422
👉 پروژه: urbanverseproject.github.io
👉 ریپوی GitHub: lnkd.in/efCSvjtp

@rss_ai_ir
#AI #AutonomousDriving #Navigation #ComputerVision #OmniNWM #DeepLearning #OpenSource
🤖 WorldVLA —
ترکیب VLA و World Model در یک هسته‌ی خودمولد (Autoregressive Core)

شرکت Alibaba از مدل جدیدی به نام WorldVLA رونمایی کرده است — گامی بزرگ به‌سوی ساخت مدل خودبازگشتی جهانِ کنش‌ها، جایی که یک معماری واحد همزمان می‌تواند فریم‌های بعدی و اقدامات عامل (agent) را پیش‌بینی کند.

🧠 ایده‌ی اصلی:
مدل WorldVLA مدل‌های Vision-Language-Action (VLA) و World Model را درون یک ترنسفورمر یکپارچه می‌کند:

ورودی: (image + language + action)

خروجی: (image + language + action)


یعنی مدل نه‌تنها دنیای فیزیکی را «درک» می‌کند، بلکه یاد می‌گیرد چگونه در آن «عمل» کند.

⚙️ نحوه‌ی عملکرد:

معماری: یک ترنسفورمر واحد که به‌طور هم‌زمان روی داده‌های مربوط به مدل‌های کنش و مدل‌های جهان آموزش می‌بیند.

تابع هزینه (Loss): ترکیبی از پیش‌بینی وضعیت محیط و پیش‌بینی کنش‌ها.

ترفند کلیدی در Attention Mask: پنهان‌سازی کنش‌های قبلی در هنگام تولید کنش فعلی — که باعث بهبود چشمگیر در کیفیت بخش «action-chunk» می‌شود.


📊 نتایج:
در آزمون LIBERO benchmark، مدل WorldVLA از مدل‌هایی که به‌طور جداگانه برای کنش یا شبیه‌سازی جهان آموزش دیده بودند، بهتر عمل کرده است.

💬 به‌طور خلاصه، Alibaba گام بعدی را به‌سوی عامل‌های AGI با درک واقعی از فیزیک جهان برداشته است —
جایی که یک هسته‌ی واحد می‌تواند ادراک، پیش‌بینی و عمل را هم‌زمان انجام دهد.

📄 مقاله:
arxiv.org/abs/2506.21539
💻 کد:
github.com/alibaba-damo-academy/WorldVLA

@rss_ai_ir
#هوش_مصنوعی #WorldModel #VLA #Alibaba #DeepLearning #Transformers #AGI
👏21👍1🔥1
🧠 فرمت ONNX — زبان مشترک مدل‌های هوش مصنوعی

در دنیای یادگیری عمیق، هر فریم‌ورک (مثل PyTorch، TensorFlow یا Scikit-learn) مدل‌ها را به فرمت مخصوص خودش ذخیره می‌کند.
اما اگر بخواهیم مدلی را در پایتورچ آموزش دهیم و بعد در محیط دیگری مثل OpenCV، C++، یا موبایل اجرا کنیم چه؟ 🤔

🔹 پاسخ: ONNX (Open Neural Network Exchange)

فرمت ONNX یک فرمت استاندارد و متن‌باز است که برای انتقال و اجرای مدل‌های هوش مصنوعی در پلتفرم‌های مختلف طراحی شده است.

💡 به زبان ساده:
فرمت ONNX مثل فایل PDF برای مدل‌های هوش مصنوعی است —
فرقی نمی‌کند در چه فریم‌ورکی ساخته شده، در هر جایی باز و اجرا می‌شود.

⚙️ مزایا:

♻️انتقال آسان مدل‌ها بین فریم‌ورک‌ها (PyTorch → TensorFlow → OpenCV) 🔄

♻️اجرا روی دستگاه‌های مختلف (CPU، GPU، موبایل، Edge) ⚙️

♻️پشتیبانی از بهینه‌سازها مثل ONNX Runtime برای سرعت بیشتر 🚀

♻️پشتیبانی رسمی توسط شرکت‌هایی مثل Microsoft, NVIDIA, Meta و Intel 💼


📦 مثال:
در پایتورچ، می‌توان مدل را با یک خط کد به ONNX صادر کرد:
torch.onnx.export(model, inputs, "model.onnx")

و سپس با ONNX Runtime در هر محیطی اجرا کرد:
import onnxruntime as ort  
session = ort.InferenceSession("model.onnx")
outputs = session.run(None, {"input": data})

🌍 کاربردهای رایج:

♻️به‌کارگیری مدل‌ها در سیستم‌های صنعتی
♻️اجرای مدل‌ها روی وب یا موبایل
♻️ترکیب مدل‌های ساخته‌شده در فریم‌ورک‌های مختلف


📌 فرمتONNX پلی است میان آموزش و استقرار —
به کمک آن، مدل شما می‌تواند از آزمایشگاه تا دنیای واقعی سفر کند 🌐

@rss_ai_ir
#هوش_مصنوعی #ONNX #DeepLearning #AI #PyTorch #TensorFlow #MachineLearning #EdgeAI
4🔥2👌2🙏1
🚀 NVIDIA ModelOpt —
ابزار متن‌باز برای بهینه‌سازی مدل‌های هوش مصنوعی در محیط تولید (Production) ⚙️

🔹 جعبه ابزار ModelOpt که بخشی از اکوسیستم TensorRT است، یک جعبه‌ابزار متن‌باز جدید از NVIDIA برای افزایش سرعت و کارایی مدل‌ها در مرحله استقرار واقعی است.

ویژگی‌ها و قابلیت‌ها:

بهینه‌سازی سرتاسری (End-to-End) شامل:
🔸 Quantization
🔸 Pruning
🔸 Distillation
🔸 Speculative Decoding
🔸 Sparsity

پشتیبانی کامل از مدل‌های PyTorch, Hugging Face, ONNX

سازگار با فریم‌ورک‌های NeMo, Megatron-LM, HF Accelerate

قابلیت استقرار در SGLang, TensorRT-LLM, TensorRT, و vLLM


📦 مخزن رسمی GitHub:

👉 github.com/NVIDIA/TensorRT-Model-Optimizer

این ابزار به مهندسان یادگیری ماشین کمک می‌کند تا مدل‌های خود را بدون کاهش دقت، تا چندین برابر سریع‌تر در GPU مستقر کنند.

@rss_ai_ir
#NVIDIA #ModelOpt #TensorRT #AI #DeepLearning #هوش_مصنوعی #بهینه_سازی_مدل
1
🔥 خلاصه کنفرانس PyTorchCon 2025 در سان‌فرانسیسکو

⛔️کنفرانس امسال PyTorch واقعاً پر از دستاوردهای مهم بود. در اینجا چهار مورد از جالب‌ترین و کاربردی‌ترین ابزارهایی که در این چند روز معرفی شدند را مرور می‌کنیم 👇
---

1️⃣ 🧠 Helion —
زبان جدید برنامه‌نویسی مخصوص PyTorch
✳️زبان جدیدی که روی پایه پایتون ساخته شده تا بتوانید هسته‌های پردازشی (kernels) را مستقیماً بنویسید.
همچنین Helion کد را به‌صورت خودکار به Triton کامپایل می‌کند، یعنی بدون دردسر می‌توانید کرنل‌های GPU بهینه بنویسید.

🔗 Helion

---

2️⃣ ⚙️ torchcomms —
کتابخانه ارتباطی جدید برای یادگیری توزیع‌شده
✳️کتابخانه‌ای مخصوص آموزش مدل‌ها روی سخت‌افزارهای عظیم (تا ۱۰۰هزار GPU 😮).
هدف اصلی: بهینه‌سازی ارتباط بین نودها و کاهش تاخیر در سیستم‌های بزرگ.
🔗 torchcomms

---

3️⃣ 📱 ExecuTorch 1.0 —
اجرای مدل‌ها روی موبایل و گجت‌ها

✳️راه‌حلی کامل برای اجرای مدل‌های PyTorch روی موبایل، ساعت‌های هوشمند و دستگاه‌های لبه‌ای (Edge Devices).
هم از نظر سرعت، هم مصرف حافظه و انرژی، فوق‌العاده بهینه شده.
🔗 ExecuTorch 1.0

---

4️⃣ 🤖 torchforge —
کتابخانه‌ای برای یادگیری تقویتی (RL) و ساخت Agentها
✳️همچنین PyTorch با Torchforge مسیر تازه‌ای در هوش مصنوعی عامل‌محور باز کرده است.
ساختارش به گونه‌ای طراحی شده که بخش الگوریتمی از زیرساخت جداست — تا تمرکز فقط روی منطق یادگیری باشد.
🔗 torchforge

---

📊 نتیجه:
همچنین PyTorch به‌وضوح دارد از یک فریم‌ورک آموزشی به اکوسیستم کامل AI برای تولید، استقرار و بهینه‌سازی مدل‌ها تبدیل می‌شود.
دو روز فوق‌العاده پربار برای جامعه هوش مصنوعی 🌍

@rss_ai_ir
#PyTorch #Helion #ExecuTorch #torchforge #AI #DeepLearning #ML #PyTorchCon
🔥2👏1🙏1
⚡️ LMMs Engine –
موتور واحد برای آموزش مدل‌های چندوجهی (Multimodal)

فریم‌ورکی ساده، منعطف و قدرتمند از LMMs-Lab برای آموزش مدل‌هایی که هم‌زمان می‌توانند متن، تصویر، صدا و ویدیو را درک کنند — همه در یک محیط یکپارچه 🎛️

🎯 ویژگی‌ها:

پشتیبانی از بیش از ۱۹ معماری مختلف:

🧠 Qwen3-VL:
پردازش تصویر با رزولوشن اصلی و کانتکست بیش از ۱۰٬۰۰۰ توکن

🎧 Qwen2.5-Omni:
مدل واحد برای متن، تصویر و صوت

🎥 WanVideo:
تولید ویدیو از متن، تصویر یا ویدیو (T2V, I2V, V2V)

🌫 dLLM:
مدل‌های زبانی دیفیوژنی

🪄 LLaVA-OneVision، Bagel، SiT، RAE-SigLip و دیگر مدل‌های پیشرفته



📜 لایسنس: Apache 2.0 — قابل‌استفاده حتی در پروژه‌های تجاری

🔗 گیت‌هاب:
github.com/EvolvingLMMs-Lab/lmms-engine

@rss_ai_ir
#AI #Multimodal #OpenSource #DeepLearning #LLM #LMMsEngine
2