🌵 تشخیص نقاط کلیدی متراکم All-in-One 🌵
📍 مدل DeepDetect یک مدل نوآورانه است که بهعنوان یک تشخیصدهندهی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:
🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel
را در قالب یک شبکه عصبی واحد ترکیب میکند.
💬 نویسندگان میگویند: این مدل، بازآفرینی عاشقانهای از تمام تکنیکهای قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.
💙 مجوز: MIT License
🔗 لینکها:
👉 مقاله (arXiv)
👉 مخزن GitHub
#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
📍 مدل DeepDetect یک مدل نوآورانه است که بهعنوان یک تشخیصدهندهی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:
🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel
را در قالب یک شبکه عصبی واحد ترکیب میکند.
💬 نویسندگان میگویند: این مدل، بازآفرینی عاشقانهای از تمام تکنیکهای قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.
💙 مجوز: MIT License
🔗 لینکها:
👉 مقاله (arXiv)
👉 مخزن GitHub
#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 «تکامل یادگیری عمیق» — انیمیشنی هنری دربارهی تاریخ هوش مصنوعی
یک هنرمند با انتشار اثری بهنام “Evolution of Deep Learning by Hand” روند تکامل یادگیری عمیق را بهزیبایی به تصویر کشیده است.
👁️ در این انیمیشن، مسیر از اولین نورونهای مصنوعی تا معماریهای پیچیدهی امروزی بهصورت دستی ترسیم شده و بیننده را با تاریخچهی شکلگیری دنیای مدرن شبکههای عصبی آشنا میکند.
✨ هدف اثر — ادای احترام به جفری هینتون، یکی از بنیانگذاران یادگیری عمیق و برندهی جایزه نوبل، که با ایدههایش راه را برای نسل جدید هوش مصنوعی هموار کرد.
#DeepLearning #AI #NeuralNetworks #Animation #Hinton #ArtTech #هوش_مصنوعی #یادگیری_عمیق #هنر_دیجیتال #تاریخ_فناوری
یک هنرمند با انتشار اثری بهنام “Evolution of Deep Learning by Hand” روند تکامل یادگیری عمیق را بهزیبایی به تصویر کشیده است.
👁️ در این انیمیشن، مسیر از اولین نورونهای مصنوعی تا معماریهای پیچیدهی امروزی بهصورت دستی ترسیم شده و بیننده را با تاریخچهی شکلگیری دنیای مدرن شبکههای عصبی آشنا میکند.
✨ هدف اثر — ادای احترام به جفری هینتون، یکی از بنیانگذاران یادگیری عمیق و برندهی جایزه نوبل، که با ایدههایش راه را برای نسل جدید هوش مصنوعی هموار کرد.
#DeepLearning #AI #NeuralNetworks #Animation #Hinton #ArtTech #هوش_مصنوعی #یادگیری_عمیق #هنر_دیجیتال #تاریخ_فناوری
👍2🔥1💩1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 SAM 2++:
رهگیری هرچیز در هر سطحی! 🔥
🧠 مدل SAM 2++ نسخهای پیشرفته از سیستم Segment Anything است که بهصورت یکپارچه میتواند اشیاء را در هر سطحی (ماسک، باکس یا نقطه) رهگیری کند.
نتایج اولیه بسیار چشمگیر هستند — اما متأسفانه هنوز کد آن منتشر نشده 😢
📘 جزئیات بیشتر:
🔹 مقاله: arxiv.org/pdf/2510.18822
🔹 پروژه: tracking-any-granularity.github.io
🔹 ریپازیتوری: 😞 هنوز منتشر نشده
@rss_ai_ir
#AI #SAM #Segmentation #Tracking #ComputerVision #DeepLearning #هوش_مصنوعی #بینایی_ماشین
رهگیری هرچیز در هر سطحی! 🔥
🧠 مدل SAM 2++ نسخهای پیشرفته از سیستم Segment Anything است که بهصورت یکپارچه میتواند اشیاء را در هر سطحی (ماسک، باکس یا نقطه) رهگیری کند.
نتایج اولیه بسیار چشمگیر هستند — اما متأسفانه هنوز کد آن منتشر نشده 😢
📘 جزئیات بیشتر:
🔹 مقاله: arxiv.org/pdf/2510.18822
🔹 پروژه: tracking-any-granularity.github.io
🔹 ریپازیتوری: 😞 هنوز منتشر نشده
@rss_ai_ir
#AI #SAM #Segmentation #Tracking #ComputerVision #DeepLearning #هوش_مصنوعی #بینایی_ماشین
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 هوش مصنوعی متنباز با سرعتی بیسابقه در حال پیشرفت است — و حالا NVIDIA پیشتاز شده! ⚡️
انویدیا اکنون در صدر مشارکتهای جهانی AI متنباز قرار دارد و با انتشار مجموعهای از مدلهای بزرگ مانند:
🧠 Nemotron، 🧬 BioNeMo، 🌌 Cosmos و 🤖 Gr00t،
در حال بازتعریف نحوهی توسعه و اشتراکگذاری مدلهای هوش مصنوعی در سراسر دنیاست.
این حرکت نهتنها صنعت را متحول میکند، بلکه مرز بین مدلهای اختصاصی و متنباز را هم از بین میبرد.
بینظیر! 🔥
@rss_ai_ir
#NVIDIA #AI #OpenSource #Nemotron #BioNeMo #Cosmos #Gr00t #هوش_مصنوعی #متن_باز #DeepLearning #MachineLearning
انویدیا اکنون در صدر مشارکتهای جهانی AI متنباز قرار دارد و با انتشار مجموعهای از مدلهای بزرگ مانند:
🧠 Nemotron، 🧬 BioNeMo، 🌌 Cosmos و 🤖 Gr00t،
در حال بازتعریف نحوهی توسعه و اشتراکگذاری مدلهای هوش مصنوعی در سراسر دنیاست.
این حرکت نهتنها صنعت را متحول میکند، بلکه مرز بین مدلهای اختصاصی و متنباز را هم از بین میبرد.
بینظیر! 🔥
@rss_ai_ir
#NVIDIA #AI #OpenSource #Nemotron #BioNeMo #Cosmos #Gr00t #هوش_مصنوعی #متن_باز #DeepLearning #MachineLearning
This media is not supported in your browser
VIEW IN TELEGRAM
🏜️ مدل ناوبری خودران OmniNWM — گامی تازه در دنیای رانندگی خودکار 🚗🤖
مدل OmniNWM یک سیستم یکپارچهی جهانمحور و پانورامیک است که آیندهی رانندگی خودکار را متحول میکند.
این مدل میتواند حالتهای چندوجهی (multi-modal states) شامل تصویر RGB، نقشههای معنایی، عمق و اشغال سهبعدی (3D occupancy) را بهصورت همزمان تولید کند.
✨ ویژگیهای کلیدی:
♻️تولید همزمان دادههای تصویری، عمقی و فضایی برای درک کامل محیط؛
♻️کنترل دقیق حرکات و تصمیمگیریها در لحظه؛
♻️ارزیابی بسته (closed-loop) با پاداشهای متراکم مبتنی بر اشغال فضا؛
♻️اجرای سریع و بهینه روی GPU.
📘 این مدل تحت مجوز Apache 2.0 منتشر شده و برای پژوهش و توسعه کاملاً آزاد است.
🔗 منابع:
👉 مقاله: arxiv.org/pdf/2510.17422
👉 پروژه: urbanverseproject.github.io
👉 ریپوی GitHub: lnkd.in/efCSvjtp
@rss_ai_ir
#AI #AutonomousDriving #Navigation #ComputerVision #OmniNWM #DeepLearning #OpenSource
مدل OmniNWM یک سیستم یکپارچهی جهانمحور و پانورامیک است که آیندهی رانندگی خودکار را متحول میکند.
این مدل میتواند حالتهای چندوجهی (multi-modal states) شامل تصویر RGB، نقشههای معنایی، عمق و اشغال سهبعدی (3D occupancy) را بهصورت همزمان تولید کند.
✨ ویژگیهای کلیدی:
♻️تولید همزمان دادههای تصویری، عمقی و فضایی برای درک کامل محیط؛
♻️کنترل دقیق حرکات و تصمیمگیریها در لحظه؛
♻️ارزیابی بسته (closed-loop) با پاداشهای متراکم مبتنی بر اشغال فضا؛
♻️اجرای سریع و بهینه روی GPU.
📘 این مدل تحت مجوز Apache 2.0 منتشر شده و برای پژوهش و توسعه کاملاً آزاد است.
🔗 منابع:
👉 مقاله: arxiv.org/pdf/2510.17422
👉 پروژه: urbanverseproject.github.io
👉 ریپوی GitHub: lnkd.in/efCSvjtp
@rss_ai_ir
#AI #AutonomousDriving #Navigation #ComputerVision #OmniNWM #DeepLearning #OpenSource
🤖 WorldVLA —
ترکیب VLA و World Model در یک هستهی خودمولد (Autoregressive Core)
شرکت Alibaba از مدل جدیدی به نام WorldVLA رونمایی کرده است — گامی بزرگ بهسوی ساخت مدل خودبازگشتی جهانِ کنشها، جایی که یک معماری واحد همزمان میتواند فریمهای بعدی و اقدامات عامل (agent) را پیشبینی کند.
🧠 ایدهی اصلی:
مدل WorldVLA مدلهای Vision-Language-Action (VLA) و World Model را درون یک ترنسفورمر یکپارچه میکند:
ورودی: (image + language + action)
خروجی: (image + language + action)
یعنی مدل نهتنها دنیای فیزیکی را «درک» میکند، بلکه یاد میگیرد چگونه در آن «عمل» کند.
⚙️ نحوهی عملکرد:
معماری: یک ترنسفورمر واحد که بهطور همزمان روی دادههای مربوط به مدلهای کنش و مدلهای جهان آموزش میبیند.
تابع هزینه (Loss): ترکیبی از پیشبینی وضعیت محیط و پیشبینی کنشها.
ترفند کلیدی در Attention Mask: پنهانسازی کنشهای قبلی در هنگام تولید کنش فعلی — که باعث بهبود چشمگیر در کیفیت بخش «action-chunk» میشود.
📊 نتایج:
در آزمون LIBERO benchmark، مدل WorldVLA از مدلهایی که بهطور جداگانه برای کنش یا شبیهسازی جهان آموزش دیده بودند، بهتر عمل کرده است.
💬 بهطور خلاصه، Alibaba گام بعدی را بهسوی عاملهای AGI با درک واقعی از فیزیک جهان برداشته است —
جایی که یک هستهی واحد میتواند ادراک، پیشبینی و عمل را همزمان انجام دهد.
📄 مقاله:
arxiv.org/abs/2506.21539
💻 کد:
github.com/alibaba-damo-academy/WorldVLA
@rss_ai_ir
#هوش_مصنوعی #WorldModel #VLA #Alibaba #DeepLearning #Transformers #AGI
ترکیب VLA و World Model در یک هستهی خودمولد (Autoregressive Core)
شرکت Alibaba از مدل جدیدی به نام WorldVLA رونمایی کرده است — گامی بزرگ بهسوی ساخت مدل خودبازگشتی جهانِ کنشها، جایی که یک معماری واحد همزمان میتواند فریمهای بعدی و اقدامات عامل (agent) را پیشبینی کند.
🧠 ایدهی اصلی:
مدل WorldVLA مدلهای Vision-Language-Action (VLA) و World Model را درون یک ترنسفورمر یکپارچه میکند:
ورودی: (image + language + action)
خروجی: (image + language + action)
یعنی مدل نهتنها دنیای فیزیکی را «درک» میکند، بلکه یاد میگیرد چگونه در آن «عمل» کند.
⚙️ نحوهی عملکرد:
معماری: یک ترنسفورمر واحد که بهطور همزمان روی دادههای مربوط به مدلهای کنش و مدلهای جهان آموزش میبیند.
تابع هزینه (Loss): ترکیبی از پیشبینی وضعیت محیط و پیشبینی کنشها.
ترفند کلیدی در Attention Mask: پنهانسازی کنشهای قبلی در هنگام تولید کنش فعلی — که باعث بهبود چشمگیر در کیفیت بخش «action-chunk» میشود.
📊 نتایج:
در آزمون LIBERO benchmark، مدل WorldVLA از مدلهایی که بهطور جداگانه برای کنش یا شبیهسازی جهان آموزش دیده بودند، بهتر عمل کرده است.
💬 بهطور خلاصه، Alibaba گام بعدی را بهسوی عاملهای AGI با درک واقعی از فیزیک جهان برداشته است —
جایی که یک هستهی واحد میتواند ادراک، پیشبینی و عمل را همزمان انجام دهد.
📄 مقاله:
arxiv.org/abs/2506.21539
💻 کد:
github.com/alibaba-damo-academy/WorldVLA
@rss_ai_ir
#هوش_مصنوعی #WorldModel #VLA #Alibaba #DeepLearning #Transformers #AGI
👏2❤1👍1🔥1
🧠 فرمت ONNX — زبان مشترک مدلهای هوش مصنوعی
در دنیای یادگیری عمیق، هر فریمورک (مثل PyTorch، TensorFlow یا Scikit-learn) مدلها را به فرمت مخصوص خودش ذخیره میکند.
اما اگر بخواهیم مدلی را در پایتورچ آموزش دهیم و بعد در محیط دیگری مثل OpenCV، C++، یا موبایل اجرا کنیم چه؟ 🤔
🔹 پاسخ: ONNX (Open Neural Network Exchange)
فرمت ONNX یک فرمت استاندارد و متنباز است که برای انتقال و اجرای مدلهای هوش مصنوعی در پلتفرمهای مختلف طراحی شده است.
💡 به زبان ساده:
فرمت ONNX مثل فایل PDF برای مدلهای هوش مصنوعی است —
فرقی نمیکند در چه فریمورکی ساخته شده، در هر جایی باز و اجرا میشود.
⚙️ مزایا:
♻️انتقال آسان مدلها بین فریمورکها (PyTorch → TensorFlow → OpenCV) 🔄
♻️اجرا روی دستگاههای مختلف (CPU، GPU، موبایل، Edge) ⚙️
♻️پشتیبانی از بهینهسازها مثل ONNX Runtime برای سرعت بیشتر 🚀
♻️پشتیبانی رسمی توسط شرکتهایی مثل Microsoft, NVIDIA, Meta و Intel 💼
📦 مثال:
در پایتورچ، میتوان مدل را با یک خط کد به ONNX صادر کرد:
و سپس با ONNX Runtime در هر محیطی اجرا کرد:
🌍 کاربردهای رایج:
♻️بهکارگیری مدلها در سیستمهای صنعتی
♻️اجرای مدلها روی وب یا موبایل
♻️ترکیب مدلهای ساختهشده در فریمورکهای مختلف
📌 فرمتONNX پلی است میان آموزش و استقرار —
به کمک آن، مدل شما میتواند از آزمایشگاه تا دنیای واقعی سفر کند 🌐
@rss_ai_ir
#هوش_مصنوعی #ONNX #DeepLearning #AI #PyTorch #TensorFlow #MachineLearning #EdgeAI
در دنیای یادگیری عمیق، هر فریمورک (مثل PyTorch، TensorFlow یا Scikit-learn) مدلها را به فرمت مخصوص خودش ذخیره میکند.
اما اگر بخواهیم مدلی را در پایتورچ آموزش دهیم و بعد در محیط دیگری مثل OpenCV، C++، یا موبایل اجرا کنیم چه؟ 🤔
🔹 پاسخ: ONNX (Open Neural Network Exchange)
فرمت ONNX یک فرمت استاندارد و متنباز است که برای انتقال و اجرای مدلهای هوش مصنوعی در پلتفرمهای مختلف طراحی شده است.
💡 به زبان ساده:
فرمت ONNX مثل فایل PDF برای مدلهای هوش مصنوعی است —
فرقی نمیکند در چه فریمورکی ساخته شده، در هر جایی باز و اجرا میشود.
⚙️ مزایا:
♻️انتقال آسان مدلها بین فریمورکها (PyTorch → TensorFlow → OpenCV) 🔄
♻️اجرا روی دستگاههای مختلف (CPU، GPU، موبایل، Edge) ⚙️
♻️پشتیبانی از بهینهسازها مثل ONNX Runtime برای سرعت بیشتر 🚀
♻️پشتیبانی رسمی توسط شرکتهایی مثل Microsoft, NVIDIA, Meta و Intel 💼
📦 مثال:
در پایتورچ، میتوان مدل را با یک خط کد به ONNX صادر کرد:
torch.onnx.export(model, inputs, "model.onnx")
و سپس با ONNX Runtime در هر محیطی اجرا کرد:
import onnxruntime as ort
session = ort.InferenceSession("model.onnx")
outputs = session.run(None, {"input": data})
🌍 کاربردهای رایج:
♻️بهکارگیری مدلها در سیستمهای صنعتی
♻️اجرای مدلها روی وب یا موبایل
♻️ترکیب مدلهای ساختهشده در فریمورکهای مختلف
📌 فرمتONNX پلی است میان آموزش و استقرار —
به کمک آن، مدل شما میتواند از آزمایشگاه تا دنیای واقعی سفر کند 🌐
@rss_ai_ir
#هوش_مصنوعی #ONNX #DeepLearning #AI #PyTorch #TensorFlow #MachineLearning #EdgeAI
❤4🔥2👌2🙏1
🚀 NVIDIA ModelOpt —
ابزار متنباز برای بهینهسازی مدلهای هوش مصنوعی در محیط تولید (Production) ⚙️
🔹 جعبه ابزار ModelOpt که بخشی از اکوسیستم TensorRT است، یک جعبهابزار متنباز جدید از NVIDIA برای افزایش سرعت و کارایی مدلها در مرحله استقرار واقعی است.
✨ ویژگیها و قابلیتها:
بهینهسازی سرتاسری (End-to-End) شامل:
🔸 Quantization
🔸 Pruning
🔸 Distillation
🔸 Speculative Decoding
🔸 Sparsity
پشتیبانی کامل از مدلهای PyTorch, Hugging Face, ONNX
سازگار با فریمورکهای NeMo, Megatron-LM, HF Accelerate
قابلیت استقرار در SGLang, TensorRT-LLM, TensorRT, و vLLM
📦 مخزن رسمی GitHub:
👉 github.com/NVIDIA/TensorRT-Model-Optimizer
این ابزار به مهندسان یادگیری ماشین کمک میکند تا مدلهای خود را بدون کاهش دقت، تا چندین برابر سریعتر در GPU مستقر کنند.
@rss_ai_ir
#NVIDIA #ModelOpt #TensorRT #AI #DeepLearning #هوش_مصنوعی #بهینه_سازی_مدل
ابزار متنباز برای بهینهسازی مدلهای هوش مصنوعی در محیط تولید (Production) ⚙️
🔹 جعبه ابزار ModelOpt که بخشی از اکوسیستم TensorRT است، یک جعبهابزار متنباز جدید از NVIDIA برای افزایش سرعت و کارایی مدلها در مرحله استقرار واقعی است.
✨ ویژگیها و قابلیتها:
بهینهسازی سرتاسری (End-to-End) شامل:
🔸 Quantization
🔸 Pruning
🔸 Distillation
🔸 Speculative Decoding
🔸 Sparsity
پشتیبانی کامل از مدلهای PyTorch, Hugging Face, ONNX
سازگار با فریمورکهای NeMo, Megatron-LM, HF Accelerate
قابلیت استقرار در SGLang, TensorRT-LLM, TensorRT, و vLLM
📦 مخزن رسمی GitHub:
👉 github.com/NVIDIA/TensorRT-Model-Optimizer
این ابزار به مهندسان یادگیری ماشین کمک میکند تا مدلهای خود را بدون کاهش دقت، تا چندین برابر سریعتر در GPU مستقر کنند.
@rss_ai_ir
#NVIDIA #ModelOpt #TensorRT #AI #DeepLearning #هوش_مصنوعی #بهینه_سازی_مدل
❤1
🔥 خلاصه کنفرانس PyTorchCon 2025 در سانفرانسیسکو
⛔️کنفرانس امسال PyTorch واقعاً پر از دستاوردهای مهم بود. در اینجا چهار مورد از جالبترین و کاربردیترین ابزارهایی که در این چند روز معرفی شدند را مرور میکنیم 👇
---
1️⃣ 🧠 Helion —
❌زبان جدید برنامهنویسی مخصوص PyTorch
✳️زبان جدیدی که روی پایه پایتون ساخته شده تا بتوانید هستههای پردازشی (kernels) را مستقیماً بنویسید.
همچنین Helion کد را بهصورت خودکار به Triton کامپایل میکند، یعنی بدون دردسر میتوانید کرنلهای GPU بهینه بنویسید.
🔗 Helion
---
2️⃣ ⚙️ torchcomms —
❌کتابخانه ارتباطی جدید برای یادگیری توزیعشده
✳️کتابخانهای مخصوص آموزش مدلها روی سختافزارهای عظیم (تا ۱۰۰هزار GPU 😮).
هدف اصلی: بهینهسازی ارتباط بین نودها و کاهش تاخیر در سیستمهای بزرگ.
🔗 torchcomms
---
3️⃣ 📱 ExecuTorch 1.0 —
❌ اجرای مدلها روی موبایل و گجتها
✳️راهحلی کامل برای اجرای مدلهای PyTorch روی موبایل، ساعتهای هوشمند و دستگاههای لبهای (Edge Devices).
هم از نظر سرعت، هم مصرف حافظه و انرژی، فوقالعاده بهینه شده.
🔗 ExecuTorch 1.0
---
4️⃣ 🤖 torchforge —
❌کتابخانهای برای یادگیری تقویتی (RL) و ساخت Agentها
✳️همچنین PyTorch با Torchforge مسیر تازهای در هوش مصنوعی عاملمحور باز کرده است.
ساختارش به گونهای طراحی شده که بخش الگوریتمی از زیرساخت جداست — تا تمرکز فقط روی منطق یادگیری باشد.
🔗 torchforge
---
📊 نتیجه:
همچنین PyTorch بهوضوح دارد از یک فریمورک آموزشی به اکوسیستم کامل AI برای تولید، استقرار و بهینهسازی مدلها تبدیل میشود.
دو روز فوقالعاده پربار برای جامعه هوش مصنوعی 🌍
@rss_ai_ir
#PyTorch #Helion #ExecuTorch #torchforge #AI #DeepLearning #ML #PyTorchCon
⛔️کنفرانس امسال PyTorch واقعاً پر از دستاوردهای مهم بود. در اینجا چهار مورد از جالبترین و کاربردیترین ابزارهایی که در این چند روز معرفی شدند را مرور میکنیم 👇
---
1️⃣ 🧠 Helion —
❌زبان جدید برنامهنویسی مخصوص PyTorch
✳️زبان جدیدی که روی پایه پایتون ساخته شده تا بتوانید هستههای پردازشی (kernels) را مستقیماً بنویسید.
همچنین Helion کد را بهصورت خودکار به Triton کامپایل میکند، یعنی بدون دردسر میتوانید کرنلهای GPU بهینه بنویسید.
🔗 Helion
---
2️⃣ ⚙️ torchcomms —
❌کتابخانه ارتباطی جدید برای یادگیری توزیعشده
✳️کتابخانهای مخصوص آموزش مدلها روی سختافزارهای عظیم (تا ۱۰۰هزار GPU 😮).
هدف اصلی: بهینهسازی ارتباط بین نودها و کاهش تاخیر در سیستمهای بزرگ.
🔗 torchcomms
---
3️⃣ 📱 ExecuTorch 1.0 —
❌ اجرای مدلها روی موبایل و گجتها
✳️راهحلی کامل برای اجرای مدلهای PyTorch روی موبایل، ساعتهای هوشمند و دستگاههای لبهای (Edge Devices).
هم از نظر سرعت، هم مصرف حافظه و انرژی، فوقالعاده بهینه شده.
🔗 ExecuTorch 1.0
---
4️⃣ 🤖 torchforge —
❌کتابخانهای برای یادگیری تقویتی (RL) و ساخت Agentها
✳️همچنین PyTorch با Torchforge مسیر تازهای در هوش مصنوعی عاملمحور باز کرده است.
ساختارش به گونهای طراحی شده که بخش الگوریتمی از زیرساخت جداست — تا تمرکز فقط روی منطق یادگیری باشد.
🔗 torchforge
---
📊 نتیجه:
همچنین PyTorch بهوضوح دارد از یک فریمورک آموزشی به اکوسیستم کامل AI برای تولید، استقرار و بهینهسازی مدلها تبدیل میشود.
دو روز فوقالعاده پربار برای جامعه هوش مصنوعی 🌍
@rss_ai_ir
#PyTorch #Helion #ExecuTorch #torchforge #AI #DeepLearning #ML #PyTorchCon
🔥2👏1🙏1
⚡️ LMMs Engine –
موتور واحد برای آموزش مدلهای چندوجهی (Multimodal)
فریمورکی ساده، منعطف و قدرتمند از LMMs-Lab برای آموزش مدلهایی که همزمان میتوانند متن، تصویر، صدا و ویدیو را درک کنند — همه در یک محیط یکپارچه 🎛️
🎯 ویژگیها:
پشتیبانی از بیش از ۱۹ معماری مختلف:
🧠 Qwen3-VL:
پردازش تصویر با رزولوشن اصلی و کانتکست بیش از ۱۰٬۰۰۰ توکن
🎧 Qwen2.5-Omni:
مدل واحد برای متن، تصویر و صوت
🎥 WanVideo:
تولید ویدیو از متن، تصویر یا ویدیو (T2V, I2V, V2V)
🌫 dLLM:
مدلهای زبانی دیفیوژنی
🪄 LLaVA-OneVision، Bagel، SiT، RAE-SigLip و دیگر مدلهای پیشرفته
📜 لایسنس: Apache 2.0 — قابلاستفاده حتی در پروژههای تجاری
🔗 گیتهاب:
github.com/EvolvingLMMs-Lab/lmms-engine
@rss_ai_ir
#AI #Multimodal #OpenSource #DeepLearning #LLM #LMMsEngine
موتور واحد برای آموزش مدلهای چندوجهی (Multimodal)
فریمورکی ساده، منعطف و قدرتمند از LMMs-Lab برای آموزش مدلهایی که همزمان میتوانند متن، تصویر، صدا و ویدیو را درک کنند — همه در یک محیط یکپارچه 🎛️
🎯 ویژگیها:
پشتیبانی از بیش از ۱۹ معماری مختلف:
🧠 Qwen3-VL:
پردازش تصویر با رزولوشن اصلی و کانتکست بیش از ۱۰٬۰۰۰ توکن
🎧 Qwen2.5-Omni:
مدل واحد برای متن، تصویر و صوت
🎥 WanVideo:
تولید ویدیو از متن، تصویر یا ویدیو (T2V, I2V, V2V)
🌫 dLLM:
مدلهای زبانی دیفیوژنی
🪄 LLaVA-OneVision، Bagel، SiT، RAE-SigLip و دیگر مدلهای پیشرفته
📜 لایسنس: Apache 2.0 — قابلاستفاده حتی در پروژههای تجاری
🔗 گیتهاب:
github.com/EvolvingLMMs-Lab/lmms-engine
@rss_ai_ir
#AI #Multimodal #OpenSource #DeepLearning #LLM #LMMsEngine
❤2