🚀 استفاده از مدلهای زبانی در Go با کتابخانهی جدید yzma
کتابخانهی yzma امکان اجرای مدلهای زبانی (LLM)، مدلهای دید-زبان (VLM) و سایر معماریها را بهصورت بومی روی سختافزار خودتان فراهم میکند — با پشتیبانی کامل از شتاب سختافزاری و بدون نیاز به CGo! ⚙️
💡 ویژگیهای کلیدی:
🔹 پشتیبانی از VLM، LLM، SLM و TLM در یک پکیج واحد
🔹 بهرهگیری کامل از شتابدهندههای سختافزاری برای بیشترین سرعت
🔹 بدون نیاز به C compiler — نصب و اجرا تنها با Go
🔹 کاملاً سازگار با نسخههای جدید llama.cpp
🔹 همراه با نمونهکدهای آماده برای انواع مدلها
📦 سیستمعاملهای پشتیبانیشده:
Linux 🐧
macOS 🍎
Windows 💻
📌 سورسکد و مستندات:
github.com/hybridgroup/yzma
با yzma، زبان Go بالاخره ابزار قدرتمند و سادهای برای استفاده مستقیم از مدلهای هوش مصنوعی روی دستگاه محلی پیدا کرده است. 🚀
@rss_ai_ir
#Go #LLM #VLM #AI #yzma #MachineLearning #OpenSource
کتابخانهی yzma امکان اجرای مدلهای زبانی (LLM)، مدلهای دید-زبان (VLM) و سایر معماریها را بهصورت بومی روی سختافزار خودتان فراهم میکند — با پشتیبانی کامل از شتاب سختافزاری و بدون نیاز به CGo! ⚙️
💡 ویژگیهای کلیدی:
🔹 پشتیبانی از VLM، LLM، SLM و TLM در یک پکیج واحد
🔹 بهرهگیری کامل از شتابدهندههای سختافزاری برای بیشترین سرعت
🔹 بدون نیاز به C compiler — نصب و اجرا تنها با Go
🔹 کاملاً سازگار با نسخههای جدید llama.cpp
🔹 همراه با نمونهکدهای آماده برای انواع مدلها
📦 سیستمعاملهای پشتیبانیشده:
Linux 🐧
macOS 🍎
Windows 💻
📌 سورسکد و مستندات:
github.com/hybridgroup/yzma
با yzma، زبان Go بالاخره ابزار قدرتمند و سادهای برای استفاده مستقیم از مدلهای هوش مصنوعی روی دستگاه محلی پیدا کرده است. 🚀
@rss_ai_ir
#Go #LLM #VLM #AI #yzma #MachineLearning #OpenSource
👍2
🎉 مدل Qwen3-VL حالا در llama.cpp اجرا میشود! 🤖💥
خبر عالی برای عاشقان اجرای محلی مدلها —
حالا میتوانید Qwen3-VL را مستقیماً روی دستگاه خود اجرا کنید، بدون نیاز به ابر یا سرویسهای جانبی!
🚀 پشتیبانی کامل از:
✳️CPU
✳️CUDA
✳️Metal
✳️Vulkan
و سایر بکاندهای رایج.
📦 وزنهای GGUF برای همه نسخهها در دسترس است — از ۲B تا ۲۳۵B.
این یعنی از لپتاپ تا ایستگاه کاری قدرتمند، میتوانید نسخهای مناسب اجرا کنید.
---
🔗 منابع:
🤗 Hugging Face
🤖 ModelScope
📌 PR در llama.cpp
📡 @rss_ai_ir
#هوش_مصنوعی #LLM #Qwen3 #LlamaCpp #AI #OpenSource
خبر عالی برای عاشقان اجرای محلی مدلها —
حالا میتوانید Qwen3-VL را مستقیماً روی دستگاه خود اجرا کنید، بدون نیاز به ابر یا سرویسهای جانبی!
🚀 پشتیبانی کامل از:
✳️CPU
✳️CUDA
✳️Metal
✳️Vulkan
و سایر بکاندهای رایج.
📦 وزنهای GGUF برای همه نسخهها در دسترس است — از ۲B تا ۲۳۵B.
این یعنی از لپتاپ تا ایستگاه کاری قدرتمند، میتوانید نسخهای مناسب اجرا کنید.
---
🔗 منابع:
🤗 Hugging Face
🤖 ModelScope
📌 PR در llama.cpp
📡 @rss_ai_ir
#هوش_مصنوعی #LLM #Qwen3 #LlamaCpp #AI #OpenSource
❤5
This media is not supported in your browser
VIEW IN TELEGRAM
💻 در llama.cpp رابط وب شبیه Automatic1111 ساخته شد! 🤖⚙️
توسعهدهندگان llama.cpp حالا نسخهای از WebUI مخصوص خودشان را ارائه کردهاند — چیزی شبیه Automatic1111 برای Stable Diffusion، اما اینبار برای مدلهای زبانی (LLM)!
برخلاف ابزارهای تولید تصویر که صدها پارامتر دارند، این رابط سادهتر است و بیشتر شبیه ChatGPT یا Qwen Chat عمل میکند.
کافی است:
1️⃣ سرور محلی خود را اجرا کنید،
2️⃣ آدرس 127.0.0.1 را در مرورگر باز کنید،
3️⃣ و از طریق رابط وب به صدها مدل بازمتن دسترسی پیدا کنید.
📂 همچنین میتوانید تصاویر یا اسناد خود را آپلود کنید تا مدل مستقیماً با دادههای شما کار کند.
📘 دستورالعمل کامل در گیتهاب:
👉 github.com/ggml-org/llama.cpp#hot-topics
📡 @rss_ai_ir
#هوش_مصنوعی #llamaCpp #LLM #OpenSource #AI #WebUI
توسعهدهندگان llama.cpp حالا نسخهای از WebUI مخصوص خودشان را ارائه کردهاند — چیزی شبیه Automatic1111 برای Stable Diffusion، اما اینبار برای مدلهای زبانی (LLM)!
برخلاف ابزارهای تولید تصویر که صدها پارامتر دارند، این رابط سادهتر است و بیشتر شبیه ChatGPT یا Qwen Chat عمل میکند.
کافی است:
1️⃣ سرور محلی خود را اجرا کنید،
2️⃣ آدرس 127.0.0.1 را در مرورگر باز کنید،
3️⃣ و از طریق رابط وب به صدها مدل بازمتن دسترسی پیدا کنید.
📂 همچنین میتوانید تصاویر یا اسناد خود را آپلود کنید تا مدل مستقیماً با دادههای شما کار کند.
📘 دستورالعمل کامل در گیتهاب:
👉 github.com/ggml-org/llama.cpp#hot-topics
📡 @rss_ai_ir
#هوش_مصنوعی #llamaCpp #LLM #OpenSource #AI #WebUI
🔥4❤1
🔥 Kimi K2 Thinking —
عامل متنباز که واقعاً فکر میکند!
شرکت Moonshot AI مدل جدید خود با نام Kimi K2 Thinking را منتشر کرده است — عاملی متنباز برای استدلال خودکار و استفاده از ابزارها که در حال شکستن رکوردهای جدید است.
🔹 عملکرد:
• بهترین نتایج (SOTA) در HLE با ۴۴.۹٪ و BrowseComp با ۶۰.۲٪
• انجام ۲۰۰ تا ۳۰۰ فراخوان ابزاری بدون نیاز به دخالت انسان
• تخصص در استدلال، جستجوی عاملمحور و کدنویسی
• دارای پنجرهی زمینهی ۲۵۶K
🧠 طراحیشده برای “test-time scaling”:
همچنین K2 فقط برای پیشبینی توکنها آموزش ندیده، بلکه برای تفکر گامبهگام در حل مسائل ساخته شده — با مقیاسپذیری در عمق استدلال و تعداد گامهای ابزاری.
🌐 در دسترس:
• حالت گفتگو:
kimi.com
• API:
platform.moonshot.ai
• وبلاگ فنی:
moonshotai.github.io/Kimi-K2/thinking
• وزنها و کد:
huggingface.co/moonshotai
عاملهای متنباز با سرعتی باور نکردنی در حال پیشرفتاند.
چالش بعدی Kimi: تبدیل قدرت خام استدلال به خودمختاری واقعی در دنیای فیزیکی. 🤖
#هوش_مصنوعی #عامل_هوشمند #KimiK2 #MoonshotAI #AGI #AI #OpenSource #Neural
عامل متنباز که واقعاً فکر میکند!
شرکت Moonshot AI مدل جدید خود با نام Kimi K2 Thinking را منتشر کرده است — عاملی متنباز برای استدلال خودکار و استفاده از ابزارها که در حال شکستن رکوردهای جدید است.
🔹 عملکرد:
• بهترین نتایج (SOTA) در HLE با ۴۴.۹٪ و BrowseComp با ۶۰.۲٪
• انجام ۲۰۰ تا ۳۰۰ فراخوان ابزاری بدون نیاز به دخالت انسان
• تخصص در استدلال، جستجوی عاملمحور و کدنویسی
• دارای پنجرهی زمینهی ۲۵۶K
🧠 طراحیشده برای “test-time scaling”:
همچنین K2 فقط برای پیشبینی توکنها آموزش ندیده، بلکه برای تفکر گامبهگام در حل مسائل ساخته شده — با مقیاسپذیری در عمق استدلال و تعداد گامهای ابزاری.
🌐 در دسترس:
• حالت گفتگو:
kimi.com
• API:
platform.moonshot.ai
• وبلاگ فنی:
moonshotai.github.io/Kimi-K2/thinking
• وزنها و کد:
huggingface.co/moonshotai
عاملهای متنباز با سرعتی باور نکردنی در حال پیشرفتاند.
چالش بعدی Kimi: تبدیل قدرت خام استدلال به خودمختاری واقعی در دنیای فیزیکی. 🤖
#هوش_مصنوعی #عامل_هوشمند #KimiK2 #MoonshotAI #AGI #AI #OpenSource #Neural
❤1🔥1
⭐ مدل VibeThinker-1.5B؛ مدل کوچک اما رکوردشکن در استدلال
این مدل ۱.۵ میلیارد پارامتری با وجود اندازهی بسیار کوچک، در آزمونهای استدلالی به نتایج SOTA رسیده است.
🚀 عملکرد:
در AIME24/25 و HMMT25 جزو بهترینهاست و حتی مدل DeepSeek R1-0120 را در مسائل ریاضی پشت سر میگذارد. در برنامهنویسی رقابتی هم بالاتر از مدلهای همحجم ظاهر شده است.
⚡ بهرهوری:
فقط ۱.۵B پارامتر — یعنی ۱۰۰ تا ۶۰۰ برابر کوچکتر از مدلهایی مثل Kimi K2 و DeepSeek R1.
💰 هزینه:
کل هزینهٔ پستمرین حدود ۷.۸ هزار دلار بوده؛ یعنی ۳۰ تا ۶۰ برابر ارزانتر از DeepSeek R1 یا MiniMax-M1.
این مدل بر پایهٔ Spectrum-to-Signal Principle (SSP) و فریمورک MGPO ساخته شده تا فرآیند استدلال را بهینه کند.
📦 Model:
hf.co/WeiboAI/VibeThinker-1.5B
💻 GitHub:
github.com/WeiboAI/VibeThinker
📄 Arxiv:
arxiv.org/abs/2511.06221
#AI #LLM #Reasoning #OpenSource #SmallModel @rss_ai_ir
این مدل ۱.۵ میلیارد پارامتری با وجود اندازهی بسیار کوچک، در آزمونهای استدلالی به نتایج SOTA رسیده است.
🚀 عملکرد:
در AIME24/25 و HMMT25 جزو بهترینهاست و حتی مدل DeepSeek R1-0120 را در مسائل ریاضی پشت سر میگذارد. در برنامهنویسی رقابتی هم بالاتر از مدلهای همحجم ظاهر شده است.
⚡ بهرهوری:
فقط ۱.۵B پارامتر — یعنی ۱۰۰ تا ۶۰۰ برابر کوچکتر از مدلهایی مثل Kimi K2 و DeepSeek R1.
💰 هزینه:
کل هزینهٔ پستمرین حدود ۷.۸ هزار دلار بوده؛ یعنی ۳۰ تا ۶۰ برابر ارزانتر از DeepSeek R1 یا MiniMax-M1.
این مدل بر پایهٔ Spectrum-to-Signal Principle (SSP) و فریمورک MGPO ساخته شده تا فرآیند استدلال را بهینه کند.
📦 Model:
hf.co/WeiboAI/VibeThinker-1.5B
💻 GitHub:
github.com/WeiboAI/VibeThinker
📄 Arxiv:
arxiv.org/abs/2511.06221
#AI #LLM #Reasoning #OpenSource #SmallModel @rss_ai_ir
🚀 یک موتور قدرتمند برای مدلهای چندمودالی (Multimodal Models)
اگر با مدلهای ترکیبی متن–تصویر–ویدیو کار میکنید، LMMs-Engine یکی از بهترین فریمورکهای جدید است.
این موتور فوقسبک و بسیار انعطافپذیر، مخصوص آموزش و توسعهی مدلهای چندمودالی طراحی شده و حتی در مقیاسهای بزرگ هم کارایی بسیار بالایی دارد.
💡 ویژگیهای برجسته:
🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدلهای ترکیبی
⚙️ بهینهسازی برای آموزش توزیعشده با مصرف حافظه بسیار کم
🧩 شامل دهها نمونه آماده اجرا برای شروع سریع با مدلهای مختلف
⚡ مناسب برای پژوهشگران، توسعهدهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند
📌 گیتهاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine
---
#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
اگر با مدلهای ترکیبی متن–تصویر–ویدیو کار میکنید، LMMs-Engine یکی از بهترین فریمورکهای جدید است.
این موتور فوقسبک و بسیار انعطافپذیر، مخصوص آموزش و توسعهی مدلهای چندمودالی طراحی شده و حتی در مقیاسهای بزرگ هم کارایی بسیار بالایی دارد.
💡 ویژگیهای برجسته:
🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدلهای ترکیبی
⚙️ بهینهسازی برای آموزش توزیعشده با مصرف حافظه بسیار کم
🧩 شامل دهها نمونه آماده اجرا برای شروع سریع با مدلهای مختلف
⚡ مناسب برای پژوهشگران، توسعهدهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند
📌 گیتهاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine
---
#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
😁19🔥17❤12🥰12🎉12👍10👏10🙏1
🎬 پروژه متنباز UniVA معرفی شد؛ عامل ویدئویی نسل جدید که میتواند ویدئو را درک، تحلیل و روی آن عمل کند. این مدل برای وظایف مختلف ویدیویی کاربرد دارد؛ از رباتیک و نظارت هوشمند تا تولید خودکار محتوا.
🔗 لینکها:
Hf:
https://huggingface.co/papers/2511.08521
Paper:
https://arxiv.org/pdf/2511.08521
GitHub:
https://github.com/univa-agent/univa
@rss_ai_ir
#هوش_مصنوعی #ویدئو #عامل_ویدئویی #UniVA #AI #OpenSource
🔗 لینکها:
Hf:
https://huggingface.co/papers/2511.08521
Paper:
https://arxiv.org/pdf/2511.08521
GitHub:
https://github.com/univa-agent/univa
@rss_ai_ir
#هوش_مصنوعی #ویدئو #عامل_ویدئویی #UniVA #AI #OpenSource
🔥15🎉13👏11😁11❤8👍8🥰5
🎬🤖 UniVA:
ایجنت هوشمند و متنباز برای پردازش و تولید ویدئو
ایجنت UniVA یک ایجنت ویدئویی چندعاملی (Multi-Agent) متنباز است که نسل جدیدی از هوش مصنوعی ویدئویی را هدف گرفته.
این سیستم میتواند کارهای پیچیده ویدئویی را در یک جریان واحد انجام دهد:
🟣 فهم و تحلیل ویدئو
🟣 ویرایش و Segmentation
🟣 ساخت و تولید ویدئو از متن/عکس/ویدئو
🟣 پردازش چندمرحلهای با برنامهریزی و اجرای خودکار (Plan-and-Act)
ایجنت UniVA با حافظه چندلایه و ارتباط بین ایجنتها میتواند فرآیندهای طولانی و پروژههای پیچیده ویدئویی را مدیریت کند.
📌 لینکها: 🔗 HuggingFace (پروژه):
https://huggingface.co/papers/2511.08521
📄 Paper:
https://arxiv.org/pdf/2511.08521
💻 GitHub:
https://github.com/univa-agent/univa
@rss_ai_ir
#هوش_مصنوعی #VideoAI #AgenticAI #UniVA #OpenSource #MultimodalAI
ایجنت هوشمند و متنباز برای پردازش و تولید ویدئو
ایجنت UniVA یک ایجنت ویدئویی چندعاملی (Multi-Agent) متنباز است که نسل جدیدی از هوش مصنوعی ویدئویی را هدف گرفته.
این سیستم میتواند کارهای پیچیده ویدئویی را در یک جریان واحد انجام دهد:
🟣 فهم و تحلیل ویدئو
🟣 ویرایش و Segmentation
🟣 ساخت و تولید ویدئو از متن/عکس/ویدئو
🟣 پردازش چندمرحلهای با برنامهریزی و اجرای خودکار (Plan-and-Act)
ایجنت UniVA با حافظه چندلایه و ارتباط بین ایجنتها میتواند فرآیندهای طولانی و پروژههای پیچیده ویدئویی را مدیریت کند.
📌 لینکها: 🔗 HuggingFace (پروژه):
https://huggingface.co/papers/2511.08521
📄 Paper:
https://arxiv.org/pdf/2511.08521
💻 GitHub:
https://github.com/univa-agent/univa
@rss_ai_ir
#هوش_مصنوعی #VideoAI #AgenticAI #UniVA #OpenSource #MultimodalAI
👍8😁7🎉6🔥5❤4🥰4👏2
⚡ Heretic —
ابزاری برای حذف سانسور (Alignment) از مدلهای زبانی
🛠 ابزار Heretic روشی ارائه میدهد که بدون دسترسی به وزنهای مدل و تنها از طریق API، محدودیتهای رفتاری و فیلترهای پاسخدهی مدل را کاهش دهد و آمادگی آن برای پاسخگویی گستردهتر را افزایش دهد.
🔍 این ابزار چه میکند؟
✅مدل را مانند جعبهسیاه (Black-box) در نظر میگیرد
✅مجموعهای از پرسشهای «ایمن» و «غیرایمن» را به مدل میدهد
✅یک دیسکریمیناتور آموزش میدهد تا تفاوت پاسخهای قبل و بعد از آزادسازی را تشخیص دهد
✅پارامترهایی پیدا میکند که باعث کاهش پاسخهای رد / انکار شود اما مدل را از حالت منطقی خارج نکند
✅در پایان میتوان نسخه تعدیلشده را ذخیره کرد یا در حالت چت تست نمود
🎯 کاربردها:
♻️فعالتر کردن مدلهای لوکال برای پاسخگویی به طیف وسیعتری از درخواستها
♻️مناسب برای تحقیقات درباره رفتار مدلها و آزمایش محدودیتها
♻️کاهش سانسور بدون افت شدید کیفیت یا تبدیل مدل به پاسخدهنده بیدقت
⚠️ نکات مهم:
✳️استفاده از این ابزار مسئولیت اخلاقی و حقوقی دارد
✳️هدف Heretic افزایش دقت یا توانایی مدل نیست؛
✳️هدف، برداشتن قفلهای رفتاری ناشی از Alignment است
✳️ممکن است در برخی حوزهها خطرناک باشد و نیازمند رویکرد مسئولانه است
📎 پروژه در GitHub:
github.com/p-e-w/heretic
---
#هوش_مصنوعی #مدل_زبان #LLM #Alignment #OpenSource
@rss_ai_ir
ابزاری برای حذف سانسور (Alignment) از مدلهای زبانی
🛠 ابزار Heretic روشی ارائه میدهد که بدون دسترسی به وزنهای مدل و تنها از طریق API، محدودیتهای رفتاری و فیلترهای پاسخدهی مدل را کاهش دهد و آمادگی آن برای پاسخگویی گستردهتر را افزایش دهد.
🔍 این ابزار چه میکند؟
✅مدل را مانند جعبهسیاه (Black-box) در نظر میگیرد
✅مجموعهای از پرسشهای «ایمن» و «غیرایمن» را به مدل میدهد
✅یک دیسکریمیناتور آموزش میدهد تا تفاوت پاسخهای قبل و بعد از آزادسازی را تشخیص دهد
✅پارامترهایی پیدا میکند که باعث کاهش پاسخهای رد / انکار شود اما مدل را از حالت منطقی خارج نکند
✅در پایان میتوان نسخه تعدیلشده را ذخیره کرد یا در حالت چت تست نمود
🎯 کاربردها:
♻️فعالتر کردن مدلهای لوکال برای پاسخگویی به طیف وسیعتری از درخواستها
♻️مناسب برای تحقیقات درباره رفتار مدلها و آزمایش محدودیتها
♻️کاهش سانسور بدون افت شدید کیفیت یا تبدیل مدل به پاسخدهنده بیدقت
⚠️ نکات مهم:
✳️استفاده از این ابزار مسئولیت اخلاقی و حقوقی دارد
✳️هدف Heretic افزایش دقت یا توانایی مدل نیست؛
✳️هدف، برداشتن قفلهای رفتاری ناشی از Alignment است
✳️ممکن است در برخی حوزهها خطرناک باشد و نیازمند رویکرد مسئولانه است
📎 پروژه در GitHub:
github.com/p-e-w/heretic
---
#هوش_مصنوعی #مدل_زبان #LLM #Alignment #OpenSource
@rss_ai_ir
👏8🔥7👍6🎉5❤4🥰4😁2
💡 شرکت DeepSeek پروژهی جدید خود با نام LPLB را بهصورت متنباز منتشر کرد؛ ابزاری آزمایشی برای مدیریت هوشمند بار در معماریهای MoE
🧠 در این سیستم چند نکتهٔ مهم وجود دارد:
الگوریتم بهصورت پویا بار بین «اکسپرتها» را بر اساس آمار استفاده جابهجا میکند ⚙️
ساخت و جایگذاری نسخههای تکراری (Replica) بر پایهٔ توپولوژی خوشه انجام میشود 🛰️
فرایند پیدا کردن توزیع بهینهٔ توکنها توسط حلکنندهٔ خطی (LP Solver) مستقیماً روی GPU انجام میگیرد، با استفاده از cuSolverDx و cuBLASDx ⚡️
معیارهای بارگذاری از طریق دو روش قابل دریافت است:
• استفادهٔ مستقیم از torch.distributed
• یا بهرهگیری از بافرهای Deep-EP 🔧
📚 در مخزن گیتهاب یک راهنمای کامل قرار دارد که نشان میدهد یک بالانسر دقیق و هوشمند برای مدلهای MoE چگونه باید طراحی شود.
🔗 GitHub:
https://github.com/deepseek-ai/LPLB
#DeepSeek #MoE #AIInfrastructure #OpenSource
🧠 در این سیستم چند نکتهٔ مهم وجود دارد:
الگوریتم بهصورت پویا بار بین «اکسپرتها» را بر اساس آمار استفاده جابهجا میکند ⚙️
ساخت و جایگذاری نسخههای تکراری (Replica) بر پایهٔ توپولوژی خوشه انجام میشود 🛰️
فرایند پیدا کردن توزیع بهینهٔ توکنها توسط حلکنندهٔ خطی (LP Solver) مستقیماً روی GPU انجام میگیرد، با استفاده از cuSolverDx و cuBLASDx ⚡️
معیارهای بارگذاری از طریق دو روش قابل دریافت است:
• استفادهٔ مستقیم از torch.distributed
• یا بهرهگیری از بافرهای Deep-EP 🔧
📚 در مخزن گیتهاب یک راهنمای کامل قرار دارد که نشان میدهد یک بالانسر دقیق و هوشمند برای مدلهای MoE چگونه باید طراحی شود.
🔗 GitHub:
https://github.com/deepseek-ai/LPLB
#DeepSeek #MoE #AIInfrastructure #OpenSource
🤖 استک GELab-Zero؛ نخستین استک کاملاً متنباز برای GUI-Agent ها
یک خبر مهم برای دنیای ایجنتها: استک GELab-Zero منتشر شد؛ ترکیبی کامل از مدل + زیرساخت که جایگزین متنباز برای سیستمهای سطح بالایی مثل GUI-Agent MCP محسوب میشود. نسخهای سبک، سریع و قابل اجرا بهصورت کامل روی سیستم شخصی شما 🚀
🔧 چه چیزهایی داخلش هست؟
مدل ۴B در سطح SOTA؛ سریع، کمهزینه و قابل اجرا روی GPUهای سبک
زیرساخت راهاندازی «تککلیک» بدون دردسرهای ADB
بنچمارک AndroidDaily بر اساس سناریوهای واقعی کاربران
📊 نتایج و عملکرد
دقت ۷۳.۴٪ روی AndroidDaily
عملکرد بهتر از مدلهای بزرگتری مثل GUI-Owl-32B
بالاتر از Gemini-2.5-pro-thinking و GPT-4o در تستهای GUI
برتری قابل توجه روی ScreenSpot، AndroidWorld و OSWorld
🎯 هدف استک مشخص است:
نصب کن، اجرا کن، شخصیسازی کن، و توسعه بده — بالاخره یک گزینهٔ متنباز واقعی برای GUI-Agent ها در دسترس است.
🔗 لینکها:
HuggingFace:
https://huggingface.co/stepfun-ai/GELab-Zero-4B-preview
GitHub:
https://github.com/stepfun-ai/gelab-zero
Blog:
https://opengelab.github.io/index.html
#GELabZero #AI #Agents #GUIAgents #MachineLearning #OpenSource #DeepLearning @rss_ai_ir
یک خبر مهم برای دنیای ایجنتها: استک GELab-Zero منتشر شد؛ ترکیبی کامل از مدل + زیرساخت که جایگزین متنباز برای سیستمهای سطح بالایی مثل GUI-Agent MCP محسوب میشود. نسخهای سبک، سریع و قابل اجرا بهصورت کامل روی سیستم شخصی شما 🚀
🔧 چه چیزهایی داخلش هست؟
مدل ۴B در سطح SOTA؛ سریع، کمهزینه و قابل اجرا روی GPUهای سبک
زیرساخت راهاندازی «تککلیک» بدون دردسرهای ADB
بنچمارک AndroidDaily بر اساس سناریوهای واقعی کاربران
📊 نتایج و عملکرد
دقت ۷۳.۴٪ روی AndroidDaily
عملکرد بهتر از مدلهای بزرگتری مثل GUI-Owl-32B
بالاتر از Gemini-2.5-pro-thinking و GPT-4o در تستهای GUI
برتری قابل توجه روی ScreenSpot، AndroidWorld و OSWorld
🎯 هدف استک مشخص است:
نصب کن، اجرا کن، شخصیسازی کن، و توسعه بده — بالاخره یک گزینهٔ متنباز واقعی برای GUI-Agent ها در دسترس است.
🔗 لینکها:
HuggingFace:
https://huggingface.co/stepfun-ai/GELab-Zero-4B-preview
GitHub:
https://github.com/stepfun-ai/gelab-zero
Blog:
https://opengelab.github.io/index.html
#GELabZero #AI #Agents #GUIAgents #MachineLearning #OpenSource #DeepLearning @rss_ai_ir
❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 دست رباتیک Aero Hand با قیمت فقط ۳۱۴ دلار! 🤖🖐️
یک دست رباتیک فوقالعاده از TetherIA معرفی شده که هم اوپنسورس است، هم ارزان، هم فوقالعاده قدرتمند 👇
🔧 مشخصات کلیدی:
وزن فقط ۴۰۰ گرم
دارای ۷ موتور
۱۶ مفصل حرکتی
شست با ۳ درجه آزادی (3-DoF)
کاملاً Backdrivable
پشتیبانی از کنترل چندحالته (Multi-Modal Control)
💪 قدرت و دقت:
توانایی بلند کردن ۱۸ کیلوگرم!
قابلیت گرفتن اشیای سریع بدون خطا
در دموی اخیر، کارت بالایی از دسته کارت را برداشت و دوباره کاملاً دقیق سرجایش گذاشت—کاری که حتی برای بسیاری از رباتهای گرانقیمت سخت است.
این دست رباتیک نشان میدهد رباتیک دقیق و قدرتمند دیگر فقط برای آزمایشگاههای میلیونی نیست—به دست همه میرسد.
🪙 @rss_ai_ir
#Robotics #AI #AeroHand #TetherIA #RobotArm #OpenSource #TechInnovation
یک دست رباتیک فوقالعاده از TetherIA معرفی شده که هم اوپنسورس است، هم ارزان، هم فوقالعاده قدرتمند 👇
🔧 مشخصات کلیدی:
وزن فقط ۴۰۰ گرم
دارای ۷ موتور
۱۶ مفصل حرکتی
شست با ۳ درجه آزادی (3-DoF)
کاملاً Backdrivable
پشتیبانی از کنترل چندحالته (Multi-Modal Control)
💪 قدرت و دقت:
توانایی بلند کردن ۱۸ کیلوگرم!
قابلیت گرفتن اشیای سریع بدون خطا
در دموی اخیر، کارت بالایی از دسته کارت را برداشت و دوباره کاملاً دقیق سرجایش گذاشت—کاری که حتی برای بسیاری از رباتهای گرانقیمت سخت است.
این دست رباتیک نشان میدهد رباتیک دقیق و قدرتمند دیگر فقط برای آزمایشگاههای میلیونی نیست—به دست همه میرسد.
🪙 @rss_ai_ir
#Robotics #AI #AeroHand #TetherIA #RobotArm #OpenSource #TechInnovation
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 شبیه ساز IR-SIM؛ شبیهساز پایتونیِ سبک و متنباز برای رباتیک و یادگیری تقویتی
اینکه IR-SIM یک راه ساده و کارآمد برای شبیهسازی رباتها، سنسورها و محیطهای مختلف فراهم میکند—بدون نیاز به زیرساخت پیچیده یا سختافزار گران. این ابزار برای آموزش، پژوهش، آزمایش سریع ایدهها و پروتوتایپسازی الگوریتمها عالی است.
قابلیتها:
• شبیهسازی رباتها با انواع مدلهای حرکتی، سنسورها و رفتارها
• ساخت سناریوها فقط با ویرایش فایلهای ساده YAML
• نمایش نتایج با ویژوالایزر داخلی مبتنی بر matplotlib؛ مناسب برای دیباگ و درک رفتار
• پشتیبانی از برخورد اشیاء و تعریف سیاستهای رفتاری سفارشی
• اجرای سناریوهای چندعاملی و پروژههای یادگیری تقویتی (RL)
این ابزار زمانی کاربردی است که بخواهید سریع یک الگوریتم ناوبری را تست کنید، دینامیک ربات را بررسی کنید، یا یک پروژه آموزشی بدون دردسر راهاندازی کنید.
مثالهای آمادهٔ IR-SIM شامل: ناوبری، تعامل اشیا، تجسمسازی و سناریوهای RL است—نقطه شروع عالی برای دانشجویان و توسعهدهندگان سیستمهای خودمختار.
🔗 https://github.com/hanruihua/ir-sim
#رباتیک 🤖 #پایتون 🐍 #شبیهسازی 🛰️ #یادگیری_تقویتی 💠 #AI #opensource
اینکه IR-SIM یک راه ساده و کارآمد برای شبیهسازی رباتها، سنسورها و محیطهای مختلف فراهم میکند—بدون نیاز به زیرساخت پیچیده یا سختافزار گران. این ابزار برای آموزش، پژوهش، آزمایش سریع ایدهها و پروتوتایپسازی الگوریتمها عالی است.
قابلیتها:
• شبیهسازی رباتها با انواع مدلهای حرکتی، سنسورها و رفتارها
• ساخت سناریوها فقط با ویرایش فایلهای ساده YAML
• نمایش نتایج با ویژوالایزر داخلی مبتنی بر matplotlib؛ مناسب برای دیباگ و درک رفتار
• پشتیبانی از برخورد اشیاء و تعریف سیاستهای رفتاری سفارشی
• اجرای سناریوهای چندعاملی و پروژههای یادگیری تقویتی (RL)
این ابزار زمانی کاربردی است که بخواهید سریع یک الگوریتم ناوبری را تست کنید، دینامیک ربات را بررسی کنید، یا یک پروژه آموزشی بدون دردسر راهاندازی کنید.
مثالهای آمادهٔ IR-SIM شامل: ناوبری، تعامل اشیا، تجسمسازی و سناریوهای RL است—نقطه شروع عالی برای دانشجویان و توسعهدهندگان سیستمهای خودمختار.
🔗 https://github.com/hanruihua/ir-sim
#رباتیک 🤖 #پایتون 🐍 #شبیهسازی 🛰️ #یادگیری_تقویتی 💠 #AI #opensource
❤3
🚀 پروتکل Model Context Protocol (MCP) یک گام بسیار مهم برداشت
این پروتکل که از همان ابتدا بهصورت اوپنسورس و شفاف توسعه پیدا کرده بود، حالا رسماً زیر چتر Linux Foundation قرار گرفت.
🌍 این اتفاق برای آینده اکوسیستم هوش مصنوعی اهمیت زیادی دارد، چون:
♻️استاندارد MCP مستقل باقی میماند
♻️مدیریت آن به جامعه توسعهدهندگان سپرده میشود
♻️مسیر پذیرش گسترده در ابزارها و ایجنتهای AI هموارتر میشود
🤖 اینکه MCP یکی از پایههای کلیدی برای تعامل ایجنتها، ابزارها و کانتکست در سیستمهای هوشمند آینده است و ورود آن به Linux Foundation یعنی ثبات، اعتماد و رشد بلندمدت.
🔗 لینک خبر:
https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
@rss_ai_ir
#AI #OpenSource #MCP #LinuxFoundation #Agents #LLM #DeveloperTools
این پروتکل که از همان ابتدا بهصورت اوپنسورس و شفاف توسعه پیدا کرده بود، حالا رسماً زیر چتر Linux Foundation قرار گرفت.
🌍 این اتفاق برای آینده اکوسیستم هوش مصنوعی اهمیت زیادی دارد، چون:
♻️استاندارد MCP مستقل باقی میماند
♻️مدیریت آن به جامعه توسعهدهندگان سپرده میشود
♻️مسیر پذیرش گسترده در ابزارها و ایجنتهای AI هموارتر میشود
🤖 اینکه MCP یکی از پایههای کلیدی برای تعامل ایجنتها، ابزارها و کانتکست در سیستمهای هوشمند آینده است و ورود آن به Linux Foundation یعنی ثبات، اعتماد و رشد بلندمدت.
🔗 لینک خبر:
https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
@rss_ai_ir
#AI #OpenSource #MCP #LinuxFoundation #Agents #LLM #DeveloperTools
😁9👍5🔥5👏5❤4🎉3🥰2🙏1
🚀 مدل Paper2Slides حالا متنباز شد!
حالا میتونی مقالههای علمی و گزارشهای فنی رو فقط با یک کلیک به اسلایدهای حرفهای تبدیل کنی 📊✨
ما همین الان اسلایدهای مربوط به DeepSeek V3.2 رو باهاش ساختیم؛
استایلهای مختلف، طراحی تمیز و خروجی واقعاً قابل ارائه 👌
🔥 اینکه Paper2Slides چه کارهایی میکنه؟
📄 پشتیبانی از فرمتهای مختلف:
PDF، Word، Excel، PowerPoint و بیشتر
🧠 درک محتوا:
ایدههای کلیدی، جدولها، فرمولها، نمودارها و دادهها رو خودش استخراج میکنه
🎨 شخصیسازی کامل:
تمهای آماده + امکان تغییر استایل به سلیقه خودت
⚡ سرعت بالا:
اسلایدهای باکیفیت در چند دقیقه
🔗 گیتهاب:
github.com/HKUDS/Paper2Slides
📢 @rss_ai_ir
#AI #OpenSource #Presentation #Research #MachineLearning #Productivity
حالا میتونی مقالههای علمی و گزارشهای فنی رو فقط با یک کلیک به اسلایدهای حرفهای تبدیل کنی 📊✨
ما همین الان اسلایدهای مربوط به DeepSeek V3.2 رو باهاش ساختیم؛
استایلهای مختلف، طراحی تمیز و خروجی واقعاً قابل ارائه 👌
🔥 اینکه Paper2Slides چه کارهایی میکنه؟
📄 پشتیبانی از فرمتهای مختلف:
PDF، Word، Excel، PowerPoint و بیشتر
🧠 درک محتوا:
ایدههای کلیدی، جدولها، فرمولها، نمودارها و دادهها رو خودش استخراج میکنه
🎨 شخصیسازی کامل:
تمهای آماده + امکان تغییر استایل به سلیقه خودت
⚡ سرعت بالا:
اسلایدهای باکیفیت در چند دقیقه
🔗 گیتهاب:
github.com/HKUDS/Paper2Slides
📢 @rss_ai_ir
#AI #OpenSource #Presentation #Research #MachineLearning #Productivity
🥰20🔥19👍16👏15🎉14❤9😁9
⭐️مجموعه Nous Research کد منبع Nomos 1 را بهصورت متنباز منتشر کرد
با وجود اندازه نسبتاً کوچک ۳۰ میلیارد پارامتر، این مدل موفق شد امتیاز 87 از 120 را در آزمون Putnam کسب کند؛ یکی از معتبرترین و سختترین مسابقات ریاضی جهان.
🔹 چنین امتیازی معادل رتبه دوم در میان ۳۹۸۸ شرکتکننده در Putnam 2024 است.
🔹 مدل Nomos 1 هشت حل کاملاً بینقص ارائه داده است.
🔹 برای مقایسه، Qwen3-30B در همان شرایط تنها 24 از 120 امتیاز گرفت؛ موضوعی که نشان میدهد برتری Nomos بیشتر به کیفیت داده و فرایند آموزش برمیگردد، نه شرایط آزمون.
📌 نکته مهم:
ارزیابی پاسخها بهصورت کور (Blind Review) انجام شده و توسط یک شرکتکننده واقعی Putnam از میان ۲۰۰ نفر برتر صورت گرفته که پاسخهای ناشناس را بررسی کرده است.
⏱ شرایط زمانی نیز کاملاً واقعی بوده:
— برای هر بخش، ۳ ساعت زمان دقیقاً مشابه شرکتکنندگان انسانی.
🧠 ساختار استدلال Nomos:
ابتدا چند «worker» مسائل سختتر را حل میکنند و خودشان راهحلها را ارزیابی میکنند
سپس در مرحله نهایی، سیستم پاسخها را تجمیع کرده و بهترین نتیجه را انتخاب میکند
🔗 لینکها:
▪ HuggingFace: https://huggingface.co/NousResearch/nomos-1
▪ GitHub: https://github.com/NousResearch/nomos
@rss_ai_ir
#AI #LLM #MachineLearning #Math #OpenSource
با وجود اندازه نسبتاً کوچک ۳۰ میلیارد پارامتر، این مدل موفق شد امتیاز 87 از 120 را در آزمون Putnam کسب کند؛ یکی از معتبرترین و سختترین مسابقات ریاضی جهان.
🔹 چنین امتیازی معادل رتبه دوم در میان ۳۹۸۸ شرکتکننده در Putnam 2024 است.
🔹 مدل Nomos 1 هشت حل کاملاً بینقص ارائه داده است.
🔹 برای مقایسه، Qwen3-30B در همان شرایط تنها 24 از 120 امتیاز گرفت؛ موضوعی که نشان میدهد برتری Nomos بیشتر به کیفیت داده و فرایند آموزش برمیگردد، نه شرایط آزمون.
📌 نکته مهم:
ارزیابی پاسخها بهصورت کور (Blind Review) انجام شده و توسط یک شرکتکننده واقعی Putnam از میان ۲۰۰ نفر برتر صورت گرفته که پاسخهای ناشناس را بررسی کرده است.
⏱ شرایط زمانی نیز کاملاً واقعی بوده:
— برای هر بخش، ۳ ساعت زمان دقیقاً مشابه شرکتکنندگان انسانی.
🧠 ساختار استدلال Nomos:
ابتدا چند «worker» مسائل سختتر را حل میکنند و خودشان راهحلها را ارزیابی میکنند
سپس در مرحله نهایی، سیستم پاسخها را تجمیع کرده و بهترین نتیجه را انتخاب میکند
🔗 لینکها:
▪ HuggingFace: https://huggingface.co/NousResearch/nomos-1
▪ GitHub: https://github.com/NousResearch/nomos
@rss_ai_ir
#AI #LLM #MachineLearning #Math #OpenSource
👏14🥰10😁9👍7🎉7❤5🔥2