✨ داستانی شگفتانگیز از تلاقی هوش مصنوعی و فیزیک
در مؤسسه Caltech گروهی از فیزیکدانان سالهاست روی دقیقترین روشهای اندازهگیری امواج گرانشی کار میکنند؛ همان لرزشهای ریز فضا-زمان که هنگام برخورد سیاهچالهها و رویدادهای کیهانی دیگر رخ میدهند.
🔭 برای همین هدف آشکارساز غولپیکر LIGO ساخته شد که میتواند تغییراتی کوچکتر از یک میلیاردیم قطر اتم را اندازهگیری کند. با این وجود، حساسیت LIGO محدود بود و دانشمندان سالها به دنبال ارتقای آن بودند.
🚀 در آوریل امسال آنها تصمیم گرفتند از هوش مصنوعی کمک بگیرند؛ سیستمهایی ویژه برای بهینهسازی چندبعدی و جستجوی پیکربندیهای جدید دستگاه.
و اینجا شگفتی آغاز شد: الگوریتمها به جای طرحهای متقارن و آشنا، شروع کردند به تولید الگوهایی ظاهراً بیمعنا و عجیبوغریب. پژوهشگران ابتدا اینها را «توهمات» AI تصور کردند. اما پس از ماهها آزمایش، یکی از همین طراحیهای عجیب حساسیت LIGO را بین ۱۰ تا ۱۵ درصد افزایش داد — جهشی معادل چندین سال پیشرفت علمی.
🌌 الهامگرفته از این موفقیت، تیمی در مؤسسه ماکس پلانک پروژه مشابهی با سامانهای به نام Urania اجرا کرد. هدف: طراحی ساختارهای نوری جدید. نتیجه نه تنها راهحلهای بهتر بود، بلکه AI بهطور مستقل دوباره قانونی قدیمی از فیزیک شوروی دهه ۷۰ را بازکشف کرد — قانونی که آن زمان به دلیل محدودیت فناوری غیرقابل استفاده بود. حالا در سال ۲۰۲۵، طراحی مشابه توسط AI بهطور عملی پیادهسازی شد.
🚨 آیا این نشانهی شروع دورهای تازه در علم نیست؟
🔗 منبع: Wired
#هوش_مصنوعی #فیزیک #LIGO #امواج_گرانشی #AI
@rss_ai_ir
در مؤسسه Caltech گروهی از فیزیکدانان سالهاست روی دقیقترین روشهای اندازهگیری امواج گرانشی کار میکنند؛ همان لرزشهای ریز فضا-زمان که هنگام برخورد سیاهچالهها و رویدادهای کیهانی دیگر رخ میدهند.
🔭 برای همین هدف آشکارساز غولپیکر LIGO ساخته شد که میتواند تغییراتی کوچکتر از یک میلیاردیم قطر اتم را اندازهگیری کند. با این وجود، حساسیت LIGO محدود بود و دانشمندان سالها به دنبال ارتقای آن بودند.
🚀 در آوریل امسال آنها تصمیم گرفتند از هوش مصنوعی کمک بگیرند؛ سیستمهایی ویژه برای بهینهسازی چندبعدی و جستجوی پیکربندیهای جدید دستگاه.
و اینجا شگفتی آغاز شد: الگوریتمها به جای طرحهای متقارن و آشنا، شروع کردند به تولید الگوهایی ظاهراً بیمعنا و عجیبوغریب. پژوهشگران ابتدا اینها را «توهمات» AI تصور کردند. اما پس از ماهها آزمایش، یکی از همین طراحیهای عجیب حساسیت LIGO را بین ۱۰ تا ۱۵ درصد افزایش داد — جهشی معادل چندین سال پیشرفت علمی.
🌌 الهامگرفته از این موفقیت، تیمی در مؤسسه ماکس پلانک پروژه مشابهی با سامانهای به نام Urania اجرا کرد. هدف: طراحی ساختارهای نوری جدید. نتیجه نه تنها راهحلهای بهتر بود، بلکه AI بهطور مستقل دوباره قانونی قدیمی از فیزیک شوروی دهه ۷۰ را بازکشف کرد — قانونی که آن زمان به دلیل محدودیت فناوری غیرقابل استفاده بود. حالا در سال ۲۰۲۵، طراحی مشابه توسط AI بهطور عملی پیادهسازی شد.
🚨 آیا این نشانهی شروع دورهای تازه در علم نیست؟
🔗 منبع: Wired
#هوش_مصنوعی #فیزیک #LIGO #امواج_گرانشی #AI
@rss_ai_ir
👍2🔥2❤1👏1
🔥 مدل Rodin Gen-2 وارد نسخه بتا شد
از بین ژنراتورهای سهبعدی تجاری، بهجرأت میشه گفت Rodin Gen-2 یکی از بهترینهاست.
🔹 حالا دیگه نهفقط تولید مدلهای 3D، بلکه امکان بهبود کیفیت و جزئیات خروجی هم فراهم شده.
🔹 دسترسی به نسخهی بتا فعلاً از طریق توئیتر تیم Rodin امکانپذیره — کافیه درخواست بدید.
👾 برای فعالان طراحی سهبعدی، بازیسازی و انیمیشن، این ابزار میتونه یک تغییر بازی (Game Changer) واقعی باشه.
#هوش_مصنوعی #سه_بعدی #Rodin #AI
@rss_ai_ir
از بین ژنراتورهای سهبعدی تجاری، بهجرأت میشه گفت Rodin Gen-2 یکی از بهترینهاست.
🔹 حالا دیگه نهفقط تولید مدلهای 3D، بلکه امکان بهبود کیفیت و جزئیات خروجی هم فراهم شده.
🔹 دسترسی به نسخهی بتا فعلاً از طریق توئیتر تیم Rodin امکانپذیره — کافیه درخواست بدید.
👾 برای فعالان طراحی سهبعدی، بازیسازی و انیمیشن، این ابزار میتونه یک تغییر بازی (Game Changer) واقعی باشه.
#هوش_مصنوعی #سه_بعدی #Rodin #AI
@rss_ai_ir
😁3❤1👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔀 Feed-Forward 4D Video 🔀
مدل 4DNeX اولین فریمورک feed-forward برای تولید بازنماییهای صحنهی چهاربعدی از روی تنها یک تصویر است؛ این کار با فاینتیون کردن مدلهای دیفیوشن انجام میشود.
✨ قابلیتها:
* تولید ابرنقاط (Point Clouds) پویا و باکیفیت
* پشتیبانی از تسکهای جانبی مثل ویدئوسازی با دیدگاه جدید (Novel-View Video Synthesis)
* تعمیمپذیری بالا در سناریوهای متنوع
🔧 نحوهی کار:
این سیستم درک تصویر رو با دقت بالا انجام میده (VL-model) و در کنار اون از VAE برای کنترل دقیق ساختار استفاده میکنه. در نتیجه هم معنا و هم جزئیات تصویر در نسخههای 4D حفظ میشه.
🟢 منابع و دسترسی:
👉 [Paper](https://arxiv.org/pdf/2508.13154)
👉 [Project](https://4dnex.github.io/)
👉 [Repo](https://github.com/3DTopia/4DNeX)
👉 [Demo](https://lnkd.in/dztyzwgg)
#هوش_مصنوعی #4D #دیفیوشن #بینایی_ماشین
@rss_ai_ir
مدل 4DNeX اولین فریمورک feed-forward برای تولید بازنماییهای صحنهی چهاربعدی از روی تنها یک تصویر است؛ این کار با فاینتیون کردن مدلهای دیفیوشن انجام میشود.
✨ قابلیتها:
* تولید ابرنقاط (Point Clouds) پویا و باکیفیت
* پشتیبانی از تسکهای جانبی مثل ویدئوسازی با دیدگاه جدید (Novel-View Video Synthesis)
* تعمیمپذیری بالا در سناریوهای متنوع
🔧 نحوهی کار:
این سیستم درک تصویر رو با دقت بالا انجام میده (VL-model) و در کنار اون از VAE برای کنترل دقیق ساختار استفاده میکنه. در نتیجه هم معنا و هم جزئیات تصویر در نسخههای 4D حفظ میشه.
🟢 منابع و دسترسی:
👉 [Paper](https://arxiv.org/pdf/2508.13154)
👉 [Project](https://4dnex.github.io/)
👉 [Repo](https://github.com/3DTopia/4DNeX)
👉 [Demo](https://lnkd.in/dztyzwgg)
#هوش_مصنوعی #4D #دیفیوشن #بینایی_ماشین
@rss_ai_ir
👍1🔥1🙏1
📊 آمار تازه از رشد ماهانه اپلیکیشنهای GenAI
در فاصلهی ژوئن تا جولای ۲۰۲۵، بیشترین رشد کاربران فعال ماهانه (MAU) متعلق به Grok بوده با جهش ۲۹.۴۳٪ 🚀
بعد از آن:
* Perplexity: +۱۳.۷۷٪
* ChatGPT: +۶.۲۱٪
* Claude: +۳.۰۸٪
* Gemini: −۷.۰۷٪
* DeepSeek: −۸.۸٪
اما نکتهی بحثبرانگیز:
🔍 با وجود اینکه Grok صدرنشین دانلود در iOS و Google Play بوده، اپل آن را در دستهی اپلیکیشنهای AI در اپاستور قرار نداده — در حالی که ChatGPT، Gemini و Copilot همگی لیست شدهاند.
👀 برای خیلیها این شبیه به یک حذف عمدی توسط اپل به نظر میرسه.
#هوش_مصنوعی #Grok #اپل #AI
@rss_ai_ir
در فاصلهی ژوئن تا جولای ۲۰۲۵، بیشترین رشد کاربران فعال ماهانه (MAU) متعلق به Grok بوده با جهش ۲۹.۴۳٪ 🚀
بعد از آن:
* Perplexity: +۱۳.۷۷٪
* ChatGPT: +۶.۲۱٪
* Claude: +۳.۰۸٪
* Gemini: −۷.۰۷٪
* DeepSeek: −۸.۸٪
اما نکتهی بحثبرانگیز:
🔍 با وجود اینکه Grok صدرنشین دانلود در iOS و Google Play بوده، اپل آن را در دستهی اپلیکیشنهای AI در اپاستور قرار نداده — در حالی که ChatGPT، Gemini و Copilot همگی لیست شدهاند.
👀 برای خیلیها این شبیه به یک حذف عمدی توسط اپل به نظر میرسه.
#هوش_مصنوعی #Grok #اپل #AI
@rss_ai_ir
👍5🎉4🔥3❤2😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖✨ ربات پرنده با بازوی نرم الهامگرفته از متر نواری!
این ربات پرنده به یک ساختار رباتیک نرم (Soft Robotics) مجهز شده که طراحی آن از متر نواری الهام گرفته شده است.
بازوی ربات میتواند به راحتی دور اجسام (مثل یک تنه درخت) پیچیده شود و آن را با دقت بالا نگه دارد.
🔹 کاربردها:
* جابهجایی اجسام در محیطهای خطرناک
* عملیات نجات و امداد
* کشاورزی هوشمند (برداشت محصولات از ارتفاع)
* صنایع ساختمانی و مونتاژ در نقاط دور از دسترس
این فناوری نشان میدهد که ترکیب پهپادها با رباتیک نرم میتواند افقهای تازهای در رباتیک صنعتی و خدماتی باز کند 🚀
#رباتیک #پهپاد #SoftRobotics #هوش_مصنوعی
@rss_ai_ir
این ربات پرنده به یک ساختار رباتیک نرم (Soft Robotics) مجهز شده که طراحی آن از متر نواری الهام گرفته شده است.
بازوی ربات میتواند به راحتی دور اجسام (مثل یک تنه درخت) پیچیده شود و آن را با دقت بالا نگه دارد.
🔹 کاربردها:
* جابهجایی اجسام در محیطهای خطرناک
* عملیات نجات و امداد
* کشاورزی هوشمند (برداشت محصولات از ارتفاع)
* صنایع ساختمانی و مونتاژ در نقاط دور از دسترس
این فناوری نشان میدهد که ترکیب پهپادها با رباتیک نرم میتواند افقهای تازهای در رباتیک صنعتی و خدماتی باز کند 🚀
#رباتیک #پهپاد #SoftRobotics #هوش_مصنوعی
@rss_ai_ir
🔥15❤11😁8👍6🎉6👏5🥰3🙏1
❓ در معماری RAG، مرحله retrieval چه نقشی دارد و چرا حذف آن میتواند باعث کاهش کیفیت پاسخ مدل شود؟
Anonymous Quiz
10%
کاهش حافظه موردنیاز مدل را تضمین میکند.
76%
اطلاعات بهروز و مرتبط از پایگاه داده یا بردارهای خارجی را برای مدل زبانی فراهم میکند.
0%
سرعت تولید متن را افزایش میدهد.
14%
مانع از ناپدید شدن گرادیان در طول آموزش میشود.
❤11🔥11👍6👏6🎉5😁3🥰2🙏1
🧠 SSRL: Self-Search Reinforcement Learning
♻️مقالهای تازه از Yanxu Chen و همکاران رویکردی نو به آموزش مدلهای زبانی بزرگ (LLMs) معرفی کرده: یادگیری تقویتی با جستجوی درونی (Self-Search RL).
---
🔹 ایده اصلی
♻️به جای اینکه مدل برای یادگیری نیازمند اتصال به موتورهای جستجوی بیرونی باشه (که هزینهبر و کند است)، در محیطی شبیهسازیشده از خودش به عنوان عامل و محیط استفاده میکنه. مدل بهصورت خودبازگشتی (autoregressive) هم کوئری جستجو تولید میکنه و هم پاسخ اطلاعاتی، و سپس با پاداشهای مبتنی بر فرمت و نتیجه آموزش داده میشه.
---
🔹 هدف
♻️سنجش ظرفیتهای جستجوی درونی (intrinsic search capabilities) در LLMها
♻️بررسی اینکه آیا آموزش در محیط «کاملاً شبیهسازیشده» میتونه به انتقال مؤثر در دنیای واقعی (sim-to-real transfer) منجر بشه یا نه.
---
🔹 نتایج کلیدی
♻️مدل Llama-3.1-8B-Instruct که با SSRL آموزش دید، در شش بنچمارک به میانگین ۴۳.۱٪ دقت رسید.
♻️این عملکرد از ZeroSearch (با ۴۱.۵٪) بهتر بود.
♻️در مقایسه با روشهای وابسته به API، SSRL هزینه آموزش رو بهشدت کاهش میده، چون نیازی به فراخوانی مداوم APIها نداره.
---
🔹 پیام برای متخصصان AI
♻️همچنین SSRL یک پارادایم کمهزینه و کارآمد برای آموزش عاملهای جستجو فراهم میکنه.
♻️مدلها در فاز آموزش کاملاً روی دادههای شبیهسازیشده تمرین میکنن، و بعد میتونن در زمان استقرار واقعی با موتورهای جستجو بهکار گرفته بشن. این یعنی ترکیب سرعت، کاهش هزینه و بهبود کارایی در توسعه نسل بعدی عاملهای جستجوگر.
📌 بیشتر بخوانید:
arXiv
HuggingFace Papers
#هوش_مصنوعی #یادگیری_تقویتی #LLM #SSRL #جستجو
@rss_ai_ir
♻️مقالهای تازه از Yanxu Chen و همکاران رویکردی نو به آموزش مدلهای زبانی بزرگ (LLMs) معرفی کرده: یادگیری تقویتی با جستجوی درونی (Self-Search RL).
---
🔹 ایده اصلی
♻️به جای اینکه مدل برای یادگیری نیازمند اتصال به موتورهای جستجوی بیرونی باشه (که هزینهبر و کند است)، در محیطی شبیهسازیشده از خودش به عنوان عامل و محیط استفاده میکنه. مدل بهصورت خودبازگشتی (autoregressive) هم کوئری جستجو تولید میکنه و هم پاسخ اطلاعاتی، و سپس با پاداشهای مبتنی بر فرمت و نتیجه آموزش داده میشه.
---
🔹 هدف
♻️سنجش ظرفیتهای جستجوی درونی (intrinsic search capabilities) در LLMها
♻️بررسی اینکه آیا آموزش در محیط «کاملاً شبیهسازیشده» میتونه به انتقال مؤثر در دنیای واقعی (sim-to-real transfer) منجر بشه یا نه.
---
🔹 نتایج کلیدی
♻️مدل Llama-3.1-8B-Instruct که با SSRL آموزش دید، در شش بنچمارک به میانگین ۴۳.۱٪ دقت رسید.
♻️این عملکرد از ZeroSearch (با ۴۱.۵٪) بهتر بود.
♻️در مقایسه با روشهای وابسته به API، SSRL هزینه آموزش رو بهشدت کاهش میده، چون نیازی به فراخوانی مداوم APIها نداره.
---
🔹 پیام برای متخصصان AI
♻️همچنین SSRL یک پارادایم کمهزینه و کارآمد برای آموزش عاملهای جستجو فراهم میکنه.
♻️مدلها در فاز آموزش کاملاً روی دادههای شبیهسازیشده تمرین میکنن، و بعد میتونن در زمان استقرار واقعی با موتورهای جستجو بهکار گرفته بشن. این یعنی ترکیب سرعت، کاهش هزینه و بهبود کارایی در توسعه نسل بعدی عاملهای جستجوگر.
📌 بیشتر بخوانید:
arXiv
HuggingFace Papers
#هوش_مصنوعی #یادگیری_تقویتی #LLM #SSRL #جستجو
@rss_ai_ir
🔥7👍6🥰6👏6😁5❤4🎉3
This media is not supported in your browser
VIEW IN TELEGRAM
🪜 رباتها و پلهها؛ دلیلی برای اینکه هنوز نباید از شورش ماشینها بترسیم
یکی از نقاط ضعف اساسی در رباتیک امروزی چیزی ساده و روزمره مثل پلههاست. هرچند هوش مصنوعی در زبان، بینایی ماشین و تصمیمگیری جهشهای عظیمی داشته، اما در حوزه حرکت فیزیکی هنوز محدودیتهای جدی وجود داره.
🔹 بالا و پایین رفتن از پلهها برای انسانها کار بدیهی محسوب میشه، اما برای رباتها ترکیبی از چالشهای مکانیکی، تعادل دینامیکی و درک محیطیه. بسیاری از رباتها با کوچکترین تغییر زاویه یا لغزش از حرکت بازمیمونن.
🔹 همین ضعف نشون میده که فاصله زیادی بین هوش محاسباتی و تواناییهای فیزیکی رباتها وجود داره. پس حتی اگر هوش مصنوعی به سطح استدلال پیچیده برسه، توانایی برای «شورش فیزیکی» در دنیای واقعی هنوز محدود به موانع بسیار سادهای مثل یک راهپله است.
📌 نتیجه: تا وقتی رباتها نتونن از یک پلکان معمولی بهخوبی عبور کنن، ترس از شورش ماشین بیشتر شبیه داستانهای علمی–تخیلی باقی میمونه تا واقعیت.
#هوش_مصنوعی #رباتیک #فناوری #AI
@rss_ai_ir
یکی از نقاط ضعف اساسی در رباتیک امروزی چیزی ساده و روزمره مثل پلههاست. هرچند هوش مصنوعی در زبان، بینایی ماشین و تصمیمگیری جهشهای عظیمی داشته، اما در حوزه حرکت فیزیکی هنوز محدودیتهای جدی وجود داره.
🔹 بالا و پایین رفتن از پلهها برای انسانها کار بدیهی محسوب میشه، اما برای رباتها ترکیبی از چالشهای مکانیکی، تعادل دینامیکی و درک محیطیه. بسیاری از رباتها با کوچکترین تغییر زاویه یا لغزش از حرکت بازمیمونن.
🔹 همین ضعف نشون میده که فاصله زیادی بین هوش محاسباتی و تواناییهای فیزیکی رباتها وجود داره. پس حتی اگر هوش مصنوعی به سطح استدلال پیچیده برسه، توانایی برای «شورش فیزیکی» در دنیای واقعی هنوز محدود به موانع بسیار سادهای مثل یک راهپله است.
📌 نتیجه: تا وقتی رباتها نتونن از یک پلکان معمولی بهخوبی عبور کنن، ترس از شورش ماشین بیشتر شبیه داستانهای علمی–تخیلی باقی میمونه تا واقعیت.
#هوش_مصنوعی #رباتیک #فناوری #AI
@rss_ai_ir
👍14🎉10😁9❤8🔥8🥰5👏3
🛠 نقشهراه عمومی Gemini CLI منتشر شد — هدف: ساخت یک عامل کدنویسی متنباز قدرتمند با محوریت جامعه کاربری.
پروژه در ۴ جهت اصلی در حال توسعه است:
1️⃣ قابلگسترش (Extensible)
امکان توسعهپذیری برای هر محیط و سناریو: اسلشکامندهای سفارشی، پروتکلهای ریموت، اجرای فایلهای .gemini.md با ابزارهای کاربر.
2️⃣ در همهجا (Everywhere)
اجرای عامل بهعنوان یک فرآیند پسزمینه در محیطهای مختلف: لوکال، کانتینرها، GitHub Actions و فضای ابری. حتی پشتیبانی از تفویض وظیفه به زیرعاملها.
3️⃣ هوشمند (Intelligent)
تمرکز بر کیفیت مدلها و ابزارها؛ هدف کسب رتبههای بالا در بنچمارکهایی مثل SWE Bench. تمامی باگهای حیاتی (P0) پیش از نسخه ۱.۰ رفع خواهند شد.
4️⃣ متنباز (Open Source)
ساختهشده در تعامل با جامعه: پاسخ سریع به Issues و PRها، بکلاگ حداقلی و فرآیندهای مشارکت ساده و روان.
---
🔄 جریانهای کاری (Workstreams) فعلی:
♻️بهبود کیفیت مدل (تقویت استدلال، حذف تکرارها)
♻️بهینهسازی عملکرد (Caching، مسیریابی هوشمند مدلها)
♻️گسترشپذیری (عاملهای پسزمینه، استقرار ابری)
♻️اتوماسیون جامعه (بهبود Dev Flow)
📌 اگر میخواهید در توسعه نسل بعدی ابزارهای کدنویسی AI مشارکت کنید، اکنون بهترین زمان برای پیوستن به Gemini CLI است.
🔗 جزئیات در گیتهاب
#هوش_مصنوعی #کدنویسی #Gemini #متن_باز
@rss_ai_ir
پروژه در ۴ جهت اصلی در حال توسعه است:
1️⃣ قابلگسترش (Extensible)
امکان توسعهپذیری برای هر محیط و سناریو: اسلشکامندهای سفارشی، پروتکلهای ریموت، اجرای فایلهای .gemini.md با ابزارهای کاربر.
2️⃣ در همهجا (Everywhere)
اجرای عامل بهعنوان یک فرآیند پسزمینه در محیطهای مختلف: لوکال، کانتینرها، GitHub Actions و فضای ابری. حتی پشتیبانی از تفویض وظیفه به زیرعاملها.
3️⃣ هوشمند (Intelligent)
تمرکز بر کیفیت مدلها و ابزارها؛ هدف کسب رتبههای بالا در بنچمارکهایی مثل SWE Bench. تمامی باگهای حیاتی (P0) پیش از نسخه ۱.۰ رفع خواهند شد.
4️⃣ متنباز (Open Source)
ساختهشده در تعامل با جامعه: پاسخ سریع به Issues و PRها، بکلاگ حداقلی و فرآیندهای مشارکت ساده و روان.
---
🔄 جریانهای کاری (Workstreams) فعلی:
♻️بهبود کیفیت مدل (تقویت استدلال، حذف تکرارها)
♻️بهینهسازی عملکرد (Caching، مسیریابی هوشمند مدلها)
♻️گسترشپذیری (عاملهای پسزمینه، استقرار ابری)
♻️اتوماسیون جامعه (بهبود Dev Flow)
📌 اگر میخواهید در توسعه نسل بعدی ابزارهای کدنویسی AI مشارکت کنید، اکنون بهترین زمان برای پیوستن به Gemini CLI است.
🔗 جزئیات در گیتهاب
#هوش_مصنوعی #کدنویسی #Gemini #متن_باز
@rss_ai_ir
❤13👍12🔥10🎉10😁9👏4🥰3
🆕 DeepSeek-V3.1 منتشر شد
مدل جدید فعلاً بدون اعلام رسمی بیرون اومده، اما وزنهای نسخه base روی HuggingFace قرار گرفتهاند. 📂
🔹 آنچه تا الان میدونیم:
♻️ظرفیت کانتکست افزایش پیدا کرده تا ۱۲۸هزار توکن
♻️دامنهی دانش بهروز شده تا جولای ۲۰۲۴
♻️معماری تغییر اساسی نداشته، اما گزارش شده که مدل بهصورت هیبریدی طراحی شده
با وجود این تغییرات، به نظر میرسه این نسخه بیشتر یک آپدیت کوچک باشه تا یک جهش بزرگ. حالا باید منتظر بنچمارکها و پست رسمی بلاگ بمونیم تا تصویر دقیقتری به دست بیاد 🤔
#هوش_مصنوعی #DeepSeek #LLM #مدل_زبانی
@rss_ai_ir
مدل جدید فعلاً بدون اعلام رسمی بیرون اومده، اما وزنهای نسخه base روی HuggingFace قرار گرفتهاند. 📂
🔹 آنچه تا الان میدونیم:
♻️ظرفیت کانتکست افزایش پیدا کرده تا ۱۲۸هزار توکن
♻️دامنهی دانش بهروز شده تا جولای ۲۰۲۴
♻️معماری تغییر اساسی نداشته، اما گزارش شده که مدل بهصورت هیبریدی طراحی شده
با وجود این تغییرات، به نظر میرسه این نسخه بیشتر یک آپدیت کوچک باشه تا یک جهش بزرگ. حالا باید منتظر بنچمارکها و پست رسمی بلاگ بمونیم تا تصویر دقیقتری به دست بیاد 🤔
#هوش_مصنوعی #DeepSeek #LLM #مدل_زبانی
@rss_ai_ir
👍12😁12🔥9❤8🎉6🥰4👏2
🤖 مجموعهای بینظیر از سیستمهای عاملهای هوشمند خودتکاملی
✅این کالکشن یک نقشهی جامع از مسیر تکامل Agentها در سالهای ۲۰۲۳ تا ۲۰۲۵ ارائه میدهد؛ از بهینهسازی تکعاملی تا چندعاملی و در نهایت دامنههای تخصصی.
📌 شامل:
♻️مورد Agentهای خودتکاملی (Self-Evolving Agents)
♻️روشهای بهینهسازی حافظه، Prompt و Workflow
♻️تکنیکهای Multi-Agent برای تقسیم وظایف و همکاری
♻️بهینهسازیهای دامنهمحور در علوم، پزشکی، حقوق و صنعت
✨ ایدهی اصلی: آزاد کردن زمان شما با سپردن کارها به Agentها.
📊 لینک
#هوش_مصنوعی #AI_Agents #MultiAgent #خودتکاملی
@rss_ai_ir
✅این کالکشن یک نقشهی جامع از مسیر تکامل Agentها در سالهای ۲۰۲۳ تا ۲۰۲۵ ارائه میدهد؛ از بهینهسازی تکعاملی تا چندعاملی و در نهایت دامنههای تخصصی.
📌 شامل:
♻️مورد Agentهای خودتکاملی (Self-Evolving Agents)
♻️روشهای بهینهسازی حافظه، Prompt و Workflow
♻️تکنیکهای Multi-Agent برای تقسیم وظایف و همکاری
♻️بهینهسازیهای دامنهمحور در علوم، پزشکی، حقوق و صنعت
✨ ایدهی اصلی: آزاد کردن زمان شما با سپردن کارها به Agentها.
📊 لینک
#هوش_مصنوعی #AI_Agents #MultiAgent #خودتکاملی
@rss_ai_ir
❤9🔥6🥰6🎉6👏4👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ علیبابا با MoDA برگشت به صحنه!
یک معماری چندوجهی مبتنی بر Diffusion برای ساخت آواتارهای متحرک و talking head generation معرفی شده که کاملاً اپنسورس منتشر شده.
🔑 نکته جالب اینجاست که بعد از مدتها انتظار برای کد پروژههایی مثل EMO، بالاخره یک کد باز و آماده تست در اختیار داریم.
📌 پروژه: MoDA
📂 کد: GitHub
👀 در صفحهی پروژه دموهایی از مقالات قدیمی و جدید ترکیب شدهاند، و در بخش acknowledgements هم لیستی از منابع و پروژههای مرتبط مثل:
LivePortrait, EchoMimic, JoyVasa, Ditto, Open Facevid2vid, InsightFace, X-Pose, DiffPoseTalk, Hallo, wav2vec 2.0, Q-Align, Syncnet
⚡ نتیجه: یک فرصت عالی برای علاقهمندان به lip-sync و آواتارهای متحرک. کد را تست کنید، چون معلوم نیست همیشه در دسترس بماند!
#LipSync #MoDA #Alibaba #Diffusion
@rss_ai_ir
یک معماری چندوجهی مبتنی بر Diffusion برای ساخت آواتارهای متحرک و talking head generation معرفی شده که کاملاً اپنسورس منتشر شده.
🔑 نکته جالب اینجاست که بعد از مدتها انتظار برای کد پروژههایی مثل EMO، بالاخره یک کد باز و آماده تست در اختیار داریم.
📌 پروژه: MoDA
📂 کد: GitHub
👀 در صفحهی پروژه دموهایی از مقالات قدیمی و جدید ترکیب شدهاند، و در بخش acknowledgements هم لیستی از منابع و پروژههای مرتبط مثل:
LivePortrait, EchoMimic, JoyVasa, Ditto, Open Facevid2vid, InsightFace, X-Pose, DiffPoseTalk, Hallo, wav2vec 2.0, Q-Align, Syncnet
⚡ نتیجه: یک فرصت عالی برای علاقهمندان به lip-sync و آواتارهای متحرک. کد را تست کنید، چون معلوم نیست همیشه در دسترس بماند!
#LipSync #MoDA #Alibaba #Diffusion
@rss_ai_ir
👍6🔥5🥰5👏5🎉5😁4❤3
❓ در الگوریتم تبدیل فوریه دو بعدی (2D Fourier Transform)، چرا اطلاعات مربوط به فرکانسهای پایین معمولاً در مرکز طیف قرار میگیرند و چه کاربردی در فیلترینگ تصاویر دارند؟
Anonymous Quiz
10%
چون نویز تصویر همیشه در فرکانسهای پایین ظاهر میشود و باید حذف شود.
50%
تغییرات کلی و روشنایی تصویر در فرکانسهای پایین ذخیره و برای بازسازی ساختار اصلی تصویر ضروریاند.
30%
چون تغییرات مرزی و جزئیات ریز تصویر تنها در فرکانسهای پایین قابل مشاهدهاند.
10%
چون فیلترهای لبه معمولاً روی فرکانسهای پایین اعمال میشوند.
👍8🎉6🔥5👏5🥰4😁3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 در نسخه Kling 2.1 قابلیت تازهای اضافه شده: FirstFrame / LastFrame.
این ویژگی فعلاً فقط برای کاربرانی فعال شده که قبلاً از مدل تعریف کرده بودند. جذابیش اینه که حتی بدون پرامپت هم میشه استفاده کرد — مثل کار Nano Banana که دهها واریانت کاراکتر ساخته و خروجی خیلی تمیزی داده.
📌 حالا کافیه اولین یا آخرین فریم رو در Kling بارگذاری کنید تا موتور هوش مصنوعی با همون حالت شروع یا پایان بسازه و نتیجه چیزی شبیه Elastic Reality روی استروئیدهای هوش مصنوعی بشه.
#Kling #AI #FirstFrame #LastFrame
@rss_ai_ir
این ویژگی فعلاً فقط برای کاربرانی فعال شده که قبلاً از مدل تعریف کرده بودند. جذابیش اینه که حتی بدون پرامپت هم میشه استفاده کرد — مثل کار Nano Banana که دهها واریانت کاراکتر ساخته و خروجی خیلی تمیزی داده.
📌 حالا کافیه اولین یا آخرین فریم رو در Kling بارگذاری کنید تا موتور هوش مصنوعی با همون حالت شروع یا پایان بسازه و نتیجه چیزی شبیه Elastic Reality روی استروئیدهای هوش مصنوعی بشه.
#Kling #AI #FirstFrame #LastFrame
@rss_ai_ir
👏9🔥8👍6🥰5❤3🎉3😁2
🔎 آیا این متن را یک انسان نوشته یا هوش مصنوعی؟ آشنایی با ابزارهای تشخیص محتوای هوش مصنوعی 🤖
با پیشرفت خیرهکننده مدلهای زبانی مثل ChatGPT و Gemini، تشخیص تفاوت بین متن نوشتهشده توسط انسان و هوش مصنوعی روزبهروز سختتر میشود. در همین راستا، ابزارها و وبسایتهایی با عنوان تشخیصدهنده هوش مصنوعی (AI Detector) ظهور کردهاند که ادعا میکنند میتوانند این تفاوت را تشخیص دهند.
✅ معرفی چند ابزار معروف 🌐
چندین سایت در این زمینه فعال هستند که در ادامه به چند مورد معروف اشاره میشود:
✳️ یکی از اولین و مشهورترین ابزارها GPTZero است که توسط یک دانشجو ساخته شد.
✳️ ابزار Originality.ai یک گزینه دقیق و پولی است که بهطور تخصصی برای ناشران محتوا طراحی شده و همزمان سرقت ادبی (Plagiarism) را نیز بررسی میکند.
✳️ سرویس Copyleaks AI Content Detector ابزاری است که تشخیص محتوای هوش مصنوعی را با یک جستجوگر قوی سرقت ادبی ترکیب کرده است.
✳️ یک جایگزین رایگان و محبوب با رابط کاربری ساده، ZeroGPT است.
✳️ ابزار AI Detector از شرکت Writer.com نیز یکی دیگر از گزینههای موجود در این حوزه است.
---
🚨 هشدار بسیار مهم: این ابزارها کامل نیستند! 🚨
این بخش، مهمترین قسمت ماجراست. اعتماد صددرصدی به این ابزارها میتواند بسیار خطرناک و ناعادلانه باشد. چرا؟
۱. خطای مثبت کاذب (False Positive) 😥
این بزرگترین مشکل است. این ابزارها ممکن است یک متن کاملاً انسانی را به اشتباه به عنوان محصول هوش مصنوعی شناسایی کنند. این خطا میتواند به دلیل سبک نوشتاری ساده، استفاده از جملات استاندارد یا حتی موضوعات فنی باشد. متهم کردن یک دانشجو یا نویسنده فقط بر اساس نتیجه این ابزارها، کاری کاملاً اشتباه است.
۲. خطای منفی کاذب (False Negative) 🤫
این ابزارها به راحتی فریب میخورند. اگر یک متن تولیدشده توسط هوش مصنوعی توسط یک انسان کمی ویرایش شود (اصطلاحاً "Humanized" شود)، شانس اینکه ابزار آن را به عنوان متن انسانی تشخیص دهد، بسیار بالا میرود.
۳. امتیاز احتمالی، نه حکم قطعی 📊
خروجی این ابزارها یک درصد احتمال است، نه یک پاسخ قطعی "بله" یا "خیر". نمره "90% احتمالاً توسط AI نوشته شده" به معنای اثبات قطعی نیست، بلکه یک تخمین آماری بر اساس الگوهایی است که ابزار آموزش دیده تا شناسایی کند.
۴. بازی موش و گربه بیپایان 😼🐭
مدلهای هوش مصنوعی دائماً در حال پیشرفت هستند و نوشتارشان به سبک انسان نزدیکتر میشود. در مقابل، ابزارهای تشخیصدهنده نیز سعی میکنند خود را بهروز کنند. این یک رقابت تمامنشدنی است و هیچ ابزاری نمیتواند ادعای دقت همیشگی داشته باشد.
---
⛔️ پس چه کار کنیم؟ راهنمای استفاده هوشمندانه 💡
✳️ به عنوان یک سرنخ، نه مدرک قطعی: از خروجی این ابزارها فقط به عنوان یک سیگنال اولیه یا یک سرنخ استفاده کنید، نه به عنوان مدرک نهایی برای قضاوت.
✳️ قضاوت انسانی در اولویت است: هیچ چیز جایگزین تحلیل و قضاوت یک انسان باتجربه نمیشود. سبک نگارش، عمق تحلیل و تفکر انتقادی در متن، نشانههایی هستند که یک انسان بهتر از ماشین تشخیص میدهد.
✳️ برای نویسندگان: به جای نگرانی از این ابزارها، روی خلق محتوای باکیفیت، معتبر و دارای دیدگاه شخصی تمرکز کنید. از هوش مصنوعی به عنوان دستیار برای ایدهپردازی یا پیشنویس استفاده کنید، اما همیشه اثر انگشت خودتان را روی کار نهایی بگذارید.
نتیجهگیری: ابزارهای تشخیص محتوای هوش مصنوعی فناوری جالبی هستند، اما باید با احتیاط و تفکر انتقادی فراوان از آنها استفاده کرد. آنها در وضعیت فعلی، بیشتر از آنکه مفید باشند، میتوانند باعث سوءتفاهم و قضاوتهای ناعادلانه شوند.
#هوش_مصنوعی #محتوا #سئو #تشخیص_محتوا #نویسندگی #فناوری #تولیدمحتوا #هوش_مصنوعی_مولد
@rss_ai_ir
با پیشرفت خیرهکننده مدلهای زبانی مثل ChatGPT و Gemini، تشخیص تفاوت بین متن نوشتهشده توسط انسان و هوش مصنوعی روزبهروز سختتر میشود. در همین راستا، ابزارها و وبسایتهایی با عنوان تشخیصدهنده هوش مصنوعی (AI Detector) ظهور کردهاند که ادعا میکنند میتوانند این تفاوت را تشخیص دهند.
✅ معرفی چند ابزار معروف 🌐
چندین سایت در این زمینه فعال هستند که در ادامه به چند مورد معروف اشاره میشود:
✳️ یکی از اولین و مشهورترین ابزارها GPTZero است که توسط یک دانشجو ساخته شد.
✳️ ابزار Originality.ai یک گزینه دقیق و پولی است که بهطور تخصصی برای ناشران محتوا طراحی شده و همزمان سرقت ادبی (Plagiarism) را نیز بررسی میکند.
✳️ سرویس Copyleaks AI Content Detector ابزاری است که تشخیص محتوای هوش مصنوعی را با یک جستجوگر قوی سرقت ادبی ترکیب کرده است.
✳️ یک جایگزین رایگان و محبوب با رابط کاربری ساده، ZeroGPT است.
✳️ ابزار AI Detector از شرکت Writer.com نیز یکی دیگر از گزینههای موجود در این حوزه است.
---
🚨 هشدار بسیار مهم: این ابزارها کامل نیستند! 🚨
این بخش، مهمترین قسمت ماجراست. اعتماد صددرصدی به این ابزارها میتواند بسیار خطرناک و ناعادلانه باشد. چرا؟
۱. خطای مثبت کاذب (False Positive) 😥
این بزرگترین مشکل است. این ابزارها ممکن است یک متن کاملاً انسانی را به اشتباه به عنوان محصول هوش مصنوعی شناسایی کنند. این خطا میتواند به دلیل سبک نوشتاری ساده، استفاده از جملات استاندارد یا حتی موضوعات فنی باشد. متهم کردن یک دانشجو یا نویسنده فقط بر اساس نتیجه این ابزارها، کاری کاملاً اشتباه است.
۲. خطای منفی کاذب (False Negative) 🤫
این ابزارها به راحتی فریب میخورند. اگر یک متن تولیدشده توسط هوش مصنوعی توسط یک انسان کمی ویرایش شود (اصطلاحاً "Humanized" شود)، شانس اینکه ابزار آن را به عنوان متن انسانی تشخیص دهد، بسیار بالا میرود.
۳. امتیاز احتمالی، نه حکم قطعی 📊
خروجی این ابزارها یک درصد احتمال است، نه یک پاسخ قطعی "بله" یا "خیر". نمره "90% احتمالاً توسط AI نوشته شده" به معنای اثبات قطعی نیست، بلکه یک تخمین آماری بر اساس الگوهایی است که ابزار آموزش دیده تا شناسایی کند.
۴. بازی موش و گربه بیپایان 😼🐭
مدلهای هوش مصنوعی دائماً در حال پیشرفت هستند و نوشتارشان به سبک انسان نزدیکتر میشود. در مقابل، ابزارهای تشخیصدهنده نیز سعی میکنند خود را بهروز کنند. این یک رقابت تمامنشدنی است و هیچ ابزاری نمیتواند ادعای دقت همیشگی داشته باشد.
---
⛔️ پس چه کار کنیم؟ راهنمای استفاده هوشمندانه 💡
✳️ به عنوان یک سرنخ، نه مدرک قطعی: از خروجی این ابزارها فقط به عنوان یک سیگنال اولیه یا یک سرنخ استفاده کنید، نه به عنوان مدرک نهایی برای قضاوت.
✳️ قضاوت انسانی در اولویت است: هیچ چیز جایگزین تحلیل و قضاوت یک انسان باتجربه نمیشود. سبک نگارش، عمق تحلیل و تفکر انتقادی در متن، نشانههایی هستند که یک انسان بهتر از ماشین تشخیص میدهد.
✳️ برای نویسندگان: به جای نگرانی از این ابزارها، روی خلق محتوای باکیفیت، معتبر و دارای دیدگاه شخصی تمرکز کنید. از هوش مصنوعی به عنوان دستیار برای ایدهپردازی یا پیشنویس استفاده کنید، اما همیشه اثر انگشت خودتان را روی کار نهایی بگذارید.
نتیجهگیری: ابزارهای تشخیص محتوای هوش مصنوعی فناوری جالبی هستند، اما باید با احتیاط و تفکر انتقادی فراوان از آنها استفاده کرد. آنها در وضعیت فعلی، بیشتر از آنکه مفید باشند، میتوانند باعث سوءتفاهم و قضاوتهای ناعادلانه شوند.
#هوش_مصنوعی #محتوا #سئو #تشخیص_محتوا #نویسندگی #فناوری #تولیدمحتوا #هوش_مصنوعی_مولد
@rss_ai_ir
👍1👏1🙏1
مدلهای اپنسورس جدید GPT-OSS از OpenAI منتشر شدند 🧠⚙️
برای نخستینبار بعد از GPT-2، اوپنایآی وزنهای دو مدل بزرگ را در دسترس عموم قرار داده:
مدل های gpt-oss-20B و gpt-oss-120B. این مدلها بر پایهی Mixture-of-Experts (MoE) ساخته شدهاند، با طول کانتکست تا ۱۲۸k و قابلیت تنظیم سطح استدلال (low / medium / high). همچنین فرمت جدیدی به نام harmony برای پیامها معرفی شده است.
---
🔹 معماری و مشخصات فنی
❇️ مدل ۱۲۰B شامل ۱۲۸ کارشناس است که تنها ۴ کارشناس روی هر توکن فعال میشوند.
❇️ مدل ۲۰B شامل ۳۲ کارشناس است.
❇️ حجم چکپوینتها: حدود ۶۰.۸ GiB (۱۲۰B) و ۱۲.۸ GiB (۲۰B).
❇️ با فشردهسازی MXFP4، مدل ۱۲۰B روی GPU با ۸۰ گیگابایت حافظه جا میشود و مدل ۲۰B روی کارتهای ۱۶ گیگابایتی قابل اجراست.
❇️ طول کانتکست: تا \~۱۲۸k توکن.
---
🔹 ویژگیهای کلیدی
❇️ فرمت harmony با سه کانال خروجی:
❇️قابلیت analysis (تفکر و بخشی از tool calls)
❇️ commentary (فراخوانی ابزارها)
❇️final (نتیجه نهایی)
❇️ حالتهای استدلال (Reasoning modes): low / medium / high در پرامپت سیستم مشخص میشوند و بین سرعت، دقت و هزینه تعادل ایجاد میکنند.
❇️ توکنایزر جدید o200k\_harmony با دقت بهتر روی کاراکترهای غیرانگلیسی و اموجیها.
---
🔹 مثال برای تنظیم سطح استدلال
---
🔹 اهمیت در عمل
✅ ساخت دستیارهای محلی و آفلاین با دادههای حساس روی سختافزار در دسترس.
✅استانداردسازی پرامپت با harmony و سازگاری راحتتر با vLLM، Ollama و سایر رانتایمها.
✅ امکان انتخاب سطح استدلال برای کنترل بهتر روی سرعت ↔️ دقت ↔️ هزینه.
---
🔹 نکات تکمیلی
❌ زنجیرههای استدلال (CoT) بدون فیلتر نباید مستقیم به کاربر نمایش داده شوند.
❌ دیتاست آموزشی بیشتر انگلیسی است، برای کاربردهای فارسی یا روسی نیاز به فاینتیون یا تطبیق وجود دارد.
---
✅ جمعبندی: GPT-OSS جهش انقلابی نیست، بلکه نتیجهی مهندسی دقیق و استانداردسازی است که آستانهی ورود به دنیای مدلهای اپنسورس و قابلکنترل را پایینتر میآورد.
📌 مطالعه بیشتر: [Jay Alammar – Visual GPT-OSS](https://newsletter.languagemodels.co/p/the-illustrated-gpt-oss)
#هوش_مصنوعی #مدل_زبان #اپن_سورس #GPT_OSS
@rss_ai_ir
برای نخستینبار بعد از GPT-2، اوپنایآی وزنهای دو مدل بزرگ را در دسترس عموم قرار داده:
مدل های gpt-oss-20B و gpt-oss-120B. این مدلها بر پایهی Mixture-of-Experts (MoE) ساخته شدهاند، با طول کانتکست تا ۱۲۸k و قابلیت تنظیم سطح استدلال (low / medium / high). همچنین فرمت جدیدی به نام harmony برای پیامها معرفی شده است.
---
🔹 معماری و مشخصات فنی
❇️ مدل ۱۲۰B شامل ۱۲۸ کارشناس است که تنها ۴ کارشناس روی هر توکن فعال میشوند.
❇️ مدل ۲۰B شامل ۳۲ کارشناس است.
❇️ حجم چکپوینتها: حدود ۶۰.۸ GiB (۱۲۰B) و ۱۲.۸ GiB (۲۰B).
❇️ با فشردهسازی MXFP4، مدل ۱۲۰B روی GPU با ۸۰ گیگابایت حافظه جا میشود و مدل ۲۰B روی کارتهای ۱۶ گیگابایتی قابل اجراست.
❇️ طول کانتکست: تا \~۱۲۸k توکن.
---
🔹 ویژگیهای کلیدی
❇️ فرمت harmony با سه کانال خروجی:
❇️قابلیت analysis (تفکر و بخشی از tool calls)
❇️ commentary (فراخوانی ابزارها)
❇️final (نتیجه نهایی)
❇️ حالتهای استدلال (Reasoning modes): low / medium / high در پرامپت سیستم مشخص میشوند و بین سرعت، دقت و هزینه تعادل ایجاد میکنند.
❇️ توکنایزر جدید o200k\_harmony با دقت بهتر روی کاراکترهای غیرانگلیسی و اموجیها.
---
🔹 مثال برای تنظیم سطح استدلال
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
---
🔹 اهمیت در عمل
✅ ساخت دستیارهای محلی و آفلاین با دادههای حساس روی سختافزار در دسترس.
✅استانداردسازی پرامپت با harmony و سازگاری راحتتر با vLLM، Ollama و سایر رانتایمها.
✅ امکان انتخاب سطح استدلال برای کنترل بهتر روی سرعت ↔️ دقت ↔️ هزینه.
---
🔹 نکات تکمیلی
❌ زنجیرههای استدلال (CoT) بدون فیلتر نباید مستقیم به کاربر نمایش داده شوند.
❌ دیتاست آموزشی بیشتر انگلیسی است، برای کاربردهای فارسی یا روسی نیاز به فاینتیون یا تطبیق وجود دارد.
---
✅ جمعبندی: GPT-OSS جهش انقلابی نیست، بلکه نتیجهی مهندسی دقیق و استانداردسازی است که آستانهی ورود به دنیای مدلهای اپنسورس و قابلکنترل را پایینتر میآورد.
📌 مطالعه بیشتر: [Jay Alammar – Visual GPT-OSS](https://newsletter.languagemodels.co/p/the-illustrated-gpt-oss)
#هوش_مصنوعی #مدل_زبان #اپن_سورس #GPT_OSS
@rss_ai_ir
👍1🔥1🙏1