🧠 DeepAnalyze:
مدل عاملمحور برای علم دادهی خودکار (Autonomous Data Science)
پژوهشگران دانشگاه Renmin چین مدل جدیدی با نام DeepAnalyze معرفی کردهاند — چارچوبی مبتنی بر Agentic LLM که میتواند بهصورت مستقل فرآیند کامل علم داده را انجام دهد: از تحلیل اولیه و پاکسازی دادهها تا مدلسازی و تفسیر نتایج. ⚙️📊
✨ ویژگیها:
✳️طراحیشده برای خودکارسازی کامل چرخه علم داده
✳️مجهز به عاملهای تخصصی (agents) برای تحلیل، مدلسازی و ارزیابی
✳️توانایی استدلال چندمرحلهای و تصمیمگیری دادهمحور
✳️یکپارچه با LLM و ابزارهای داده مانند pandas و sklearn
🔗 منابع:
🖥 GitHub:
github.com/ruc-datalab/DeepAnalyze
📕 Paper:
huggingface.co/papers/2510.16872
🌐 Project Page:
ruc-deepanalyze.github.io
@rss_ai_ir
#AI #DataScience #LLM #AutonomousAI #DeepAnalyze #OpenSource
مدل عاملمحور برای علم دادهی خودکار (Autonomous Data Science)
پژوهشگران دانشگاه Renmin چین مدل جدیدی با نام DeepAnalyze معرفی کردهاند — چارچوبی مبتنی بر Agentic LLM که میتواند بهصورت مستقل فرآیند کامل علم داده را انجام دهد: از تحلیل اولیه و پاکسازی دادهها تا مدلسازی و تفسیر نتایج. ⚙️📊
✨ ویژگیها:
✳️طراحیشده برای خودکارسازی کامل چرخه علم داده
✳️مجهز به عاملهای تخصصی (agents) برای تحلیل، مدلسازی و ارزیابی
✳️توانایی استدلال چندمرحلهای و تصمیمگیری دادهمحور
✳️یکپارچه با LLM و ابزارهای داده مانند pandas و sklearn
🔗 منابع:
🖥 GitHub:
github.com/ruc-datalab/DeepAnalyze
📕 Paper:
huggingface.co/papers/2510.16872
🌐 Project Page:
ruc-deepanalyze.github.io
@rss_ai_ir
#AI #DataScience #LLM #AutonomousAI #DeepAnalyze #OpenSource
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Relational Visual Similarity
📝 Summary:
اینکه Vision-Language مدلهای آموزشدیده روی کپشنهای ناشناسشده میتوانند شباهت رابطهای بین تصاویر را تشخیص دهند؛ قابلیتی که در معیارهای فعلی شباهت بصری وجود ندارد.
🔹 Publication Date: Dec 8
🔹 Paper Links:
• arXiv Page: https://arxiv.org/abs/2512.07833
• PDF: https://arxiv.org/pdf/2512.07833
• Project Page: https://thaoshibe.github.io/relsim/
• Github: https://github.com/thaoshibe/relsim
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 Summary:
اینکه Vision-Language مدلهای آموزشدیده روی کپشنهای ناشناسشده میتوانند شباهت رابطهای بین تصاویر را تشخیص دهند؛ قابلیتی که در معیارهای فعلی شباهت بصری وجود ندارد.
🔹 Publication Date: Dec 8
🔹 Paper Links:
• arXiv Page: https://arxiv.org/abs/2512.07833
• PDF: https://arxiv.org/pdf/2512.07833
• Project Page: https://thaoshibe.github.io/relsim/
• Github: https://github.com/thaoshibe/relsim
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍1
Media is too big
VIEW IN TELEGRAM
🌐 گراند اسلو، موو فست — مدل پایهای دوگانه برای ناوبری ویژنی-زبانی
📝 خلاصه:
مدل DualVLN یک سیستم دوگانه برای Vision-Language Navigation است که دو جزء اصلی دارد:
1. یک برنامهریز جهانی مبتنی بر VLM برای فهم سطح بالا،
2. یک سیاست محلی سریع برای اجرای روانِ اکشنها.
این ترکیب باعث میشود رباتها بتوانند در محیطهای پویا، در زمان واقعی و در مأموریتهای طولانیمدت با پایداری بالا حرکت کنند.
🔹 تاریخ انتشار: 9 دسامبر
🔗 لینکها:
• arXiv: https://arxiv.org/abs/2512.08186
• PDF: https://arxiv.org/pdf/2512.08186
• پروژه:
https://internrobotics.github.io/internvla-n1-dualvln.github.io/
• Github:
https://github.com/InternRobotics/InternNav
🔗 مدلهای مرتبط:
• https://huggingface.co/InternRobotics/InternVLA-N1-System2
• https://huggingface.co/InternRobotics/InternVLA-N1-w-NavDP
• https://huggingface.co/InternRobotics/InternVLA-N1-DualVLN
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
مدل DualVLN یک سیستم دوگانه برای Vision-Language Navigation است که دو جزء اصلی دارد:
1. یک برنامهریز جهانی مبتنی بر VLM برای فهم سطح بالا،
2. یک سیاست محلی سریع برای اجرای روانِ اکشنها.
این ترکیب باعث میشود رباتها بتوانند در محیطهای پویا، در زمان واقعی و در مأموریتهای طولانیمدت با پایداری بالا حرکت کنند.
🔹 تاریخ انتشار: 9 دسامبر
🔗 لینکها:
• arXiv: https://arxiv.org/abs/2512.08186
• PDF: https://arxiv.org/pdf/2512.08186
• پروژه:
https://internrobotics.github.io/internvla-n1-dualvln.github.io/
• Github:
https://github.com/InternRobotics/InternNav
🔗 مدلهای مرتبط:
• https://huggingface.co/InternRobotics/InternVLA-N1-System2
• https://huggingface.co/InternRobotics/InternVLA-N1-w-NavDP
• https://huggingface.co/InternRobotics/InternVLA-N1-DualVLN
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ روش COREA: همترازی سهبعدی Coarse-to-Fine بین Gaussianهای سهبعدی قابلنوردهی مجدد و SDF با نظارت دوطرفه 3D-to-3D
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
This media is not supported in your browser
VIEW IN TELEGRAM
✨ مدل EgoEdit: ویرایش ویدئوهای اولشخص به صورت بلادرنگ
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research