VIRSUN
7.68K subscribers
1.38K photos
798 videos
5 files
881 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🧠 DeepAnalyze:
مدل عامل‌محور برای علم داده‌ی خودکار (Autonomous Data Science)

پژوهشگران دانشگاه Renmin چین مدل جدیدی با نام DeepAnalyze معرفی کرده‌اند — چارچوبی مبتنی بر Agentic LLM که می‌تواند به‌صورت مستقل فرآیند کامل علم داده را انجام دهد: از تحلیل اولیه و پاک‌سازی داده‌ها تا مدل‌سازی و تفسیر نتایج. ⚙️📊

ویژگی‌ها:

✳️طراحی‌شده برای خودکارسازی کامل چرخه علم داده
✳️مجهز به عامل‌های تخصصی (agents) برای تحلیل، مدل‌سازی و ارزیابی
✳️توانایی استدلال چندمرحله‌ای و تصمیم‌گیری داده‌محور
✳️یکپارچه با LLM و ابزارهای داده مانند pandas و sklearn


🔗 منابع:
🖥 GitHub:
github.com/ruc-datalab/DeepAnalyze
📕 Paper:
huggingface.co/papers/2510.16872
🌐 Project Page:
ruc-deepanalyze.github.io

@rss_ai_ir
#AI #DataScience #LLM #AutonomousAI #DeepAnalyze #OpenSource
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Relational Visual Similarity

📝 Summary:
اینکه Vision-Language مدل‌های آموزش‌دیده روی کپشن‌های ناشناس‌شده می‌توانند شباهت رابطه‌ای بین تصاویر را تشخیص دهند؛ قابلیتی که در معیارهای فعلی شباهت بصری وجود ندارد.

🔹 Publication Date: Dec 8

🔹 Paper Links:
• arXiv Page: https://arxiv.org/abs/2512.07833
• PDF: https://arxiv.org/pdf/2512.07833
• Project Page: https://thaoshibe.github.io/relsim/
• Github: https://github.com/thaoshibe/relsim

==================================


#AI #DataScience #MachineLearning #HuggingFace #Research
👍1
Media is too big
VIEW IN TELEGRAM
🌐 گراند اسلو، موو فست — مدل پایه‌ای دوگانه برای ناوبری ویژنی-زبانی

📝 خلاصه:
مدل DualVLN یک سیستم دوگانه برای Vision-Language Navigation است که دو جزء اصلی دارد:

1. یک برنامه‌ریز جهانی مبتنی بر VLM برای فهم سطح بالا،


2. یک سیاست محلی سریع برای اجرای روانِ اکشن‌ها.



این ترکیب باعث می‌شود ربات‌ها بتوانند در محیط‌های پویا، در زمان واقعی و در مأموریت‌های طولانی‌مدت با پایداری بالا حرکت کنند.

🔹 تاریخ انتشار: 9 دسامبر

🔗 لینک‌ها:
• arXiv: https://arxiv.org/abs/2512.08186
• PDF: https://arxiv.org/pdf/2512.08186
• پروژه:
https://internrobotics.github.io/internvla-n1-dualvln.github.io/

• Github:
https://github.com/InternRobotics/InternNav

🔗 مدل‌های مرتبط:
https://huggingface.co/InternRobotics/InternVLA-N1-System2
https://huggingface.co/InternRobotics/InternVLA-N1-w-NavDP
https://huggingface.co/InternRobotics/InternVLA-N1-DualVLN

==================================


#AI #DataScience #MachineLearning #HuggingFace #Research
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
روش COREA: هم‌ترازی سه‌بعدی Coarse-to-Fine بین Gaussianهای سه‌بعدی قابل‌نوردهی مجدد و SDF با نظارت دوطرفه 3D-to-3D

📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سه‌بعدی Gaussians و توابع فاصله علامت‌دار (SDF) را به‌صورت دقیق و مرحله‌به‌مرحله (coarse-to-fine) با یکدیگر هم‌تراز می‌کند.
این مدل یادگیری هندسه را مستقیماً در فضای سه‌بعدی انجام می‌دهد و با نظارت دوطرفه 3D-to-3D، محدودیت‌های روش‌های قبلی را برطرف می‌کند.

🔍 مزایا و دستاوردها:

♻️تولید هندسه بسیار دقیق‌تر

♻️نورپردازی مجدد طبیعی‌تر و سازگارتر

بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)

یکپارچه‌سازی Gaussian Splatting با نمایش SDF



---

🔹 تاریخ انتشار: ۸ دسامبر

🔹 لینک‌ مقاله‌ها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv

==================================


#AI #DataScience #MachineLearning #HuggingFace #Research
This media is not supported in your browser
VIEW IN TELEGRAM
مدل EgoEdit: ویرایش ویدئوهای اول‌شخص به صورت بلادرنگ

📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اول‌شخص (Egocentric Video Editing) است که می‌تواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شی‌ء طراحی شده و نسبت به روش‌های موجود عملکرد دقیق‌تر و پایدار‌تری دارد.

🔸 ویژگی‌ها:

♻️ویرایش لحظه‌ای ویدئوهای POV بدون نیاز به ماسک‌گذاری دستی

♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)

♻️تشخیص بهتر تعامل دست با اشیا

♻️مدل سبک و سریع برای استفاده روی دستگاه‌های کاربردی

♻️معرفی یک دیتاست و بنچ‌مارک استاندارد برای ارزیابی سیستم‌های ویرایش اول‌شخص


🔹 تاریخ انتشار: ۵ دسامبر

🔗 لینک‌ها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیت‌هاب:
https://github.com/snap-research/EgoEdit

==============================


#AI #DataScience #MachineLearning #HuggingFace #Research