This media is not supported in your browser
VIEW IN TELEGRAM
✨ Relational Visual Similarity
📝 Summary:
اینکه Vision-Language مدلهای آموزشدیده روی کپشنهای ناشناسشده میتوانند شباهت رابطهای بین تصاویر را تشخیص دهند؛ قابلیتی که در معیارهای فعلی شباهت بصری وجود ندارد.
🔹 Publication Date: Dec 8
🔹 Paper Links:
• arXiv Page: https://arxiv.org/abs/2512.07833
• PDF: https://arxiv.org/pdf/2512.07833
• Project Page: https://thaoshibe.github.io/relsim/
• Github: https://github.com/thaoshibe/relsim
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 Summary:
اینکه Vision-Language مدلهای آموزشدیده روی کپشنهای ناشناسشده میتوانند شباهت رابطهای بین تصاویر را تشخیص دهند؛ قابلیتی که در معیارهای فعلی شباهت بصری وجود ندارد.
🔹 Publication Date: Dec 8
🔹 Paper Links:
• arXiv Page: https://arxiv.org/abs/2512.07833
• PDF: https://arxiv.org/pdf/2512.07833
• Project Page: https://thaoshibe.github.io/relsim/
• Github: https://github.com/thaoshibe/relsim
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍1
Media is too big
VIEW IN TELEGRAM
🌐 گراند اسلو، موو فست — مدل پایهای دوگانه برای ناوبری ویژنی-زبانی
📝 خلاصه:
مدل DualVLN یک سیستم دوگانه برای Vision-Language Navigation است که دو جزء اصلی دارد:
1. یک برنامهریز جهانی مبتنی بر VLM برای فهم سطح بالا،
2. یک سیاست محلی سریع برای اجرای روانِ اکشنها.
این ترکیب باعث میشود رباتها بتوانند در محیطهای پویا، در زمان واقعی و در مأموریتهای طولانیمدت با پایداری بالا حرکت کنند.
🔹 تاریخ انتشار: 9 دسامبر
🔗 لینکها:
• arXiv: https://arxiv.org/abs/2512.08186
• PDF: https://arxiv.org/pdf/2512.08186
• پروژه:
https://internrobotics.github.io/internvla-n1-dualvln.github.io/
• Github:
https://github.com/InternRobotics/InternNav
🔗 مدلهای مرتبط:
• https://huggingface.co/InternRobotics/InternVLA-N1-System2
• https://huggingface.co/InternRobotics/InternVLA-N1-w-NavDP
• https://huggingface.co/InternRobotics/InternVLA-N1-DualVLN
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
مدل DualVLN یک سیستم دوگانه برای Vision-Language Navigation است که دو جزء اصلی دارد:
1. یک برنامهریز جهانی مبتنی بر VLM برای فهم سطح بالا،
2. یک سیاست محلی سریع برای اجرای روانِ اکشنها.
این ترکیب باعث میشود رباتها بتوانند در محیطهای پویا، در زمان واقعی و در مأموریتهای طولانیمدت با پایداری بالا حرکت کنند.
🔹 تاریخ انتشار: 9 دسامبر
🔗 لینکها:
• arXiv: https://arxiv.org/abs/2512.08186
• PDF: https://arxiv.org/pdf/2512.08186
• پروژه:
https://internrobotics.github.io/internvla-n1-dualvln.github.io/
• Github:
https://github.com/InternRobotics/InternNav
🔗 مدلهای مرتبط:
• https://huggingface.co/InternRobotics/InternVLA-N1-System2
• https://huggingface.co/InternRobotics/InternVLA-N1-w-NavDP
• https://huggingface.co/InternRobotics/InternVLA-N1-DualVLN
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Unified Video Editing with Temporal Reasoner
📝 خلاصه:
رویکردVideoCoF ، یک رویکرد Chain-of-Frames است که دقت و تطابق ویرایش ویدیو با دستور کاربر را افزایش میدهد. این روش با استفاده از reasoning tokens و بدون نیاز به ماسکدهی توسط کاربر، نواحی مربوطه را تشخیص میدهد و ویرایش دقیقتری ارائه میکند.
AI-generated summary
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینکهای مقاله:
• arXiv Page: https://arxiv.org/abs/2512.07469
• PDF: https://arxiv.org/pdf/2512.07469
• Project Page: https://videocof.github.io/
• Github: https://github.com/knightyxp/VideoCoF
🔹 مدلهایی که به این مقاله ارجاع دادهاند:
• https://huggingface.co/XiangpengYang/VideoCoF
==================================
#AI #VideoEditing #MachineLearning #DeepLearning #HuggingFace 🎥🤖
📝 خلاصه:
رویکردVideoCoF ، یک رویکرد Chain-of-Frames است که دقت و تطابق ویرایش ویدیو با دستور کاربر را افزایش میدهد. این روش با استفاده از reasoning tokens و بدون نیاز به ماسکدهی توسط کاربر، نواحی مربوطه را تشخیص میدهد و ویرایش دقیقتری ارائه میکند.
AI-generated summary
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینکهای مقاله:
• arXiv Page: https://arxiv.org/abs/2512.07469
• PDF: https://arxiv.org/pdf/2512.07469
• Project Page: https://videocof.github.io/
• Github: https://github.com/knightyxp/VideoCoF
🔹 مدلهایی که به این مقاله ارجاع دادهاند:
• https://huggingface.co/XiangpengYang/VideoCoF
==================================
#AI #VideoEditing #MachineLearning #DeepLearning #HuggingFace 🎥🤖
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ روش COREA: همترازی سهبعدی Coarse-to-Fine بین Gaussianهای سهبعدی قابلنوردهی مجدد و SDF با نظارت دوطرفه 3D-to-3D
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
This media is not supported in your browser
VIEW IN TELEGRAM
✨ مدل EgoEdit: ویرایش ویدئوهای اولشخص به صورت بلادرنگ
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍1
🧠 قدرت Support Vector Machines (SVM) در یادگیری ماشین 🚀
الگوریتمهای SVM یکی از قدرتمندترین روشهای یادگیری نظارتشده برای طبقهبندی و رگرسیون هستند و سالهاست در مسائل پیچیده دنیای واقعی استفاده میشوند.
🔹 چرا SVM مهم است؟
1️⃣ مقاومت بالا (Robustness)
قابلیت کار با دادههای با ابعاد بالا و مقاومت در برابر نویز و دادههای پرت.
2️⃣ بیشینهسازی حاشیه (Margin Maximization)
یافتن بهترین ابرصفحه با بیشترین فاصله بین کلاسها برای تعمیم بهتر روی دادههای جدید.
3️⃣ ترفند کرنل (Kernel Trick)
امکان حل مسائل غیرخطی با نگاشت دادهها به فضاهای با بعد بالاتر.
4️⃣ Regularization
استفاده از L1 و L2 برای جلوگیری از overfitting و بهبود تعمیمپذیری.
5️⃣ انعطافپذیری بالا
پشتیبانی از انواع مختلف مانند C-SVM، ν-SVM و ε-SVM برای سناریوهای متفاوت.
6️⃣ قابلیت تفسیرپذیری
نقش کلیدی Support Vectorها در تصمیمگیری مدل، برخلاف بسیاری از مدلهای بلکباکس.
🎯 با وجود موج مدلهای عمیق، SVM همچنان یکی از ابزارهای کلاسیک و قابلاعتماد برای حل مسائل پیچیده است.
#MachineLearning #SVM #DataScience #ArtificialIntelligence #AI
@rss_ai_ir
الگوریتمهای SVM یکی از قدرتمندترین روشهای یادگیری نظارتشده برای طبقهبندی و رگرسیون هستند و سالهاست در مسائل پیچیده دنیای واقعی استفاده میشوند.
🔹 چرا SVM مهم است؟
1️⃣ مقاومت بالا (Robustness)
قابلیت کار با دادههای با ابعاد بالا و مقاومت در برابر نویز و دادههای پرت.
2️⃣ بیشینهسازی حاشیه (Margin Maximization)
یافتن بهترین ابرصفحه با بیشترین فاصله بین کلاسها برای تعمیم بهتر روی دادههای جدید.
3️⃣ ترفند کرنل (Kernel Trick)
امکان حل مسائل غیرخطی با نگاشت دادهها به فضاهای با بعد بالاتر.
4️⃣ Regularization
استفاده از L1 و L2 برای جلوگیری از overfitting و بهبود تعمیمپذیری.
5️⃣ انعطافپذیری بالا
پشتیبانی از انواع مختلف مانند C-SVM، ν-SVM و ε-SVM برای سناریوهای متفاوت.
6️⃣ قابلیت تفسیرپذیری
نقش کلیدی Support Vectorها در تصمیمگیری مدل، برخلاف بسیاری از مدلهای بلکباکس.
🎯 با وجود موج مدلهای عمیق، SVM همچنان یکی از ابزارهای کلاسیک و قابلاعتماد برای حل مسائل پیچیده است.
#MachineLearning #SVM #DataScience #ArtificialIntelligence #AI
@rss_ai_ir
👍9❤7😁6🔥5🥰4👏3🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ MoCapAnything:
کپچر حرکتی سهبعدی برای هر نوع اسکلت از ویدئوی تکدوربینه 🎥🦴
این پژوهش یک فریمورک مرجعمحور معرفی میکند که میتواند انیمیشنهای مبتنی بر چرخش را تنها از یک ویدئوی معمولی بازسازی کند؛ آن هم برای هر مدل سهبعدی ریگشده—حتی بین گونههای مختلف (انسان، حیوان، موجودات فانتزی).
🔹 نکات کلیدی
✳️بازسازی حرکت سهبعدی از ویدئوی تکدوربینه
✳️پشتیبانی از اسکلتهای دلخواه و ریگهای متنوع
✳️ریتارگتینگ بینگونهای (cross-species)
✳️مقیاسپذیر برای تولید انیمیشن 3D
📅 تاریخ انتشار: 11 دسامبر
📄 مقاله:
• arXiv: https://arxiv.org/abs/2512.10881
• PDF: https://arxiv.org/pdf/2512.10881
https://animotionlab.github.io/MoCapAnything
@rss_ai_ir
#AI #DataScience #MachineLearning #ComputerGraphics #MotionCapture #3DAnimation
کپچر حرکتی سهبعدی برای هر نوع اسکلت از ویدئوی تکدوربینه 🎥🦴
این پژوهش یک فریمورک مرجعمحور معرفی میکند که میتواند انیمیشنهای مبتنی بر چرخش را تنها از یک ویدئوی معمولی بازسازی کند؛ آن هم برای هر مدل سهبعدی ریگشده—حتی بین گونههای مختلف (انسان، حیوان، موجودات فانتزی).
🔹 نکات کلیدی
✳️بازسازی حرکت سهبعدی از ویدئوی تکدوربینه
✳️پشتیبانی از اسکلتهای دلخواه و ریگهای متنوع
✳️ریتارگتینگ بینگونهای (cross-species)
✳️مقیاسپذیر برای تولید انیمیشن 3D
📅 تاریخ انتشار: 11 دسامبر
📄 مقاله:
• arXiv: https://arxiv.org/abs/2512.10881
• PDF: https://arxiv.org/pdf/2512.10881
https://animotionlab.github.io/MoCapAnything
@rss_ai_ir
#AI #DataScience #MachineLearning #ComputerGraphics #MotionCapture #3DAnimation
👍10👏9🔥6🥰6😁3🎉3❤1
🧠✨ پژوهش جدید Anthropic: جداسازی «دانش خطرناک» از دانش عادی داخل مدلهای زبانی
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
👏22🎉15👍13🥰13🔥12😁12❤10
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ گوگل Ironwood؛ قدرتمندترین TPU نسل هفتم
🔥 گوگل با معرفی Ironwood (TPU v7) عملاً سطح جدیدی از توان پردازشی برای مدلهای بزرگ هوش مصنوعی تعریف کرده است.
💪 توان پردازشی:
• ۴٬۶۱۴ FP8 TFLOPS
• ۱۹۲ گیگابایت حافظه HBM3E روی هر چیپ
• پهنای باند حافظه تا ۷٫۳۷ ترابایتبرثانیه
🚀 مقیاسپذیری:
• پادهایی با حداکثر ۹٬۲۱۶ شتابدهنده
• مجموع توان: ۴۲٫۵ اگزافلاپس FP8 برای آموزش و استنتاج
• برای مقایسه: Nvidia GB300 NVL72 فقط حدود ۰٫۳۶ اگزافلاپس
🔗 شبکه و ارتباطات:
• شبکه اختصاصی Inter-Chip Interconnect با سرعت ۹٫۶ ترابیتبرثانیه
• حدود ۱٫۷۷ پتابایت حافظه HBM3E در هر پاد
• باز هم برتری عددی نسبت به سیستمهای رقیب انویدیا
🧠 جمعبندی:
اینکه Ironwood حالا ستون اصلی گوگل برای اجرای LLMهای عظیم و مدلهای چندوجهی است؛ ترکیبی از قدرت، مقیاس و اتصال که رقبا را به چالش جدی میکشد.
@rss_ai_ir
#AI #Google #TPU #Ironwood #LLM #DataCenter #MachineLearning
🔥 گوگل با معرفی Ironwood (TPU v7) عملاً سطح جدیدی از توان پردازشی برای مدلهای بزرگ هوش مصنوعی تعریف کرده است.
💪 توان پردازشی:
• ۴٬۶۱۴ FP8 TFLOPS
• ۱۹۲ گیگابایت حافظه HBM3E روی هر چیپ
• پهنای باند حافظه تا ۷٫۳۷ ترابایتبرثانیه
🚀 مقیاسپذیری:
• پادهایی با حداکثر ۹٬۲۱۶ شتابدهنده
• مجموع توان: ۴۲٫۵ اگزافلاپس FP8 برای آموزش و استنتاج
• برای مقایسه: Nvidia GB300 NVL72 فقط حدود ۰٫۳۶ اگزافلاپس
🔗 شبکه و ارتباطات:
• شبکه اختصاصی Inter-Chip Interconnect با سرعت ۹٫۶ ترابیتبرثانیه
• حدود ۱٫۷۷ پتابایت حافظه HBM3E در هر پاد
• باز هم برتری عددی نسبت به سیستمهای رقیب انویدیا
🧠 جمعبندی:
اینکه Ironwood حالا ستون اصلی گوگل برای اجرای LLMهای عظیم و مدلهای چندوجهی است؛ ترکیبی از قدرت، مقیاس و اتصال که رقبا را به چالش جدی میکشد.
@rss_ai_ir
#AI #Google #TPU #Ironwood #LLM #DataCenter #MachineLearning
👍8🔥7❤6👏5😁5🎉3🥰2🙏1
🚀 مدل Paper2Slides حالا متنباز شد!
حالا میتونی مقالههای علمی و گزارشهای فنی رو فقط با یک کلیک به اسلایدهای حرفهای تبدیل کنی 📊✨
ما همین الان اسلایدهای مربوط به DeepSeek V3.2 رو باهاش ساختیم؛
استایلهای مختلف، طراحی تمیز و خروجی واقعاً قابل ارائه 👌
🔥 اینکه Paper2Slides چه کارهایی میکنه؟
📄 پشتیبانی از فرمتهای مختلف:
PDF، Word، Excel، PowerPoint و بیشتر
🧠 درک محتوا:
ایدههای کلیدی، جدولها، فرمولها، نمودارها و دادهها رو خودش استخراج میکنه
🎨 شخصیسازی کامل:
تمهای آماده + امکان تغییر استایل به سلیقه خودت
⚡ سرعت بالا:
اسلایدهای باکیفیت در چند دقیقه
🔗 گیتهاب:
github.com/HKUDS/Paper2Slides
📢 @rss_ai_ir
#AI #OpenSource #Presentation #Research #MachineLearning #Productivity
حالا میتونی مقالههای علمی و گزارشهای فنی رو فقط با یک کلیک به اسلایدهای حرفهای تبدیل کنی 📊✨
ما همین الان اسلایدهای مربوط به DeepSeek V3.2 رو باهاش ساختیم؛
استایلهای مختلف، طراحی تمیز و خروجی واقعاً قابل ارائه 👌
🔥 اینکه Paper2Slides چه کارهایی میکنه؟
📄 پشتیبانی از فرمتهای مختلف:
PDF، Word، Excel، PowerPoint و بیشتر
🧠 درک محتوا:
ایدههای کلیدی، جدولها، فرمولها، نمودارها و دادهها رو خودش استخراج میکنه
🎨 شخصیسازی کامل:
تمهای آماده + امکان تغییر استایل به سلیقه خودت
⚡ سرعت بالا:
اسلایدهای باکیفیت در چند دقیقه
🔗 گیتهاب:
github.com/HKUDS/Paper2Slides
📢 @rss_ai_ir
#AI #OpenSource #Presentation #Research #MachineLearning #Productivity
🥰20🔥19👍16👏15🎉14❤9😁9