🎯 ۷ گام تا تسلط بر مدلهای زبانی بزرگ (LLM)
تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشهی راه را نشان میدهد؛ از مبانی اولیه تا ساخت اپلیکیشنهای واقعی:
1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)
2️⃣ بررسی معماریهای LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet
3️⃣ پیشتمرین مدلها
🔹 پیشبینی جملهی بعدی
🔹 پیشتمرین متضاد زبان–تصویر (Contrastive Pre-training)
4️⃣ فاینتیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)
5️⃣ تنظیم و پسآموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیحپذیری (Explainability)
6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخها (Relevancy)
7️⃣ ساخت اپلیکیشنهای LLM
🔹 چتباتها
🔹 تولید محتوا
🔹 ترجمهی زبان
---
🌟 اگر این مسیر را دنبال کنید، میتوانید از درک مبانی تا پیادهسازی اپلیکیشنهای پیشرفته مبتنی بر LLM حرکت کنید.
#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI
@rss_ai_ir
تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشهی راه را نشان میدهد؛ از مبانی اولیه تا ساخت اپلیکیشنهای واقعی:
1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)
2️⃣ بررسی معماریهای LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet
3️⃣ پیشتمرین مدلها
🔹 پیشبینی جملهی بعدی
🔹 پیشتمرین متضاد زبان–تصویر (Contrastive Pre-training)
4️⃣ فاینتیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)
5️⃣ تنظیم و پسآموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیحپذیری (Explainability)
6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخها (Relevancy)
7️⃣ ساخت اپلیکیشنهای LLM
🔹 چتباتها
🔹 تولید محتوا
🔹 ترجمهی زبان
---
🌟 اگر این مسیر را دنبال کنید، میتوانید از درک مبانی تا پیادهسازی اپلیکیشنهای پیشرفته مبتنی بر LLM حرکت کنید.
#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI
@rss_ai_ir
😁9👍8🔥8👏8🎉8❤5🥰4🙏1
🧠 SpikingBrain-7B:
مدلهای الهامگرفته از عصبشناسی
✅مدل SpikingBrain-7B معماریای است که از سازوکارهای مغز الهام گرفته و با ترکیب توجه هیبریدی و ماژولهای MoE (Mixture of Experts) طراحی شده است. این مدل با حداقل دادهها عملکرد بالا دارد و برای کلاسترهایی بدون نیاز به کارتهای NVIDIA بهینهسازی شده است؛ همین ویژگی امکان افزایش چشمگیر سرعت آموزش و استنتاج را فراهم میکند.
🚀 ویژگیهای کلیدی:
✳️ادغام توجه هیبریدی و MoE
✳️پشتیبانی از آموزش کمهزینه با استفاده از کمتر از ۲٪ دادهها
✳️بهینهسازیشده برای کلاسترهای MetaX
✳️بیش از ۱۰۰ برابر سرعت بیشتر در پردازش توالیهای طولانی
⛔️ارائه نسخههای آماده در HuggingFace و نسخه کوانتیزهشده
📌 GitHub: SpikingBrain-7B
#هوش_مصنوعی #مدل_زبان #SpikingBrain #MoE #NeuroAI #DeepLearning #HuggingFace
مدلهای الهامگرفته از عصبشناسی
✅مدل SpikingBrain-7B معماریای است که از سازوکارهای مغز الهام گرفته و با ترکیب توجه هیبریدی و ماژولهای MoE (Mixture of Experts) طراحی شده است. این مدل با حداقل دادهها عملکرد بالا دارد و برای کلاسترهایی بدون نیاز به کارتهای NVIDIA بهینهسازی شده است؛ همین ویژگی امکان افزایش چشمگیر سرعت آموزش و استنتاج را فراهم میکند.
🚀 ویژگیهای کلیدی:
✳️ادغام توجه هیبریدی و MoE
✳️پشتیبانی از آموزش کمهزینه با استفاده از کمتر از ۲٪ دادهها
✳️بهینهسازیشده برای کلاسترهای MetaX
✳️بیش از ۱۰۰ برابر سرعت بیشتر در پردازش توالیهای طولانی
⛔️ارائه نسخههای آماده در HuggingFace و نسخه کوانتیزهشده
📌 GitHub: SpikingBrain-7B
#هوش_مصنوعی #مدل_زبان #SpikingBrain #MoE #NeuroAI #DeepLearning #HuggingFace
❤13😍12💯9👍8🔥8🥰6❤🔥6🎉5🤩5👏3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🐙 ویدیوهای انسانمحور با دقت بالا 🐙
محققان دانشگاه Tsinghua و شرکت ByteDance فریمورک جدیدی به نام HuMo معرفی کردند؛ سیستمی یکپارچه برای تولید ویدیوهای انسان با کیفیت بالا که ویژگیهای زیر رو داره:
🔹 تولید ویدیو از روی پرامپت متنی
🔹 حفظ یکپارچگی سوژه در فریمهای مختلف
🔹 حرکتهای هماهنگشده با صدا (Audio-Driven Motion)
🔹 کنترلپذیری و جزئیات ظریف در خروجی
📌 فریم ورک HuMo میتونه از ورودیهای چندحالته (متن، تصویر، صدا) ویدیوهای طبیعی و روان تولید کنه.
📌 سورسکد با لایسنس Apache 2.0 منتشر شده و به راحتی قابل استفاده و توسعه است.
🔗 لینکها:
👉 Paper
👉 Project
👉 Repo
#HuMo #VideoGeneration #AI #DeepLearning #Tsinghua #ByteDance
محققان دانشگاه Tsinghua و شرکت ByteDance فریمورک جدیدی به نام HuMo معرفی کردند؛ سیستمی یکپارچه برای تولید ویدیوهای انسان با کیفیت بالا که ویژگیهای زیر رو داره:
🔹 تولید ویدیو از روی پرامپت متنی
🔹 حفظ یکپارچگی سوژه در فریمهای مختلف
🔹 حرکتهای هماهنگشده با صدا (Audio-Driven Motion)
🔹 کنترلپذیری و جزئیات ظریف در خروجی
📌 فریم ورک HuMo میتونه از ورودیهای چندحالته (متن، تصویر، صدا) ویدیوهای طبیعی و روان تولید کنه.
📌 سورسکد با لایسنس Apache 2.0 منتشر شده و به راحتی قابل استفاده و توسعه است.
🔗 لینکها:
👉 Paper
👉 Project
👉 Repo
#HuMo #VideoGeneration #AI #DeepLearning #Tsinghua #ByteDance
❤12🔥11🥰10👏8👍5🎉5😁4
🚀 Ring-mini-2.0
؛ مدل کوچک اما فوقالعاده قدرتمند!
💡 این مدل با 16B-A1B پارامتر و بهرهگیری از استراتژیهای Stable RLVR + RLHF آموزش دیده و کیفیتی پایدار و متعادل در طیف وسیعی از وظایف ارائه میدهد.
🧠 در منطق و استدلال، از مدلهای Dense با همین اندازه عملکرد بهتری دارد.
⚡ سرعت پردازش: بیش از ۳۰۰ توکن در ثانیه (۷ برابر سریعتر از مدلهای Dense مشابه).
🔥 نمونهای دیگر از اینکه چگونه مدلهای کوچکتر «Thinking Models» روزبهروز باهوشتر و سریعتر میشوند!
🔗 مشاهده در HuggingFace
@rss_ai_ir
#AI #LLM #RingMini #DeepLearning #OpenSource #MachineLearning #ThinkingModels
؛ مدل کوچک اما فوقالعاده قدرتمند!
💡 این مدل با 16B-A1B پارامتر و بهرهگیری از استراتژیهای Stable RLVR + RLHF آموزش دیده و کیفیتی پایدار و متعادل در طیف وسیعی از وظایف ارائه میدهد.
🧠 در منطق و استدلال، از مدلهای Dense با همین اندازه عملکرد بهتری دارد.
⚡ سرعت پردازش: بیش از ۳۰۰ توکن در ثانیه (۷ برابر سریعتر از مدلهای Dense مشابه).
🔥 نمونهای دیگر از اینکه چگونه مدلهای کوچکتر «Thinking Models» روزبهروز باهوشتر و سریعتر میشوند!
🔗 مشاهده در HuggingFace
@rss_ai_ir
#AI #LLM #RingMini #DeepLearning #OpenSource #MachineLearning #ThinkingModels
👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
📸 Vision Transformer (ViT)
✳️مدلی در بینایی ماشین که تصویر را به قطعات کوچک تقسیم کرده و مثل متن، با ترنسفورمر پردازش میکند.
✅این روش باعث میشود شبکه بتواند وابستگیهای پیچیدهی پیکسلها را درک کرده و در کارهایی مثل طبقهبندی، تشخیص اشیاء و تولید تصویر عملکردی بیرقیب داشته باشد.
@rss_ai_ir
#VisionTransformer #ViT #AI #DeepLearning #ComputerVision
✳️مدلی در بینایی ماشین که تصویر را به قطعات کوچک تقسیم کرده و مثل متن، با ترنسفورمر پردازش میکند.
✅این روش باعث میشود شبکه بتواند وابستگیهای پیچیدهی پیکسلها را درک کرده و در کارهایی مثل طبقهبندی، تشخیص اشیاء و تولید تصویر عملکردی بیرقیب داشته باشد.
@rss_ai_ir
#VisionTransformer #ViT #AI #DeepLearning #ComputerVision
🎉9👍8🔥8🥰8👏8😁8❤6
This media is not supported in your browser
VIEW IN TELEGRAM
در این ویدیو، مفاهیم کلیدی یادگیری ماشین بهصورت بصری نمایش داده میشوند. 📊
از جمله:
🔹 نحوه تغییر وزنها در طول آموزش
🔹 روند بهبود Accuracy در هر Epoch
این نوع ویژوالسازیها باعث میشوند درک مفاهیم پیچیدهی یادگیری ماشین سادهتر و عمیقتر شود.
@rss_ai_ir
#MachineLearning #DeepLearning #DataScience #AI #Visualization
از جمله:
🔹 نحوه تغییر وزنها در طول آموزش
🔹 روند بهبود Accuracy در هر Epoch
این نوع ویژوالسازیها باعث میشوند درک مفاهیم پیچیدهی یادگیری ماشین سادهتر و عمیقتر شود.
@rss_ai_ir
#MachineLearning #DeepLearning #DataScience #AI #Visualization
😁12🎉12👍11❤9🔥8🥰7👏4
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 تشخیص چهره با هوش مصنوعی
الگوریتمهای Face Recognition با استفاده از شبکههای عصبی کانولوشنی (CNN) میتوانند ویژگیهای منحصر به فرد چهره را استخراج و با یکدیگر مقایسه کنند.
📌 همانطور که در این ویدیو میبینید:
✅تصاویر مختلف از یک فرد (مثلاً در شرایط نوری یا حالات متفاوت) وارد شبکه میشوند.
✅مدل CNN Encoder ویژگیهای کلیدی چهره را به بردار عددی تبدیل میکند.
✅در نهایت، این بردارها با هم مقایسه شده و مشخص میشود که هر دو تصویر متعلق به یک فرد هستند یا خیر.
این تکنیک امروز در کاربردهایی مثل امنیت، کنترل دسترسی، گوشیهای هوشمند و حتی شبکههای اجتماعی استفاده میشود.
👁🗨 آینده سیستمهای بینایی ماشین بدون شک با چنین الگوریتمهایی گره خورده است.
@rss_ai_ir
#AI #FaceRecognition #DeepLearning #ComputerVision #MachineLearning
الگوریتمهای Face Recognition با استفاده از شبکههای عصبی کانولوشنی (CNN) میتوانند ویژگیهای منحصر به فرد چهره را استخراج و با یکدیگر مقایسه کنند.
📌 همانطور که در این ویدیو میبینید:
✅تصاویر مختلف از یک فرد (مثلاً در شرایط نوری یا حالات متفاوت) وارد شبکه میشوند.
✅مدل CNN Encoder ویژگیهای کلیدی چهره را به بردار عددی تبدیل میکند.
✅در نهایت، این بردارها با هم مقایسه شده و مشخص میشود که هر دو تصویر متعلق به یک فرد هستند یا خیر.
این تکنیک امروز در کاربردهایی مثل امنیت، کنترل دسترسی، گوشیهای هوشمند و حتی شبکههای اجتماعی استفاده میشود.
👁🗨 آینده سیستمهای بینایی ماشین بدون شک با چنین الگوریتمهایی گره خورده است.
@rss_ai_ir
#AI #FaceRecognition #DeepLearning #ComputerVision #MachineLearning
🥰12❤11🔥11🎉10👏8👍7😁6
This media is not supported in your browser
VIEW IN TELEGRAM
🦠 رهگیری سلول با هوش مصنوعی – بدون نیاز به دادههای برچسبخورده! 🦠
پژوهشگران دانشگاه RWTH یک چارچوب نوآورانه برای Cell Tracking معرفی کردهاند که با ترکیب مدل Segment Anything 2 (SAM2) در پایپلاین رهگیری، میتواند هر سلول را بهصورت Zero-Shot بخشبندی و رهگیری کند 🚀
🔹 نیازی به دادههای آموزشی اختصاصی ندارد.
🔹 دقت بالا در شناسایی و دنبالکردن سلولها در ویدیوهای میکروسکوپی.
🔹 انتشار کد منبع برای جامعهی علمی 💙
📖
📄 مقاله:
https://arxiv.org/pdf/2509.09943
💻 کد منبع:
https://github.com/zhuchen96/sam4celltracking
@rss_ai_ir
#AI #BioAI #CellTracking #SAM2 #DeepLearning #BiomedicalResearch
پژوهشگران دانشگاه RWTH یک چارچوب نوآورانه برای Cell Tracking معرفی کردهاند که با ترکیب مدل Segment Anything 2 (SAM2) در پایپلاین رهگیری، میتواند هر سلول را بهصورت Zero-Shot بخشبندی و رهگیری کند 🚀
🔹 نیازی به دادههای آموزشی اختصاصی ندارد.
🔹 دقت بالا در شناسایی و دنبالکردن سلولها در ویدیوهای میکروسکوپی.
🔹 انتشار کد منبع برای جامعهی علمی 💙
📖
📄 مقاله:
https://arxiv.org/pdf/2509.09943
💻 کد منبع:
https://github.com/zhuchen96/sam4celltracking
@rss_ai_ir
#AI #BioAI #CellTracking #SAM2 #DeepLearning #BiomedicalResearch
🔥15🎉12👍10🥰8😁8👏6❤3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀👽 DAM for SAM2 Tracking 👽🚀
🔬 محققان دانشگاه لیوبلیانا ماژول جدیدی به نام Distractor-Aware Memory (DAM) برای SAM2 معرفی کردهاند. این ماژول بهصورت drop-in عمل میکند و باعث:
✅کاهش انحراف ردیابی (tracking drift) به سمت عوامل مزاحم (distractors)
✅بهبود توانایی بازتشخیص (redetection) بعد از انسداد شیء (occlusion)
💎 نتیجه؟ DAM4SAM عملکردی بهتر از SAM2.1 داشته و در ۱۰ بنچمارک مختلف SOTA را ثبت کرده است.
📌 منابع:
👉 Paper
👉 Project Page
👉 GitHub Repo
@rss_ai_ir
#AI #ComputerVision #Tracking #SAM2 #DAM4SAM #DeepLearning #SOTA
🔬 محققان دانشگاه لیوبلیانا ماژول جدیدی به نام Distractor-Aware Memory (DAM) برای SAM2 معرفی کردهاند. این ماژول بهصورت drop-in عمل میکند و باعث:
✅کاهش انحراف ردیابی (tracking drift) به سمت عوامل مزاحم (distractors)
✅بهبود توانایی بازتشخیص (redetection) بعد از انسداد شیء (occlusion)
💎 نتیجه؟ DAM4SAM عملکردی بهتر از SAM2.1 داشته و در ۱۰ بنچمارک مختلف SOTA را ثبت کرده است.
📌 منابع:
👉 Paper
👉 Project Page
👉 GitHub Repo
@rss_ai_ir
#AI #ComputerVision #Tracking #SAM2 #DAM4SAM #DeepLearning #SOTA
😁13👏12❤11👍9🔥8🥰6🎉6🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🌊🐳 SI-SOD: شناسایی سالینسی ناوردا در تصاویر پیچیده
🔍 پژوهشگران SI-SOD را معرفی کردند، مدلی برای Invariant Salient Object Detection که در سناریوهایی کار میکند که چندین شیء سالینت با اندازههای بسیار متفاوت در یک تصویر ظاهر میشوند.
⚡ چرا مهم است؟
در تشخیص سالینت، وقتی اشیاء کوچک و بزرگ همزمان حضور دارند، مدلهای سنتی دچار خطا میشوند. SI-SOD با طراحی جدید خود میتواند تمرکز را روی همهی اشیاء حفظ کند و ناوردا عمل کند.
📌 منابع:
📄 مقاله
🌐 پروژه
💻 کد روی GitHub
💙 این ریپو منتشر شده و برای کسانی که روی سالینسی، بینایی ماشین و SOD کار میکنند میتونه ابزار ارزشمندی باشه.
#AI #ComputerVision #SaliencyDetection #SISOD #DeepLearning #CVPR
@rss_ai_ir
🔍 پژوهشگران SI-SOD را معرفی کردند، مدلی برای Invariant Salient Object Detection که در سناریوهایی کار میکند که چندین شیء سالینت با اندازههای بسیار متفاوت در یک تصویر ظاهر میشوند.
⚡ چرا مهم است؟
در تشخیص سالینت، وقتی اشیاء کوچک و بزرگ همزمان حضور دارند، مدلهای سنتی دچار خطا میشوند. SI-SOD با طراحی جدید خود میتواند تمرکز را روی همهی اشیاء حفظ کند و ناوردا عمل کند.
📌 منابع:
📄 مقاله
🌐 پروژه
💻 کد روی GitHub
💙 این ریپو منتشر شده و برای کسانی که روی سالینسی، بینایی ماشین و SOD کار میکنند میتونه ابزار ارزشمندی باشه.
#AI #ComputerVision #SaliencyDetection #SISOD #DeepLearning #CVPR
@rss_ai_ir
❤7😁6🔥5🥰4🎉4👍3👏2
This media is not supported in your browser
VIEW IN TELEGRAM
🥇 SaSaSa2VA
قهرمان چالش LSVOS 🥇
⛔️این مدل با معرفی رویکرد Segmentation Augmentation باعث بهبود درک ویدئو در سطح جهانی شده و در عین حال کارآمد باقی میماند.
همچنین در مرحلهی inference از Selective Averaging برای ترکیب پایدار پیشبینیهای مکمل استفاده میکند.
📊 نتیجه؟ دستیابی به SOTA در هفتمین چالش LSVOS (بخش RVOS) 🎉
کدی کاملاً عملیاتی و متنباز تحت لایسنس Apache در دسترس است.
📄 مقاله:
https://arxiv.org/pdf/2509.16972
💻 ریپو:
https://github.com/magic-research/Sa2VA
@rss_ai_ir
#AI #VideoUnderstanding #LSVOS #Segmentation #DeepLearning #opensource
قهرمان چالش LSVOS 🥇
⛔️این مدل با معرفی رویکرد Segmentation Augmentation باعث بهبود درک ویدئو در سطح جهانی شده و در عین حال کارآمد باقی میماند.
همچنین در مرحلهی inference از Selective Averaging برای ترکیب پایدار پیشبینیهای مکمل استفاده میکند.
📊 نتیجه؟ دستیابی به SOTA در هفتمین چالش LSVOS (بخش RVOS) 🎉
کدی کاملاً عملیاتی و متنباز تحت لایسنس Apache در دسترس است.
📄 مقاله:
https://arxiv.org/pdf/2509.16972
💻 ریپو:
https://github.com/magic-research/Sa2VA
@rss_ai_ir
#AI #VideoUnderstanding #LSVOS #Segmentation #DeepLearning #opensource
This media is not supported in your browser
VIEW IN TELEGRAM
🏆 برنده MOSEv2 Challenge 2025 🏆
🔹 راهکاری کاربردی برای سگمنتیشن پیچیده بر اساس مفهوم جدید Segment Concept (SeC).
این فریمورک مبتنی بر مفهوم، تمرکز را از feature matching سنتی به سمت ساخت تدریجی و بهرهگیری از نمایشهای سطح بالا و شیء-محور جابهجا میکند.
📄 منابع:
مقاله اصلی
مقاله SeC
کد منبع (Apache 2.0)
پروژه
@rss_ai_ir
#هوش_مصنوعی #Segmentation #MOSEv2 #SeC #DeepLearning
🔹 راهکاری کاربردی برای سگمنتیشن پیچیده بر اساس مفهوم جدید Segment Concept (SeC).
این فریمورک مبتنی بر مفهوم، تمرکز را از feature matching سنتی به سمت ساخت تدریجی و بهرهگیری از نمایشهای سطح بالا و شیء-محور جابهجا میکند.
📄 منابع:
مقاله اصلی
مقاله SeC
کد منبع (Apache 2.0)
پروژه
@rss_ai_ir
#هوش_مصنوعی #Segmentation #MOSEv2 #SeC #DeepLearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 تنسنت بخشی از Hunyuan Studio را که مسئول سگمنتیشن اشیای سهبعدی است به صورت اوپنسورس منتشر کرد!
🔹 دو متد کلیدی:
P3-SAM —
❌ مدل سگمنتیشن قطعات در فرمت سهبعدی.
X-Part —
❌مدل تولید قطعات با نتایج عالی در کنترلپذیری و کیفیت شکل.
📂 کد: GitHub
📦 وزنها: Hugging Face
🌐 جزئیات بیشتر:
P3-SAM
X-Part
👉 یک گام دیگر برای دسترسپذیرتر شدن پایپلاینهای پیچیده کار با 3D برای جامعه پژوهشگران و توسعهدهندگان.
#AI #3D #Segmentation #OpenSource #Hunyuan #Tencent #DeepLearning
@rss_ai_ir
🔹 دو متد کلیدی:
P3-SAM —
❌ مدل سگمنتیشن قطعات در فرمت سهبعدی.
X-Part —
❌مدل تولید قطعات با نتایج عالی در کنترلپذیری و کیفیت شکل.
📂 کد: GitHub
📦 وزنها: Hugging Face
🌐 جزئیات بیشتر:
P3-SAM
X-Part
👉 یک گام دیگر برای دسترسپذیرتر شدن پایپلاینهای پیچیده کار با 3D برای جامعه پژوهشگران و توسعهدهندگان.
#AI #3D #Segmentation #OpenSource #Hunyuan #Tencent #DeepLearning
@rss_ai_ir
❤1