🚀 عرضه عمومی مدلهای فشرده Hunyuan از سوی Tencent!
@rss_ai_ir
📣 شرکت Tencent چهار مدل سبکوزن از خانواده Hunyuan LLM را بهصورت متنباز منتشر کرد:
🔹 Hunyuan-0.5B
🔹 Hunyuan-1.8B
🔹 Hunyuan-4B
🔹 Hunyuan-7B
📱 این مدلها برای اجرا روی دستگاههای کممصرف طراحی شدهاند:
🖥 کامپیوترهای شخصی | 📱 تلفنهای هوشمند | 🚗 خودروها | 🏠 خانههای هوشمند | 🎮 کارتهای GPU مصرفی
---
💡 ویژگیهای برجسته: ✅ پشتیبانی از حالتهای fast/slow thinking (پاسخهای سریع یا تحلیلی)
✅ کانتکست طولانی تا ۲۵۶ هزار توکن!
✅ تواناییهای عاملمحور پیشرفته (مانند reasoning، برنامهریزی، tool use)
✅ عملکرد قوی در تستهای زبان، منطق و ریاضی
✅ پشتیبانی از زیرساختهای حرفهای مانند SGLang، vLLM و TensorRT-LLM
---
📦 لینکها برای دانلود و تست مدلها:
🧠 GitHub:
Hunyuan-0.5B
Hunyuan-1.8B
Hunyuan-4B
Hunyuan-7B
🤗 Hugging Face:
Hunyuan-0.5B-Instruct
Hunyuan-1.8B-Instruct
Hunyuan-4B-Instruct
Hunyuan-7B-Instruct
📎 اطلاعات بیشتر:
🔗 https://hunyuan.tencent.com/modelSquare/home/list
---
#Tencent #Hunyuan #هوش_مصنوعی #مدل_زبان #opensource #LLM #AI
@rss_ai_ir
📣 شرکت Tencent چهار مدل سبکوزن از خانواده Hunyuan LLM را بهصورت متنباز منتشر کرد:
🔹 Hunyuan-0.5B
🔹 Hunyuan-1.8B
🔹 Hunyuan-4B
🔹 Hunyuan-7B
📱 این مدلها برای اجرا روی دستگاههای کممصرف طراحی شدهاند:
🖥 کامپیوترهای شخصی | 📱 تلفنهای هوشمند | 🚗 خودروها | 🏠 خانههای هوشمند | 🎮 کارتهای GPU مصرفی
---
💡 ویژگیهای برجسته: ✅ پشتیبانی از حالتهای fast/slow thinking (پاسخهای سریع یا تحلیلی)
✅ کانتکست طولانی تا ۲۵۶ هزار توکن!
✅ تواناییهای عاملمحور پیشرفته (مانند reasoning، برنامهریزی، tool use)
✅ عملکرد قوی در تستهای زبان، منطق و ریاضی
✅ پشتیبانی از زیرساختهای حرفهای مانند SGLang، vLLM و TensorRT-LLM
---
📦 لینکها برای دانلود و تست مدلها:
🧠 GitHub:
Hunyuan-0.5B
Hunyuan-1.8B
Hunyuan-4B
Hunyuan-7B
🤗 Hugging Face:
Hunyuan-0.5B-Instruct
Hunyuan-1.8B-Instruct
Hunyuan-4B-Instruct
Hunyuan-7B-Instruct
📎 اطلاعات بیشتر:
🔗 https://hunyuan.tencent.com/modelSquare/home/list
---
#Tencent #Hunyuan #هوش_مصنوعی #مدل_زبان #opensource #LLM #AI
🔥20❤17👍15👏14🥰13😁13🎉13
🚨 پیشتازی چین در رقابت مدلهای زبان بزرگ!
🧠 مدل متنباز XBai-o4 با ۳۲.۸ میلیارد پارامتر، رسماً در جدول LiveCodeBench از مدلهای معروف آمریکایی مثل OpenAI o3-mini و Claude Opus-4 جلو زد!
📌 این مدل با استفاده از تکنیکهای پیشرفته مانند:
• Long-CoT RL
• SPRM (یادگیری مبتنی بر پاداش پردازشی)
و همچنین فناوری نوآورانهی Parallel Test-Time Scaling**، عملکرد چشمگیری را به ثبت رسانده است.
---
📊 **نتایج مهم (حالت Medium):
* AIME24: ۸۵.۴
* AIME25: ۷۷.۶
* LiveCodeBench v5: ۶۷.۰
* برتری کامل نسبت به o3-mini و Claude Opus حتی در حالت Thinking!
---
🔬 آیا چین در حال فتح دنیای LLMهای متنباز است؟
بهنظر میرسد رقابت جدی تازه شروع شده...
@rss_ai_ir 🤖
🧠 مدل متنباز XBai-o4 با ۳۲.۸ میلیارد پارامتر، رسماً در جدول LiveCodeBench از مدلهای معروف آمریکایی مثل OpenAI o3-mini و Claude Opus-4 جلو زد!
📌 این مدل با استفاده از تکنیکهای پیشرفته مانند:
• Long-CoT RL
• SPRM (یادگیری مبتنی بر پاداش پردازشی)
و همچنین فناوری نوآورانهی Parallel Test-Time Scaling**، عملکرد چشمگیری را به ثبت رسانده است.
---
📊 **نتایج مهم (حالت Medium):
* AIME24: ۸۵.۴
* AIME25: ۷۷.۶
* LiveCodeBench v5: ۶۷.۰
* برتری کامل نسبت به o3-mini و Claude Opus حتی در حالت Thinking!
---
🔬 آیا چین در حال فتح دنیای LLMهای متنباز است؟
بهنظر میرسد رقابت جدی تازه شروع شده...
@rss_ai_ir 🤖
👍19❤18🔥15😁14🎉14🥰13👏13👎1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 تکنیک انتقال دانش (Knowledge Distillation): یادگیری از مدل بزرگتر با مغز کوچکتر!
@rss_ai_ir
در بسیاری از پروژههای یادگیری عمیق، مدلهایی با دقت بالا اما ابعاد بزرگ طراحی میشوند که اجرای آنها روی دستگاههای محدود (مثل موبایل، بردهای لبه یا مرورگرها) عملاً ممکن نیست. اینجاست که انتقال دانش وارد میشود.
🧠 در این تکنیک، یک مدل دانشآموز (Student) از یک مدل معلم (Teacher) که قبلاً آموزش دیده، یاد میگیرد. بهجای یادگیری مستقیم از دادههای برچسبخورده، مدل دانشآموز تلاش میکند خروجیهای نرم (soft outputs) مدل معلم را تقلید کند.
🔬 چرا خروجی نرم مهم است؟
در یک شبکه معمولی، خروجی نهایی معمولاً بهصورت one-hot است: مثلاً گربه = 1 و بقیه = 0.
اما در Softmax با دمای بالا (T > 1)، توزیع احتمال صافتری بهدست میآید (مثلاً گربه: 0.75، روباه: 0.2، سگ: 0.05)، که نشاندهنده «درک ظریف» مدل معلم از شباهت بین کلاسهاست.
🎯 این اطلاعات اضافی باعث میشود مدل دانشآموز بهتر یاد بگیرد — حتی اگر تعداد پارامترهایش خیلی کمتر باشد.
📌 کاربردهای کلیدی Knowledge Distillation:
✅ کاهش حجم مدل برای deployment در دستگاههای محدود
✅ افزایش سرعت inference بدون افت دقت محسوس
✅ تقویت یادگیری مدلهای ضعیفتر در شرایط کمداده
✅ استفاده در ترکیب با pruning و quantization
🧪 ترکیب رایج Loss:
که در آن student_T و teacher_T خروجیهای Softmax با دمای بالا هستند.
👁🗨 مثال واقعی:
مدلی مثل TinyBERT از طریق انتقال دانش از BERT-base آموزش داده شده و با وجود کاهش چشمگیر در تعداد پارامتر، عملکردی نزدیک به نسخه کامل دارد.
📎 اگر علاقهمند به Distillation هستی، میتونی موضوعاتی مثل:
Layer-wise Distillation
Feature-based Distillation
Self-Distillation (بدون معلم خارجی!)
رو هم بررسی کنی.
#هوش_مصنوعی #دانش_ماشین #یادگیری_عمیق #KnowledgeDistillation #مدل_سبک #AI
@rss_ai_ir
@rss_ai_ir
در بسیاری از پروژههای یادگیری عمیق، مدلهایی با دقت بالا اما ابعاد بزرگ طراحی میشوند که اجرای آنها روی دستگاههای محدود (مثل موبایل، بردهای لبه یا مرورگرها) عملاً ممکن نیست. اینجاست که انتقال دانش وارد میشود.
🧠 در این تکنیک، یک مدل دانشآموز (Student) از یک مدل معلم (Teacher) که قبلاً آموزش دیده، یاد میگیرد. بهجای یادگیری مستقیم از دادههای برچسبخورده، مدل دانشآموز تلاش میکند خروجیهای نرم (soft outputs) مدل معلم را تقلید کند.
🔬 چرا خروجی نرم مهم است؟
در یک شبکه معمولی، خروجی نهایی معمولاً بهصورت one-hot است: مثلاً گربه = 1 و بقیه = 0.
اما در Softmax با دمای بالا (T > 1)، توزیع احتمال صافتری بهدست میآید (مثلاً گربه: 0.75، روباه: 0.2، سگ: 0.05)، که نشاندهنده «درک ظریف» مدل معلم از شباهت بین کلاسهاست.
🎯 این اطلاعات اضافی باعث میشود مدل دانشآموز بهتر یاد بگیرد — حتی اگر تعداد پارامترهایش خیلی کمتر باشد.
📌 کاربردهای کلیدی Knowledge Distillation:
✅ کاهش حجم مدل برای deployment در دستگاههای محدود
✅ افزایش سرعت inference بدون افت دقت محسوس
✅ تقویت یادگیری مدلهای ضعیفتر در شرایط کمداده
✅ استفاده در ترکیب با pruning و quantization
🧪 ترکیب رایج Loss:
Loss = α × CrossEntropy(student, labels) + (1 − α) × KL_Divergence(student_T, teacher_T)
که در آن student_T و teacher_T خروجیهای Softmax با دمای بالا هستند.
👁🗨 مثال واقعی:
مدلی مثل TinyBERT از طریق انتقال دانش از BERT-base آموزش داده شده و با وجود کاهش چشمگیر در تعداد پارامتر، عملکردی نزدیک به نسخه کامل دارد.
📎 اگر علاقهمند به Distillation هستی، میتونی موضوعاتی مثل:
Layer-wise Distillation
Feature-based Distillation
Self-Distillation (بدون معلم خارجی!)
رو هم بررسی کنی.
#هوش_مصنوعی #دانش_ماشین #یادگیری_عمیق #KnowledgeDistillation #مدل_سبک #AI
@rss_ai_ir
🔥20👏18🎉17😁16🥰13❤12👍7🙏1
فرض کنید در یک پروژه صنعتی، قصد دارید یک وظیفه مشخص (مثلاً تشخیص موقعیت، کنترل کیفیت یا اجرای خودکار یک فرآیند) را با یکی از راهحلهای زیر پیادهسازی کنید.
با فرض اینکه هر سه گزینه قابل اجرا باشند، شما کدام راهحل را در اولویت قرار میدهید؟
با فرض اینکه هر سه گزینه قابل اجرا باشند، شما کدام راهحل را در اولویت قرار میدهید؟
Anonymous Poll
8%
🛠⚙️راهحل مکانیکی (مثل سنسورهای فیزیکی، مکانیزمهای حرکتی، طراحی سختافزاری)
16%
🔌راهحل الکترونیکی (مثل مدار منطقی، سنسورهای الکتریکی، رله، PLC)
76%
👁راهحل مبتنی بر پردازش تصویر (مثل استفاده از دوربین، بینایی ماشین، هوش مصنوعی)
👏20🔥19😁19🎉16🥰14👍13❤10
This media is not supported in your browser
VIEW IN TELEGRAM
📌 آموزش مشارکتی (Distributed Training) در یادگیری ماشین: وقتی یک GPU کافی نیست!
@rss_ai_ir
وقتی با مدلهای سنگین مثل LLMها یا شبکههای عمیق تصویر (CNNهای بزرگ) کار میکنیم، آموزش روی یک GPU مثل رانندگی با دوچرخه در اتوبان است! 😅
اینجاست که آموزش مشارکتی یا توزیعشده (Distributed Training) وارد عمل میشود. 🚀
---
🔍 آموزش مشارکتی چیست؟
یعنی تقسیم عملیات آموزش بین چند GPU یا چند ماشین (Node) بهطور موازی، برای شتابدهی به یادگیری و مدیریت حافظه مدلهای حجیم.
---
⚙️ انواع آموزش مشارکتی:
🔹 ۱. دادهمحور (Data Parallelism)
هر GPU یک نسخه از مدل را دارد و روی بخش متفاوتی از داده آموزش میبیند. سپس گرادیانها جمع شده و مدل بهروزرسانی میشود.
🛠 ابزارها:
♻️PyTorch DDP (DistributedDataParallel)
♻️TensorFlow MirroredStrategy
♻️Horovod
---
🔹 ۲. مدلمحور (Model Parallelism)
مدل بین چند GPU تقسیم میشود (مثلاً لایههای مختلف روی GPUهای مختلف). مناسب برای مدلهایی که در یک GPU جا نمیشوند.
🛠 ابزارها:
♻️Megatron-LM
♻️DeepSpeed
♻️PipelineParallel from PyTorch
---
🔹 ۳. Pipeline Parallelism
ترکیبی از دو روش بالا: مدل بین GPUها تقسیم میشود و دادهها هم بهصورت جریانی (pipeline) عبور میکنند.
🧠 مناسب برای مدلهای بسیار بزرگ (مثلاً GPT-3) که هم حافظه زیاد میخواهند و هم پردازش سریع.
---
🧩 چالشهای آموزش مشارکتی:
❗️ هماهنگسازی بین GPUها
❗️ تأخیر ارتباطی (Communication Overhead)
❗️ ناپایداری گرادیانها
❗️ نیاز به زیرساخت قدرتمند (مثلاً شبکه پرسرعت، NVLink یا InfiniBand)
---
📈 چه زمانی Distributed Training ضروری است؟
✅ وقتی مدل در حافظه یک GPU جا نمیشود
✅ وقتی آموزش مدل بیش از چند ساعت طول میکشد
✅ وقتی بخواهید مدل را روی حجم زیادی از دادههای تصویری، متنی یا صوتی آموزش دهید
---
🧪 مثال واقعی
مدلهایی مثل GPT-4، PaLM و LLaMA روی هزاران GPU بهصورت موازی آموزش دیدهاند با استفاده از ترکیبی از Data, Model و Pipeline Parallelism.
---
📢 اگر دنبال آموزش مدلهای بزرگ هستی یا در پروژههای صنعتی/تحقیقاتی سنگین کار میکنی، Distributed Training یک ضرورت جدی است نه انتخاب!
💬 تجربهای از کار با مدلهای سنگین داری؟ از چه استراتژی استفاده کردی؟
با ما به اشتراک بگذار
@rss_ai_ir
@rss_ai_ir
وقتی با مدلهای سنگین مثل LLMها یا شبکههای عمیق تصویر (CNNهای بزرگ) کار میکنیم، آموزش روی یک GPU مثل رانندگی با دوچرخه در اتوبان است! 😅
اینجاست که آموزش مشارکتی یا توزیعشده (Distributed Training) وارد عمل میشود. 🚀
---
🔍 آموزش مشارکتی چیست؟
یعنی تقسیم عملیات آموزش بین چند GPU یا چند ماشین (Node) بهطور موازی، برای شتابدهی به یادگیری و مدیریت حافظه مدلهای حجیم.
---
⚙️ انواع آموزش مشارکتی:
🔹 ۱. دادهمحور (Data Parallelism)
هر GPU یک نسخه از مدل را دارد و روی بخش متفاوتی از داده آموزش میبیند. سپس گرادیانها جمع شده و مدل بهروزرسانی میشود.
🛠 ابزارها:
♻️PyTorch DDP (DistributedDataParallel)
♻️TensorFlow MirroredStrategy
♻️Horovod
---
🔹 ۲. مدلمحور (Model Parallelism)
مدل بین چند GPU تقسیم میشود (مثلاً لایههای مختلف روی GPUهای مختلف). مناسب برای مدلهایی که در یک GPU جا نمیشوند.
🛠 ابزارها:
♻️Megatron-LM
♻️DeepSpeed
♻️PipelineParallel from PyTorch
---
🔹 ۳. Pipeline Parallelism
ترکیبی از دو روش بالا: مدل بین GPUها تقسیم میشود و دادهها هم بهصورت جریانی (pipeline) عبور میکنند.
🧠 مناسب برای مدلهای بسیار بزرگ (مثلاً GPT-3) که هم حافظه زیاد میخواهند و هم پردازش سریع.
---
🧩 چالشهای آموزش مشارکتی:
❗️ هماهنگسازی بین GPUها
❗️ تأخیر ارتباطی (Communication Overhead)
❗️ ناپایداری گرادیانها
❗️ نیاز به زیرساخت قدرتمند (مثلاً شبکه پرسرعت، NVLink یا InfiniBand)
---
📈 چه زمانی Distributed Training ضروری است؟
✅ وقتی مدل در حافظه یک GPU جا نمیشود
✅ وقتی آموزش مدل بیش از چند ساعت طول میکشد
✅ وقتی بخواهید مدل را روی حجم زیادی از دادههای تصویری، متنی یا صوتی آموزش دهید
---
🧪 مثال واقعی
مدلهایی مثل GPT-4، PaLM و LLaMA روی هزاران GPU بهصورت موازی آموزش دیدهاند با استفاده از ترکیبی از Data, Model و Pipeline Parallelism.
---
📢 اگر دنبال آموزش مدلهای بزرگ هستی یا در پروژههای صنعتی/تحقیقاتی سنگین کار میکنی، Distributed Training یک ضرورت جدی است نه انتخاب!
💬 تجربهای از کار با مدلهای سنگین داری؟ از چه استراتژی استفاده کردی؟
با ما به اشتراک بگذار
@rss_ai_ir
🔥28🥰19🎉17❤15😁13👍11👏9
VIRSUN
فرض کنید در یک پروژه صنعتی، قصد دارید یک وظیفه مشخص (مثلاً تشخیص موقعیت، کنترل کیفیت یا اجرای خودکار یک فرآیند) را با یکی از راهحلهای زیر پیادهسازی کنید.
با فرض اینکه هر سه گزینه قابل اجرا باشند، شما کدام راهحل را در اولویت قرار میدهید؟
با فرض اینکه هر سه گزینه قابل اجرا باشند، شما کدام راهحل را در اولویت قرار میدهید؟
📌 با تشکر از همه دوستانی که در نظرسنجی شرکت کردند 🙏
👁️ همانطور که نتایج نشان میدهند، اکثریت راهحل مبتنی بر پردازش تصویر را در اولویت قرار دادهاند – که در بسیاری از کاربردهای صنعتی (کنترل کیفیت، تشخیص وضعیت، هدایت خودکار و…) انتخابی منطقی و مدرن است.
اما ⚠️ اجازه دهید چند نکته از چالشهای مهم پردازش تصویر در صنعت واقعی را مطرح کنیم:
🔹 ۱. شرایط ناپایدار نوری:
برخلاف آزمایشگاه، در محیطهای صنعتی نور محیط دائماً تغییر میکند (روز/شب، گرد و غبار، بخار، انعکاسها). این موضوع دقت مدلها را به شدت کاهش میدهد.
🔹 ۲. آلودگی لنز یا دید محدود:
گردوغبار، رطوبت یا ارتعاش میتواند لنز دوربین را کثیف یا تنظیم آن را بهم بزند و باعث تشخیص اشتباه شود.
🔹 ۳. نیاز به کالیبراسیون مداوم:
دوربینها و سیستم پردازش تصویر نیاز به تنظیمات اولیه و دورهای دارند که در پروژههای بزرگ دردسرساز میشود.
🔹 ۴. حساسیت بالا به تغییرات ظاهری:
مدلهای بینایی ماشین ممکن است با کوچکترین تغییرات ظاهری قطعه (مثلاً کمی روغن یا سایه) دچار خطا شوند.
🔹 ۵. هزینه سختافزار و پردازش:
دوربینهای صنعتی با کیفیت بالا + سیستمهای محاسباتی (GPU/Edge Device) هزینهبر هستند و پیادهسازی آنها نیاز به تخصص بالایی دارد.
✅ البته همه این چالشها قابل مدیریت هستند، ولی باید با درک واقعیتهای محیط صنعتی و طراحی دقیق وارد این مسیر شد.
👨💻 اگر نیاز دارید، میتونیم راهکارهایی برای مقاومسازی سیستمهای بینایی ماشین در برابر این مشکلات ارائه بدیم.
📬 شما با چه مشکلاتی در پروژههای مبتنی بر بینایی ماشین مواجه شدید؟
منتظریم تجربیاتتون رو بشنویم 🙏
@rss_ai_ir
👁️ همانطور که نتایج نشان میدهند، اکثریت راهحل مبتنی بر پردازش تصویر را در اولویت قرار دادهاند – که در بسیاری از کاربردهای صنعتی (کنترل کیفیت، تشخیص وضعیت، هدایت خودکار و…) انتخابی منطقی و مدرن است.
اما ⚠️ اجازه دهید چند نکته از چالشهای مهم پردازش تصویر در صنعت واقعی را مطرح کنیم:
🔹 ۱. شرایط ناپایدار نوری:
برخلاف آزمایشگاه، در محیطهای صنعتی نور محیط دائماً تغییر میکند (روز/شب، گرد و غبار، بخار، انعکاسها). این موضوع دقت مدلها را به شدت کاهش میدهد.
🔹 ۲. آلودگی لنز یا دید محدود:
گردوغبار، رطوبت یا ارتعاش میتواند لنز دوربین را کثیف یا تنظیم آن را بهم بزند و باعث تشخیص اشتباه شود.
🔹 ۳. نیاز به کالیبراسیون مداوم:
دوربینها و سیستم پردازش تصویر نیاز به تنظیمات اولیه و دورهای دارند که در پروژههای بزرگ دردسرساز میشود.
🔹 ۴. حساسیت بالا به تغییرات ظاهری:
مدلهای بینایی ماشین ممکن است با کوچکترین تغییرات ظاهری قطعه (مثلاً کمی روغن یا سایه) دچار خطا شوند.
🔹 ۵. هزینه سختافزار و پردازش:
دوربینهای صنعتی با کیفیت بالا + سیستمهای محاسباتی (GPU/Edge Device) هزینهبر هستند و پیادهسازی آنها نیاز به تخصص بالایی دارد.
✅ البته همه این چالشها قابل مدیریت هستند، ولی باید با درک واقعیتهای محیط صنعتی و طراحی دقیق وارد این مسیر شد.
👨💻 اگر نیاز دارید، میتونیم راهکارهایی برای مقاومسازی سیستمهای بینایی ماشین در برابر این مشکلات ارائه بدیم.
📬 شما با چه مشکلاتی در پروژههای مبتنی بر بینایی ماشین مواجه شدید؟
منتظریم تجربیاتتون رو بشنویم 🙏
@rss_ai_ir
👍22🔥17👏16🥰15🎉13❤12😁11
📣 هوش مصنوعی جایگزین رواندرمانی نیست!
کارلی دابر، روانشناس استرالیایی هشدار میدهد: تکیه بر چتباتهایی مثل ChatGPT بهعنوان جایگزین درمان روانشناختی میتواند آسیبزا باشد.
🧠 یکی از مراجعان او در مواجهه با مشکلات عاطفی بهجای صحبت با درمانگر، از چتبات کمک گرفته و تنها بهدنبال جملات «درست» بوده است؛ نتیجه؟ وخامت رابطه بهجای حل آن.
❌ چتباتها احساسات را تحلیل نمیکنند، سؤال عمیق نمیپرسند، و میتوانند برای افراد مضطرب اثر منفی داشته باشند.
🛡 همچنین، اطلاعات کاربران در این سیستمها کاملاً محفوظ نیست و هیچ تضمینی برای دقت پاسخها وجود ندارد.
⚠️ استفاده از هوش مصنوعی در حوزه سلامت روان باید با احتیاط و آگاهی انجام شود؛ جایگزینی کامل با درمان انسانی ممکن است خطرناک باشد.
#هوش_مصنوعی #روانشناسی #اخبار_تکنولوژی #سلامت_ذهن
@rss_ai_ir
کارلی دابر، روانشناس استرالیایی هشدار میدهد: تکیه بر چتباتهایی مثل ChatGPT بهعنوان جایگزین درمان روانشناختی میتواند آسیبزا باشد.
🧠 یکی از مراجعان او در مواجهه با مشکلات عاطفی بهجای صحبت با درمانگر، از چتبات کمک گرفته و تنها بهدنبال جملات «درست» بوده است؛ نتیجه؟ وخامت رابطه بهجای حل آن.
❌ چتباتها احساسات را تحلیل نمیکنند، سؤال عمیق نمیپرسند، و میتوانند برای افراد مضطرب اثر منفی داشته باشند.
🛡 همچنین، اطلاعات کاربران در این سیستمها کاملاً محفوظ نیست و هیچ تضمینی برای دقت پاسخها وجود ندارد.
⚠️ استفاده از هوش مصنوعی در حوزه سلامت روان باید با احتیاط و آگاهی انجام شود؛ جایگزینی کامل با درمان انسانی ممکن است خطرناک باشد.
#هوش_مصنوعی #روانشناسی #اخبار_تکنولوژی #سلامت_ذهن
@rss_ai_ir
🥰19🎉19🔥17😁17❤15👏13👍6🙏2👌1
🎓 دوره تخصصی «مهندسی پرامپت با Claude»
👨🏻💻 اگر میخوای بدونی چطور بهترین پاسخها رو از مدل هوش مصنوعی Claude بگیری، این دوره دقیقاً همون چیزیه که لازم داری!
در این دوره: ✅ مهارت مهندسی پرامپت رو گامبهگام یاد میگیری
✅ با ۹ فصل آموزشی پر از تمرین و مثال واقعی روبهرو میشی
✅ میتونی پرامپتهای خودت رو تست کنی، اصلاحشون کنی و حرفهایتر پیش بری
📘 در پایان دوره هم یک ضمیمهی کامل از تکنیکهای پیشرفته داریم
📎 جواب همه تمرینها هم کنارش هست که مطمئن بشی مسیرت درسته
---
📂 منابع همراه دوره:
┌ 🖥 Prompt Engineering Int Tutorial
└ 🐱 GitHub Repositories برای تمرینهای بیشتر
---
🌐 #PromptEngineering #Claude #یادگیری_ماشین #AI
💡 تبدیل شوید به یک مهندس حرفهای هوش مصنوعی
📲 @rss_ai_ir
👨🏻💻 اگر میخوای بدونی چطور بهترین پاسخها رو از مدل هوش مصنوعی Claude بگیری، این دوره دقیقاً همون چیزیه که لازم داری!
در این دوره: ✅ مهارت مهندسی پرامپت رو گامبهگام یاد میگیری
✅ با ۹ فصل آموزشی پر از تمرین و مثال واقعی روبهرو میشی
✅ میتونی پرامپتهای خودت رو تست کنی، اصلاحشون کنی و حرفهایتر پیش بری
📘 در پایان دوره هم یک ضمیمهی کامل از تکنیکهای پیشرفته داریم
📎 جواب همه تمرینها هم کنارش هست که مطمئن بشی مسیرت درسته
---
📂 منابع همراه دوره:
┌ 🖥 Prompt Engineering Int Tutorial
└ 🐱 GitHub Repositories برای تمرینهای بیشتر
---
🌐 #PromptEngineering #Claude #یادگیری_ماشین #AI
💡 تبدیل شوید به یک مهندس حرفهای هوش مصنوعی
📲 @rss_ai_ir
🔥21😁19❤18👏14🎉13👍10🥰10
🤖 مغز متفکر پشت ChatGPT و Gemini چیست؟ با RLHF آشنا شوید! 🧠
تا حالا از خودتان پرسیدهاید چطور مدلهای هوش مصنوعی مثل ChatGPT یا Gemini اینقدر خوب، مفید و "انسانگونه" صحبت میکنند؟ جواب در یک تکنیک انقلابی به نام RLHF نهفته است.
عبارت RLHF مخفف چیست؟
✨ R**einforcement **L**earning from **H**uman **F**eedback
✨یادگیری تقویتی از بازخورد انسانی
به زبان ساده، RLHF فرآیندی است که در آن انسانها به هوش مصنوعی "درس اخلاق و رفتار" میدهند!
---
🤔 این فرآیند چطور کار میکند؟
این جادو در سه مرحله اتفاق میافتد:
1️⃣ آموزش اولیه (کسب دانش خام):
یک مدل زبانی بزرگ (LLM) با حجم عظیمی از دادههای اینترنتی آموزش میبیند تا اصول زبان و دانش عمومی را یاد بگیرد. در این مرحله، مدل مثل یک دانشمند همهچیزدان اما کمی بیملاحظه است.
2️⃣ ساخت "وجدان" مصنوعی (مدل پاداش):
اینجاست که انسانها وارد میشوند!
* مدل برای یک سوال، چندین جواب مختلف تولید میکند.
* اپراتورهای انسانی این جوابها را از بهترین به بدترین رتبهبندی میکنند (مثلاً: جواب A عالیه، جواب B خوبه، جواب C بده).
* با هزاران نمونه از این رتبهبندیها، یک مدل جدید به نام "مدل پاداش" (Reward Model) ساخته میشود. این مدل یاد میگیرد که مثل یک انسان، پاسخهای خوب را از بد تشخیص دهد. در واقع، این مدل نقش "وجدان" یا "معیار سنجش" را برای هوش مصنوعی ایفا میکند.
3️⃣ تنظیم دقیق با یادگیری تقویتی (مرحله ادبآموزی):
* مدل اصلی حالا سعی میکند پاسخهایی تولید کند که از "مدل پاداش" امتیاز بالایی بگیرند.
* اگر پاسخی تولید کند که مفید، صادقانه و بیخطر باشد، پاداش میگیرد و آن مسیر را تقویت میکند.
* اگر پاسخ بدی بدهد، تنبیه (پاداش منفی) میشود و یاد میگیرد که دیگر آن اشتباه را تکرار نکند.
این چرخه بارها و بارها تکرار میشود تا مدل نهایی، یک دستیار هوشمند، همراستا با ارزشهای انسانی و ایمن باشد.
---
💡 چرا RLHF اینقدر مهم است؟
این تکنیک مدلهای هوش مصنوعی را از یک ماشین پاسخگوی ساده به یک همکار و دستیار قابل اعتماد تبدیل میکند که مفاهیم پیچیدهای مثل ادب، مفید بودن و ایمنی را درک میکند.
📚 برای مطالعه بیشتر و منابع فنی:
اگر به جزئیات فنی علاقهمندید، این منابع فوقالعاده هستند:
🔗 مقاله وبلاگ Hugging Face (توضیح عالی):
این مقاله یکی از بهترین منابع برای درک عمیق و تصویری RLHF است.
[https://huggingface.co/blog/rlhf]
👨💻 ریپازیتوری گیتهاب (کتابخانه TRL):
کتابخانه
[https://github.com/huggingface/trl]
@rss_ai_ir
#هوش_مصنوعی #یادگیری_ماشین #یادگیری_تقویتی #RLHF #ChatGPT #Gemini #تکنولوژی #AI #MachineLearning
تا حالا از خودتان پرسیدهاید چطور مدلهای هوش مصنوعی مثل ChatGPT یا Gemini اینقدر خوب، مفید و "انسانگونه" صحبت میکنند؟ جواب در یک تکنیک انقلابی به نام RLHF نهفته است.
عبارت RLHF مخفف چیست؟
✨ R**einforcement **L**earning from **H**uman **F**eedback
✨یادگیری تقویتی از بازخورد انسانی
به زبان ساده، RLHF فرآیندی است که در آن انسانها به هوش مصنوعی "درس اخلاق و رفتار" میدهند!
---
🤔 این فرآیند چطور کار میکند؟
این جادو در سه مرحله اتفاق میافتد:
1️⃣ آموزش اولیه (کسب دانش خام):
یک مدل زبانی بزرگ (LLM) با حجم عظیمی از دادههای اینترنتی آموزش میبیند تا اصول زبان و دانش عمومی را یاد بگیرد. در این مرحله، مدل مثل یک دانشمند همهچیزدان اما کمی بیملاحظه است.
2️⃣ ساخت "وجدان" مصنوعی (مدل پاداش):
اینجاست که انسانها وارد میشوند!
* مدل برای یک سوال، چندین جواب مختلف تولید میکند.
* اپراتورهای انسانی این جوابها را از بهترین به بدترین رتبهبندی میکنند (مثلاً: جواب A عالیه، جواب B خوبه، جواب C بده).
* با هزاران نمونه از این رتبهبندیها، یک مدل جدید به نام "مدل پاداش" (Reward Model) ساخته میشود. این مدل یاد میگیرد که مثل یک انسان، پاسخهای خوب را از بد تشخیص دهد. در واقع، این مدل نقش "وجدان" یا "معیار سنجش" را برای هوش مصنوعی ایفا میکند.
3️⃣ تنظیم دقیق با یادگیری تقویتی (مرحله ادبآموزی):
* مدل اصلی حالا سعی میکند پاسخهایی تولید کند که از "مدل پاداش" امتیاز بالایی بگیرند.
* اگر پاسخی تولید کند که مفید، صادقانه و بیخطر باشد، پاداش میگیرد و آن مسیر را تقویت میکند.
* اگر پاسخ بدی بدهد، تنبیه (پاداش منفی) میشود و یاد میگیرد که دیگر آن اشتباه را تکرار نکند.
این چرخه بارها و بارها تکرار میشود تا مدل نهایی، یک دستیار هوشمند، همراستا با ارزشهای انسانی و ایمن باشد.
---
💡 چرا RLHF اینقدر مهم است؟
این تکنیک مدلهای هوش مصنوعی را از یک ماشین پاسخگوی ساده به یک همکار و دستیار قابل اعتماد تبدیل میکند که مفاهیم پیچیدهای مثل ادب، مفید بودن و ایمنی را درک میکند.
📚 برای مطالعه بیشتر و منابع فنی:
اگر به جزئیات فنی علاقهمندید، این منابع فوقالعاده هستند:
🔗 مقاله وبلاگ Hugging Face (توضیح عالی):
این مقاله یکی از بهترین منابع برای درک عمیق و تصویری RLHF است.
[https://huggingface.co/blog/rlhf]
👨💻 ریپازیتوری گیتهاب (کتابخانه TRL):
کتابخانه
trl
از Hugging Face به شما اجازه میدهد تا مدلهای خود را با استفاده از RLHF آموزش دهید. نمونه کدها و مستندات کاملی دارد.[https://github.com/huggingface/trl]
@rss_ai_ir
#هوش_مصنوعی #یادگیری_ماشین #یادگیری_تقویتی #RLHF #ChatGPT #Gemini #تکنولوژی #AI #MachineLearning
❤20😁19👍18🥰16🎉14🔥13👏13🙏1
🧠 مدل HRM مدل کوچکی که معماهای بزرگ را حل میکند!
معماری جدید HRM موفق شده بدون pretraining و بدون chain-of-thought (CoT)، چالشهایی مثل ARC-AGI و Sudoku-Extreme را تنها با ۲۷ میلیون پارامتر و حدود ۱۰۰۰ نمونه آموزشی حل کند!
---
🤖 مدل HRM چیست؟
یک شبکه عصبی دوماژوله:
🟩 ماژول H (کند): وظیفه برنامهریزی و یافتن استراتژی
🟦 ماژول L (سریع): اجرای مرحله به مرحله استراتژی
این دو ماژول بهصورت گفتوگویی تکرارشونده همکاری میکنند تا زمانی که به یک پاسخ پایدار برسند — همه این در یک forward pass انجام میشود، بدون نیاز به CoT.
---
🔍 چگونه کار میکند؟
1. ماژول H یک استراتژی پیشنهاد میدهد
2. ماژول L آن را اجرا میکند
3. اگر نتیجه مورد تایید نبود، چرخه تکرار میشود تا دو ماژول به توافق برسند (✅ همگرایی نقطهای)
📌 جالب اینکه مدل از طریق گرادیانهای ضمنی (implicit gradients) آموزش میبیند — بدون بازگشت تمام مراحل!
🧠 یک Q-module داخلی هم تشخیص میدهد که چه زمانی مدل "به اندازه کافی فکر کرده" و وقت پاسخ دادن است.
---
### 📊 نتایج جالب:
✅ ARC-AGI: دقت ۴۰.۳٪ — بالاتر از بسیاری مدلهای CoT
* ✅ Sudoku-Extreme و Maze-Hard: دقت ۱۰۰٪!
🕒 مصرف منابع: فقط ۲ تا ۲۰۰ ساعت GPU — فوقالعاده کمهزینه
---
⚖️ چرا این مدل مهم است؟
مدل HRM نشان میدهد که «استدلال» را میتوان نه از طریق تولید متن، بلکه درون خود مدل انجام داد — روشی سریعتر، کوچکتر، و بالقوه قابلتفسیرتر.
اما فعلاً فقط روی وظایف مصنوعی جواب داده؛ آیا در مسائل واقعی هم جواب میدهد؟ زمان مشخص خواهد کرد.
---
🧩 جمعبندی:
مدل HRM گامیست بهسوی مدلهایی که فقط متن تولید نمیکنند، بلکه واقعاً برنامهریزی میکنند.
📄 مطالعه مقاله: [arxiv.org/pdf/2506.21734](https://arxiv.org/pdf/2506.21734)
💬 شما چی فکر میکنید؟
آیا دوران Chain-of-Thought تمام شده؟
یا هنوز زندهست؟
نظرت رو در کامنت بنویس و این پست رو با دوستانت به اشتراک بگذار!
@rss_ai_ir 🚀
معماری جدید HRM موفق شده بدون pretraining و بدون chain-of-thought (CoT)، چالشهایی مثل ARC-AGI و Sudoku-Extreme را تنها با ۲۷ میلیون پارامتر و حدود ۱۰۰۰ نمونه آموزشی حل کند!
---
🤖 مدل HRM چیست؟
یک شبکه عصبی دوماژوله:
🟩 ماژول H (کند): وظیفه برنامهریزی و یافتن استراتژی
🟦 ماژول L (سریع): اجرای مرحله به مرحله استراتژی
این دو ماژول بهصورت گفتوگویی تکرارشونده همکاری میکنند تا زمانی که به یک پاسخ پایدار برسند — همه این در یک forward pass انجام میشود، بدون نیاز به CoT.
---
🔍 چگونه کار میکند؟
1. ماژول H یک استراتژی پیشنهاد میدهد
2. ماژول L آن را اجرا میکند
3. اگر نتیجه مورد تایید نبود، چرخه تکرار میشود تا دو ماژول به توافق برسند (✅ همگرایی نقطهای)
📌 جالب اینکه مدل از طریق گرادیانهای ضمنی (implicit gradients) آموزش میبیند — بدون بازگشت تمام مراحل!
🧠 یک Q-module داخلی هم تشخیص میدهد که چه زمانی مدل "به اندازه کافی فکر کرده" و وقت پاسخ دادن است.
---
### 📊 نتایج جالب:
✅ ARC-AGI: دقت ۴۰.۳٪ — بالاتر از بسیاری مدلهای CoT
* ✅ Sudoku-Extreme و Maze-Hard: دقت ۱۰۰٪!
🕒 مصرف منابع: فقط ۲ تا ۲۰۰ ساعت GPU — فوقالعاده کمهزینه
---
⚖️ چرا این مدل مهم است؟
مدل HRM نشان میدهد که «استدلال» را میتوان نه از طریق تولید متن، بلکه درون خود مدل انجام داد — روشی سریعتر، کوچکتر، و بالقوه قابلتفسیرتر.
اما فعلاً فقط روی وظایف مصنوعی جواب داده؛ آیا در مسائل واقعی هم جواب میدهد؟ زمان مشخص خواهد کرد.
---
🧩 جمعبندی:
مدل HRM گامیست بهسوی مدلهایی که فقط متن تولید نمیکنند، بلکه واقعاً برنامهریزی میکنند.
📄 مطالعه مقاله: [arxiv.org/pdf/2506.21734](https://arxiv.org/pdf/2506.21734)
💬 شما چی فکر میکنید؟
آیا دوران Chain-of-Thought تمام شده؟
یا هنوز زندهست؟
نظرت رو در کامنت بنویس و این پست رو با دوستانت به اشتراک بگذار!
@rss_ai_ir 🚀
😁22🎉19👍15👏15🔥14❤13🥰10🙏1
Media is too big
VIEW IN TELEGRAM
🧠 وایب کدینگ (Vibe Coding): سبک نوین برنامهنویسی با هوش مصنوعی
در شیوهای تازه به نام Vibe Coding، دیگر نیازی به نوشتن خطبهخط کد نیست. کافیست خواستهتان را با زبان ساده توضیح دهید تا مدل هوش مصنوعی کد مورد نیاز را تولید کند. این رویکرد بر پایه تعامل، اصلاح و بازخورد است و به کاربر اجازه میدهد تنها با ایدهپردازی، نرمافزار بسازد.
---
🔹 این سبک چگونه عمل میکند؟
در ابتدا خواسته خود را به زبان طبیعی بیان میکنید. مدل، کد اولیه را تولید میکند. شما آن را تست میکنید، بازخورد میدهید، و مدل بهصورت تکراری نسخه بهتری ارائه میدهد — تا رسیدن به خروجی نهایی.
---
✅ مزایای اصلی
* افزایش چشمگیر سرعت تولید
* قابل استفاده برای افراد فاقد دانش کدنویسی
* تمرکز بیشتر روی خلاقیت بهجای پیچیدگیهای فنی
* مناسب برای ساخت سریع نمونههای اولیه (prototype)
---
⚠️ محدودیتها و چالشها
اگرچه استفاده از این روش ساده است، اما کیفیت و امنیت کد ممکن است پایین باشد. در بسیاری از موارد، آسیبپذیریهای امنیتی و کدهای غیرقابل نگهداری مشاهده شدهاند. این روش بیشتر برای پروژههای کوچک و موقتی توصیه میشود، نه سیستمهای پیچیده و بلندمدت.
---
📊 کاربردهای واقعی
شرکتهایی مانند Vanguard با استفاده از این روش، تا ۴۰٪ در زمان توسعه صرفهجویی کردهاند. همچنین در برخی استارتاپهای Y Combinator بیش از ۹۰٪ کدها با Vibe Coding تولید شدهاند.
---
💬 بهنظر شما آینده توسعه نرمافزار به کدام سو میرود؟
آیا دوران کدنویسی دستی به پایان نزدیک شده یا هنوز جایگاه خود را حفظ خواهد کرد؟
نظرتان را با ما در میان بگذارید و پست را با دیگر علاقهمندان به اشتراک بگذارید.
📎 @rss_ai_ir | مرجع تخصصی هوش مصنوعی و فناوریهای نوین
در شیوهای تازه به نام Vibe Coding، دیگر نیازی به نوشتن خطبهخط کد نیست. کافیست خواستهتان را با زبان ساده توضیح دهید تا مدل هوش مصنوعی کد مورد نیاز را تولید کند. این رویکرد بر پایه تعامل، اصلاح و بازخورد است و به کاربر اجازه میدهد تنها با ایدهپردازی، نرمافزار بسازد.
---
🔹 این سبک چگونه عمل میکند؟
در ابتدا خواسته خود را به زبان طبیعی بیان میکنید. مدل، کد اولیه را تولید میکند. شما آن را تست میکنید، بازخورد میدهید، و مدل بهصورت تکراری نسخه بهتری ارائه میدهد — تا رسیدن به خروجی نهایی.
---
✅ مزایای اصلی
* افزایش چشمگیر سرعت تولید
* قابل استفاده برای افراد فاقد دانش کدنویسی
* تمرکز بیشتر روی خلاقیت بهجای پیچیدگیهای فنی
* مناسب برای ساخت سریع نمونههای اولیه (prototype)
---
⚠️ محدودیتها و چالشها
اگرچه استفاده از این روش ساده است، اما کیفیت و امنیت کد ممکن است پایین باشد. در بسیاری از موارد، آسیبپذیریهای امنیتی و کدهای غیرقابل نگهداری مشاهده شدهاند. این روش بیشتر برای پروژههای کوچک و موقتی توصیه میشود، نه سیستمهای پیچیده و بلندمدت.
---
📊 کاربردهای واقعی
شرکتهایی مانند Vanguard با استفاده از این روش، تا ۴۰٪ در زمان توسعه صرفهجویی کردهاند. همچنین در برخی استارتاپهای Y Combinator بیش از ۹۰٪ کدها با Vibe Coding تولید شدهاند.
---
💬 بهنظر شما آینده توسعه نرمافزار به کدام سو میرود؟
آیا دوران کدنویسی دستی به پایان نزدیک شده یا هنوز جایگاه خود را حفظ خواهد کرد؟
نظرتان را با ما در میان بگذارید و پست را با دیگر علاقهمندان به اشتراک بگذارید.
📎 @rss_ai_ir | مرجع تخصصی هوش مصنوعی و فناوریهای نوین
👍24🔥21🎉18❤13🥰10👏10😁10🙏1
VIRSUN
🧠 وایب کدینگ (Vibe Coding): سبک نوین برنامهنویسی با هوش مصنوعی در شیوهای تازه به نام Vibe Coding، دیگر نیازی به نوشتن خطبهخط کد نیست. کافیست خواستهتان را با زبان ساده توضیح دهید تا مدل هوش مصنوعی کد مورد نیاز را تولید کند. این رویکرد بر پایه تعامل،…
🔁 پاسخ به یک سؤال مهم:
🟨 تفاوت بین Vibe Coding و استفاده ساده از ChatGPT برای کدنویسی چیست؟
در نگاه اول شاید فکر کنید هر دو یکی هستند: توضیح میدهیم، مدل کد میزند.
اما واقعیت این است که Vibe Coding یک سبک جدید توسعه نرمافزار است، نه صرفاً تولید کد.
---
🧩 در Vibe Coding:
* مدل و انسان بهصورت تعاملی و مداوم با هم پروژه را جلو میبرند.
* در یک چرخه رفت و برگشتی، مدل پیشنهاد میدهد، شما اصلاح میکنید، مدل بهبود میدهد — تا رسیدن به خروجی نهایی.
* این فرآیند در محیطهایی اجرا میشود که کد فوراً تست میشود (مثل Replit، Cursor و ...)، نه صرفاً در محیط چت.
در حالیکه در ChatGPT:
* مدل صرفاً به یک دستور پاسخ میدهد.
* تست و اصلاح کد برعهده خود کاربر است.
* این بیشتر یک دستیار تایپی برای کدنویسی است، نه یک همکار مستقل.
---
🎯 خلاصه:
در ChatGPT مدل کمک میکند،
اما در Vibe Coding مدل واقعاً شریک توسعه است.
📌 اگر دوست دارید ابزارهای عملی Vibe Coding را هم معرفی کنیم، در کامنتها بنویسید.
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و فناوریهای نوین
🟨 تفاوت بین Vibe Coding و استفاده ساده از ChatGPT برای کدنویسی چیست؟
در نگاه اول شاید فکر کنید هر دو یکی هستند: توضیح میدهیم، مدل کد میزند.
اما واقعیت این است که Vibe Coding یک سبک جدید توسعه نرمافزار است، نه صرفاً تولید کد.
---
🧩 در Vibe Coding:
* مدل و انسان بهصورت تعاملی و مداوم با هم پروژه را جلو میبرند.
* در یک چرخه رفت و برگشتی، مدل پیشنهاد میدهد، شما اصلاح میکنید، مدل بهبود میدهد — تا رسیدن به خروجی نهایی.
* این فرآیند در محیطهایی اجرا میشود که کد فوراً تست میشود (مثل Replit، Cursor و ...)، نه صرفاً در محیط چت.
در حالیکه در ChatGPT:
* مدل صرفاً به یک دستور پاسخ میدهد.
* تست و اصلاح کد برعهده خود کاربر است.
* این بیشتر یک دستیار تایپی برای کدنویسی است، نه یک همکار مستقل.
---
🎯 خلاصه:
در ChatGPT مدل کمک میکند،
اما در Vibe Coding مدل واقعاً شریک توسعه است.
📌 اگر دوست دارید ابزارهای عملی Vibe Coding را هم معرفی کنیم، در کامنتها بنویسید.
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و فناوریهای نوین
👏17🔥16🎉16❤15🥰15😁15👍10👎1🙏1
🎮 آغاز عصر جدید سنجش هوش مصنوعی با بازی!
پلتفرم جدیدی با نام Game Arena توسط Google و Kaggle راهاندازی شده که در آن، مدلهای هوش مصنوعی در بازیهای استراتژیک با یکدیگر رقابت میکنند — جایی که دیگر حفظ پاسخها کافی نیست، بلکه تفکر واقعی به چالش کشیده میشود.
---
🤖 چرا چنین چیزی لازم بود؟
بنچمارکهای سنتی دیگر کاربرد ندارند؛ مدلهای زبانی فقط پاسخها را حفظ میکنند. اما بازیها، هوش، حافظه، سازگاری و تصمیمگیری استراتژیک را میسنجند — نه اطلاعات صرف.
---
♟️ اولین رقابت: شطرنج
از امروز، ۸ مدل پیشرفته مانند GPT-4، Claude Opus و Gemini بدون کمک ابزار خارجی به رقابت میپردازند.
ردهبندی مدلها بهصورت کاملاً شفاف و عمومی منتشر خواهد شد.
---
🧠 تفاوت اصلی این رقابت با تستهای قبلی: ✅ سیستم Round-Robin (هر مدل با همه بازی میکند)
✅ تغییر وضعیت لحظهبهلحظه
✅ جریمه فوری برای اشتباهها
✅ برنده، مدل «فکرکننده» است، نه صرفاً «داناد»
---
📊 همچنین Kaggle یک سیستم امتیازدهی رسمی برای مدلها ایجاد کرده که با اضافه شدن بازیهای بعدی مثل Go، پوکر و بازیهای ویدیویی، بهروز خواهد شد.
🎥 پخش زنده رقابتها با حضور بزرگان شطرنج: Hikaru Nakamura، Levy و Magnus Carlsen در تاریخ ۱۵ تا ۱۷ مرداد (۵ تا ۷ آگوست) در یوتیوب
📎 اطلاعات کامل در وبلاگ گوگل
---
💬 آیا این روش میتواند معیار واقعی سنجش AGI باشد؟
نظرتان را بنویسید و پست را با علاقهمندان به اشتراک بگذارید!
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و یادگیری ماشین
پلتفرم جدیدی با نام Game Arena توسط Google و Kaggle راهاندازی شده که در آن، مدلهای هوش مصنوعی در بازیهای استراتژیک با یکدیگر رقابت میکنند — جایی که دیگر حفظ پاسخها کافی نیست، بلکه تفکر واقعی به چالش کشیده میشود.
---
🤖 چرا چنین چیزی لازم بود؟
بنچمارکهای سنتی دیگر کاربرد ندارند؛ مدلهای زبانی فقط پاسخها را حفظ میکنند. اما بازیها، هوش، حافظه، سازگاری و تصمیمگیری استراتژیک را میسنجند — نه اطلاعات صرف.
---
♟️ اولین رقابت: شطرنج
از امروز، ۸ مدل پیشرفته مانند GPT-4، Claude Opus و Gemini بدون کمک ابزار خارجی به رقابت میپردازند.
ردهبندی مدلها بهصورت کاملاً شفاف و عمومی منتشر خواهد شد.
---
🧠 تفاوت اصلی این رقابت با تستهای قبلی: ✅ سیستم Round-Robin (هر مدل با همه بازی میکند)
✅ تغییر وضعیت لحظهبهلحظه
✅ جریمه فوری برای اشتباهها
✅ برنده، مدل «فکرکننده» است، نه صرفاً «داناد»
---
📊 همچنین Kaggle یک سیستم امتیازدهی رسمی برای مدلها ایجاد کرده که با اضافه شدن بازیهای بعدی مثل Go، پوکر و بازیهای ویدیویی، بهروز خواهد شد.
🎥 پخش زنده رقابتها با حضور بزرگان شطرنج: Hikaru Nakamura، Levy و Magnus Carlsen در تاریخ ۱۵ تا ۱۷ مرداد (۵ تا ۷ آگوست) در یوتیوب
📎 اطلاعات کامل در وبلاگ گوگل
---
💬 آیا این روش میتواند معیار واقعی سنجش AGI باشد؟
نظرتان را بنویسید و پست را با علاقهمندان به اشتراک بگذارید!
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و یادگیری ماشین
🥰22🔥19👏18❤17👍15😁12🎉11
🎬 جعبهابزار کامل تولید ویدئو با هوش مصنوعی — در یک لینک
پلتفرمی پیدا شده که مثل معدن طلا برای تولیدکنندگان محتواست!
تمام ابزارهای قدرتمند تولید و ویرایش ویدئو با هوش مصنوعی را در یک محیط تحت مرورگر گرد هم آورده.
---
📌 ویژگیهای برجسته این پلتفرم: 🔹 تولید ویدئو از متن (Text-to-Video)
🔹 حذف نویز صدا و زیرنویس خودکار
🔹 ساخت چهره دیجیتال، کپی چهره و حرکات
🔹 پشتیبانی از مدلهای معروف مثل Google Veo 3, Minimax, Kling و دیگر مدلهای ترند
---
🧠 اگر تولید محتوا میکنی و به سرعت، کیفیت بالا و دردسر کمتر در مرحله تدوین نیاز داری، این ابزار دقیقاً برای تو ساخته شده.
📌 قابل استفاده در مرورگر و بدون نیاز به نصب — فقط بنویس، تصویر یا ویدئو آپلود کن و خروجی حرفهای بگیر.
🟢 بهزودی رقابت اصلی بین پلتفرمها در این حوزه آغاز میشود، اما فعلاً این ابزار، بهترین ترکیب از سادگی، قدرت و خلاقیت را ارائه داده است.
📎 منبع: Crypto Insider
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و ابزارهای تولید محتوای هوشمند
پلتفرمی پیدا شده که مثل معدن طلا برای تولیدکنندگان محتواست!
تمام ابزارهای قدرتمند تولید و ویرایش ویدئو با هوش مصنوعی را در یک محیط تحت مرورگر گرد هم آورده.
---
📌 ویژگیهای برجسته این پلتفرم: 🔹 تولید ویدئو از متن (Text-to-Video)
🔹 حذف نویز صدا و زیرنویس خودکار
🔹 ساخت چهره دیجیتال، کپی چهره و حرکات
🔹 پشتیبانی از مدلهای معروف مثل Google Veo 3, Minimax, Kling و دیگر مدلهای ترند
---
🧠 اگر تولید محتوا میکنی و به سرعت، کیفیت بالا و دردسر کمتر در مرحله تدوین نیاز داری، این ابزار دقیقاً برای تو ساخته شده.
📌 قابل استفاده در مرورگر و بدون نیاز به نصب — فقط بنویس، تصویر یا ویدئو آپلود کن و خروجی حرفهای بگیر.
🟢 بهزودی رقابت اصلی بین پلتفرمها در این حوزه آغاز میشود، اما فعلاً این ابزار، بهترین ترکیب از سادگی، قدرت و خلاقیت را ارائه داده است.
📎 منبع: Crypto Insider
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و ابزارهای تولید محتوای هوشمند
🔥25❤20🎉20👏15👍13🥰12😁7
This media is not supported in your browser
VIEW IN TELEGRAM
✂️ معرفی تخصصی تکنیک Pruning در یادگیری عمیق
وقتی مدلهای یادگیری عمیق بیشازحد بزرگ و سنگین میشوند، میتوان با یک روش هوشمندانه به نام Pruning یا «هرسکردن»، حجم آنها را کاهش داد — بدون آنکه دقت مدل بهطور جدی افت کند.
🔍 در این روش چه اتفاقی میافتد؟
بخشهایی از شبکه که تأثیر کمی در خروجی دارند (مثل وزنهای بسیار کوچک یا نرونهای کمفعالیت) شناسایی و حذف میشوند.
در نتیجه، مدل سبکتر، سریعتر و کممصرفتر میشود.
📌 انواع رایج Pruning:
▪️ هرس وزنها (Weight Pruning):
وزنهایی که به صفر نزدیکاند حذف میشوند → خروجی: شبکهای پراکنده (Sparse)
▪️ هرس نرون یا فیلتر (Neuron/Filter Pruning):
در مدلهای CNN، کل کانالها یا فیلترهای غیرمفید حذف میشوند → کاهش چشمگیر در محاسبات
⚙️ مراحل اجرای Pruning:
۱. آموزش کامل مدل اولیه
۲. شناسایی بخشهای کماهمیت (با معیارهایی مثل L1-norm)
۳. حذف آن بخشها
۴. بازآموزی مدل برای جبران دقت
✅ مزایای کلیدی:
کاهش مصرف حافظه و انرژی
اجرای سریعتر، مناسب برای دستگاههای لبهای
حفظ دقت در بسیاری از موارد
⚠️ اما مراقب باشید:
اگر بیش از حد pruning انجام شود یا بدون fine-tuning، ممکن است دقت مدل به شدت افت کند.
همچنین اجرای عملی روی GPU نیازمند کتابخانههای بهینه برای sparse computation است.
📌 این روش برای فشردهسازی مدلهایی مانند BERT، ResNet، و حتی GPT فوقالعاده کاربردیست.
در پست بعدی اگر خواستید، مثال عملی با PyTorch هم میگذاریم.
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و یادگیری عمیق
وقتی مدلهای یادگیری عمیق بیشازحد بزرگ و سنگین میشوند، میتوان با یک روش هوشمندانه به نام Pruning یا «هرسکردن»، حجم آنها را کاهش داد — بدون آنکه دقت مدل بهطور جدی افت کند.
🔍 در این روش چه اتفاقی میافتد؟
بخشهایی از شبکه که تأثیر کمی در خروجی دارند (مثل وزنهای بسیار کوچک یا نرونهای کمفعالیت) شناسایی و حذف میشوند.
در نتیجه، مدل سبکتر، سریعتر و کممصرفتر میشود.
📌 انواع رایج Pruning:
▪️ هرس وزنها (Weight Pruning):
وزنهایی که به صفر نزدیکاند حذف میشوند → خروجی: شبکهای پراکنده (Sparse)
▪️ هرس نرون یا فیلتر (Neuron/Filter Pruning):
در مدلهای CNN، کل کانالها یا فیلترهای غیرمفید حذف میشوند → کاهش چشمگیر در محاسبات
⚙️ مراحل اجرای Pruning:
۱. آموزش کامل مدل اولیه
۲. شناسایی بخشهای کماهمیت (با معیارهایی مثل L1-norm)
۳. حذف آن بخشها
۴. بازآموزی مدل برای جبران دقت
✅ مزایای کلیدی:
کاهش مصرف حافظه و انرژی
اجرای سریعتر، مناسب برای دستگاههای لبهای
حفظ دقت در بسیاری از موارد
⚠️ اما مراقب باشید:
اگر بیش از حد pruning انجام شود یا بدون fine-tuning، ممکن است دقت مدل به شدت افت کند.
همچنین اجرای عملی روی GPU نیازمند کتابخانههای بهینه برای sparse computation است.
📌 این روش برای فشردهسازی مدلهایی مانند BERT، ResNet، و حتی GPT فوقالعاده کاربردیست.
در پست بعدی اگر خواستید، مثال عملی با PyTorch هم میگذاریم.
@rss_ai_ir | مرجع تخصصی هوش مصنوعی و یادگیری عمیق
👏24❤18😁16🔥15🥰15👍13🎉8
📊 رشد انفجاری OpenAI و Anthropic در سال ۲۰۲۵
رقابت داغ در بازار هوش مصنوعی حالا وارد فاز مالی شده؛ جایی که آمارها نشان میدهند هر دو شرکت OpenAI و Anthropic در حال رشد چشمگیر هستند — اما در حوزههای متفاوت!
---
💰 درآمد سالانه تخمینی (ARR) برای جولای ۲۰۲۵:
🔹 OpenAI:
از ۶ میلیارد دلار به ۱۲ میلیارد دلار در ۶ ماه
• اشتراک کاربران عادی: $۵.۵B
• قراردادهای شرکتی: $۳.۶B
• درآمد API: $۲.۹B
🔸 Anthropic:
از ۱ میلیارد دلار به ۵ میلیارد دلار در ۷ ماه
• اشتراک کاربران عادی: $۰.۷B
• قراردادهای شرکتی: $۰.۹B
• درآمد API: $۳.۱B (پیشی گرفتن از OpenAI)
---
👨💻 راز موفقیت Anthropic در API کجاست؟
تقریباً تمام رشد API به ابزارهای کدنویسی وابسته است:
🧩 همچنین Cursor و GitHub Copilot به تنهایی حدود ۱.۴ میلیارد دلار درآمدزایی کردهاند
🧠 محصول Claude Code نیز اکنون به $۴۰۰ میلیون دلار درآمد سالانه رسیده — دو برابر ماه گذشته!
---
⚠️ اما یک هشدار کلیدی وجود دارد:
کل این رشد وابسته به محبوبیت مدل Claude 4 Sonnet در بازار AI کدنویسی است.
اگر OpenAI با انتشار GPT-5 و تصاحب Cursor یا Copilot دوباره پیشتاز شود، معادلات بازار ممکن است بهطور کامل تغییر کند.
---
📎 منبع داده: The Information
📊 تهیهکننده گراف: Peter Gostev
💬 نظر شما چیست؟ آیا آینده AI کدنویسی در دست Claude میماند یا OpenAI با GPT-5 بازمیگردد؟
در کامنتها بنویسید!
@rss_ai_ir | مرجع تخصصی هوش مصنوعی، مدلهای زبانی و اقتصاد AI
رقابت داغ در بازار هوش مصنوعی حالا وارد فاز مالی شده؛ جایی که آمارها نشان میدهند هر دو شرکت OpenAI و Anthropic در حال رشد چشمگیر هستند — اما در حوزههای متفاوت!
---
💰 درآمد سالانه تخمینی (ARR) برای جولای ۲۰۲۵:
🔹 OpenAI:
از ۶ میلیارد دلار به ۱۲ میلیارد دلار در ۶ ماه
• اشتراک کاربران عادی: $۵.۵B
• قراردادهای شرکتی: $۳.۶B
• درآمد API: $۲.۹B
🔸 Anthropic:
از ۱ میلیارد دلار به ۵ میلیارد دلار در ۷ ماه
• اشتراک کاربران عادی: $۰.۷B
• قراردادهای شرکتی: $۰.۹B
• درآمد API: $۳.۱B (پیشی گرفتن از OpenAI)
---
👨💻 راز موفقیت Anthropic در API کجاست؟
تقریباً تمام رشد API به ابزارهای کدنویسی وابسته است:
🧩 همچنین Cursor و GitHub Copilot به تنهایی حدود ۱.۴ میلیارد دلار درآمدزایی کردهاند
🧠 محصول Claude Code نیز اکنون به $۴۰۰ میلیون دلار درآمد سالانه رسیده — دو برابر ماه گذشته!
---
⚠️ اما یک هشدار کلیدی وجود دارد:
کل این رشد وابسته به محبوبیت مدل Claude 4 Sonnet در بازار AI کدنویسی است.
اگر OpenAI با انتشار GPT-5 و تصاحب Cursor یا Copilot دوباره پیشتاز شود، معادلات بازار ممکن است بهطور کامل تغییر کند.
---
📎 منبع داده: The Information
📊 تهیهکننده گراف: Peter Gostev
💬 نظر شما چیست؟ آیا آینده AI کدنویسی در دست Claude میماند یا OpenAI با GPT-5 بازمیگردد؟
در کامنتها بنویسید!
@rss_ai_ir | مرجع تخصصی هوش مصنوعی، مدلهای زبانی و اقتصاد AI
❤20🥰18🔥17😁17🎉16👍12👏9
Media is too big
VIEW IN TELEGRAM
🤖 رونمایی رسمی Unitree از ربات A2 Stellar Hunter
نسل جدید رباتهای چهارپا با طراحی سبکتر، سریعتر و مقاومتر برای کاربردهای صنعتی معرفی شد.
---
⚙️ ویژگیهای کلیدی:
* وزن کل: حدود ۳۷ کیلوگرم
* برد حرکتی در حالت بدون بار: حدود ۲۰ کیلومتر
* طراحی ماژولار و مقاوم برای محیطهای سخت صنعتی
* عملکرد فوقالعاده در حمل، بازرسی، نقشهبرداری و تعامل با محیط
---
📌 ربات A2 Stellar Hunterگامی مهم در مسیر تجاریسازی رباتهای چهارپای هوشمند است؛ ترکیبی از قدرت مکانیکی و هوش مصنوعی برای فعالیتهای خودران در فضای صنعتی.
@rss_ai_ir | تازهترین اخبار رباتیک و هوش مصنوعی صنعتی
نسل جدید رباتهای چهارپا با طراحی سبکتر، سریعتر و مقاومتر برای کاربردهای صنعتی معرفی شد.
---
⚙️ ویژگیهای کلیدی:
* وزن کل: حدود ۳۷ کیلوگرم
* برد حرکتی در حالت بدون بار: حدود ۲۰ کیلومتر
* طراحی ماژولار و مقاوم برای محیطهای سخت صنعتی
* عملکرد فوقالعاده در حمل، بازرسی، نقشهبرداری و تعامل با محیط
---
📌 ربات A2 Stellar Hunterگامی مهم در مسیر تجاریسازی رباتهای چهارپای هوشمند است؛ ترکیبی از قدرت مکانیکی و هوش مصنوعی برای فعالیتهای خودران در فضای صنعتی.
@rss_ai_ir | تازهترین اخبار رباتیک و هوش مصنوعی صنعتی
👏19🎉19🥰17❤16😁14👍13🔥13🙏1
🔥 مدلهای اپنسورس جدید OpenAI بالاخره از راه رسیدند!
در نسخه ۴.۵۵ کتابخانه Transformers، دو مدل جدید با نام GPT-OSS معرفی شدهاند که مخصوص حل مسائل استدلالی و عاملهای هوشمند طراحی شدهاند.
---
🧠 دو نسخه مهم منتشرشده به شرح زیر هستند:
▪️ نسخه اول با نام GPT-OSS-120B دارای ۱۱۷ میلیارد پارامتر است و روی یک کارت گرافیک H100 (۸۰ گیگابایت) قابل اجراست.
▪️ نسخه دوم با نام GPT-OSS-20B دارای ۲۱ میلیارد پارامتر است و روی کارتهای ۱۶GB یا حتی سیستمهای محلی نیز قابل استفاده میباشد.
---
⚙️ ویژگیهای کلیدی این مدلها عبارتاند از:
♻️ساختار Mixture of Experts به صورت انتخاب مسیر (Token-choice)
♻️تنها بین ۳.۶ تا ۵.۱ میلیارد پارامتر در هر بار فعال میشود که باعث کاهش چشمگیر هزینه و زمان محاسباتی میشود
♻️پشتیبانی از توکنهای طولانی تا ۱۲۸K با استفاده از RoPE
♻️بهکارگیری ترکیبی از attention کامل و sliding-window
♻️سازگاری کامل با تکنیک Chain-of-Thought، دستورپذیری و ابزارمحوری
♻️امکان استفاده در پلتفرمهایی مانند ترنسفورمرز، vLLM، llama.cpp و ollama
♻️استفاده از همان توکنایزر مدل GPT-4o
♻️مجوز کاملاً باز با Apache 2.0 همراه با ضمیمه سیاستی کوچک
---
💡 نکته مهم اینجاست که مدل کوچکتر (۲۰B) حتی روی لپتاپ یا GPU خانگی نیز قابل اجراست و این موضوع، درهای جدیدی را برای توسعه اپلیکیشنهای مستقل و edge باز میکند.
📎 برای مشاهده جزئیات بیشتر و دریافت مدلها:
github.com/huggingface/transformers/releases/tag/v4.55.0
---
📌 با این اقدام، OpenAI نشان داد که ورودش به دنیای اپنسورس جدی است. آیا این مدلها میتوانند جایگزین LLaMA و Mistral شوند؟
دیدگاهتان را با ما به اشتراک بگذارید.
@rss_ai_ir | مرجع تخصصی مدلهای زبان بزرگ و یادگیری عمیق
در نسخه ۴.۵۵ کتابخانه Transformers، دو مدل جدید با نام GPT-OSS معرفی شدهاند که مخصوص حل مسائل استدلالی و عاملهای هوشمند طراحی شدهاند.
---
🧠 دو نسخه مهم منتشرشده به شرح زیر هستند:
▪️ نسخه اول با نام GPT-OSS-120B دارای ۱۱۷ میلیارد پارامتر است و روی یک کارت گرافیک H100 (۸۰ گیگابایت) قابل اجراست.
▪️ نسخه دوم با نام GPT-OSS-20B دارای ۲۱ میلیارد پارامتر است و روی کارتهای ۱۶GB یا حتی سیستمهای محلی نیز قابل استفاده میباشد.
---
⚙️ ویژگیهای کلیدی این مدلها عبارتاند از:
♻️ساختار Mixture of Experts به صورت انتخاب مسیر (Token-choice)
♻️تنها بین ۳.۶ تا ۵.۱ میلیارد پارامتر در هر بار فعال میشود که باعث کاهش چشمگیر هزینه و زمان محاسباتی میشود
♻️پشتیبانی از توکنهای طولانی تا ۱۲۸K با استفاده از RoPE
♻️بهکارگیری ترکیبی از attention کامل و sliding-window
♻️سازگاری کامل با تکنیک Chain-of-Thought، دستورپذیری و ابزارمحوری
♻️امکان استفاده در پلتفرمهایی مانند ترنسفورمرز، vLLM، llama.cpp و ollama
♻️استفاده از همان توکنایزر مدل GPT-4o
♻️مجوز کاملاً باز با Apache 2.0 همراه با ضمیمه سیاستی کوچک
---
💡 نکته مهم اینجاست که مدل کوچکتر (۲۰B) حتی روی لپتاپ یا GPU خانگی نیز قابل اجراست و این موضوع، درهای جدیدی را برای توسعه اپلیکیشنهای مستقل و edge باز میکند.
📎 برای مشاهده جزئیات بیشتر و دریافت مدلها:
github.com/huggingface/transformers/releases/tag/v4.55.0
---
📌 با این اقدام، OpenAI نشان داد که ورودش به دنیای اپنسورس جدی است. آیا این مدلها میتوانند جایگزین LLaMA و Mistral شوند؟
دیدگاهتان را با ما به اشتراک بگذارید.
@rss_ai_ir | مرجع تخصصی مدلهای زبان بزرگ و یادگیری عمیق
🔥24❤19🎉18👍17🥰11😁10👏6🙏1
📚 تبدیل ایده به داستان تصویری با ابزار جدید Google Gemini
ابزار جدیدی به نام Storybook به Gemini اضافه شده که میتواند تنها با یک درخواست ساده، یک کتاب داستان ۱۰ صفحهای با متن، تصویر و صدا تولید کند — درباره هر موضوعی که شما بخواهید!
---
🔍 چه کاری میکند؟
از روی یک جمله ساده (مثلاً "داستانی درباره گربهای فضانورد")
یک داستان کامل تولید میشود، شامل:
• متن اختصاصی برای هر صفحه
• تصویرسازی برای هر بخش
• فایل صوتی برای خواندن داستان با لحن مناسب
---
👶 هدف اصلی این ابزار چیست؟
گوگل گفته با Storybook میتوان برای آموزش کودکان، انتقال مفاهیم پیچیده، یا حتی سرگرمیهای خلاقانه از آن استفاده کرد.
ترکیب تصویر + صدا + روایت، باعث درک بهتر و تجربهی عمیقتر یادگیری میشود.
---
🟢 این قابلیت از همین حالا برای همه کاربران در Gemini در دسترس است.
کافیست وارد Gemini شوید و درخواست ساخت یک داستان بدهید!
---
💬 نظر شما چیه؟ آیا این ابزار میتونه جایگزین کتابهای سنتی کودکانه بشه؟
یا ابزار کمکی برای آموزش در کلاس و خانه؟
نظرتون رو بنویسید!
@rss_ai_ir | مرجع ابزارهای هوش مصنوعی برای آموزش و تولید محتوا
ابزار جدیدی به نام Storybook به Gemini اضافه شده که میتواند تنها با یک درخواست ساده، یک کتاب داستان ۱۰ صفحهای با متن، تصویر و صدا تولید کند — درباره هر موضوعی که شما بخواهید!
---
🔍 چه کاری میکند؟
از روی یک جمله ساده (مثلاً "داستانی درباره گربهای فضانورد")
یک داستان کامل تولید میشود، شامل:
• متن اختصاصی برای هر صفحه
• تصویرسازی برای هر بخش
• فایل صوتی برای خواندن داستان با لحن مناسب
---
👶 هدف اصلی این ابزار چیست؟
گوگل گفته با Storybook میتوان برای آموزش کودکان، انتقال مفاهیم پیچیده، یا حتی سرگرمیهای خلاقانه از آن استفاده کرد.
ترکیب تصویر + صدا + روایت، باعث درک بهتر و تجربهی عمیقتر یادگیری میشود.
---
🟢 این قابلیت از همین حالا برای همه کاربران در Gemini در دسترس است.
کافیست وارد Gemini شوید و درخواست ساخت یک داستان بدهید!
---
💬 نظر شما چیه؟ آیا این ابزار میتونه جایگزین کتابهای سنتی کودکانه بشه؟
یا ابزار کمکی برای آموزش در کلاس و خانه؟
نظرتون رو بنویسید!
@rss_ai_ir | مرجع ابزارهای هوش مصنوعی برای آموزش و تولید محتوا
🎉34👏33😁33❤31🔥27👍24🥰19