VIRSUN
6.14K subscribers
1.02K photos
585 videos
5 files
654 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🔍ابزار Grad-CAM در شبکه‌های عصبی کانولوشنی (CNN)

♻️یکی از ابزارهای مهم در توضیح‌پذیری مدل‌های یادگیری عمیق، روش Grad-CAM (Gradient-weighted Class Activation Mapping) است.

📌 ایده اصلی:
ابزار Grad-CAM نشان می‌دهد که مدل هنگام پیش‌بینی به کدام بخش‌های تصویر بیشتر توجه کرده است. به عبارت ساده، نقشه حرارتی (Heatmap) تولید می‌کند که مشخص می‌کند کدام نواحی تصویر بیشترین نقش را در خروجی نهایی داشته‌اند.

نحوه کار:

1. ورودی (مثلاً تصویر صنعتی) به مدل CNN داده می‌شود.


2. گرادیان‌های لایه‌های کانولوشنی نسبت به خروجی کلاس موردنظر محاسبه می‌شوند.


3. این گرادیان‌ها به‌عنوان وزن روی نقشه‌های ویژگی (Feature Maps) اعمال می‌شوند.


4. در نهایت یک نقشه حرارتی ساخته می‌شود که مناطق مهم تصویر را مشخص می‌کند.



🤖 کاربردهای صنعتی:

✳️در کنترل کیفیت (QC) برای دیدن اینکه مدل واقعاً روی نقص سطح فلز یا ترک تمرکز کرده یا نه.

✳️در پزشکی، برای بررسی اینکه مدل روی توده مشکوک تمرکز کرده و نه روی نویز اطراف.

✳️در بینایی ماشین صنعتی، برای اعتمادسازی نزد مدیران و مهندسان که مدل تصمیماتش را بر اساس نواحی درست گرفته است.


💡 نتیجه: Grad-CAM پلی است بین مدل‌های جعبه سیاه و قابلیت توضیح‌پذیری (Explainability) که در صنعت حیاتی است.

@rss_ai_ir
#هوش_مصنوعی #CNN #ExplainableAI #GradCAM #پردازش_تصویر
10🔥5🎉5😁3👍2
⚡️ مجموعه OpenAI معرفی کرد: gpt-oss-safeguard —
مدل‌های متن‌باز برای نظارت هوشمند و قابل‌توضیح بر محتوا

🧠 به‌جای یک فیلتر سخت و ازپیش‌آموزش‌دیده، این مدل‌ها به شما اجازه می‌دهند سیاست‌های امنیتی دلخواه خودتان را وارد کنید و مدل با استدلال منطقی بررسی می‌کند که آیا پیام با آن سیاست مطابقت دارد یا خیر.

💬 خروجی فقط یک «ایمن / غیرایمن» ساده نیست —
بلکه زنجیره‌ی تفکر و دلایل مدل را هم نشان می‌دهد تا بتوانید سیاست یا تصمیم را اصلاح کنید.

📦 مدل‌ها در دو اندازه عرضه شده‌اند:

gpt-oss-safeguard-120B

gpt-oss-safeguard-20B


💡 ویژگی‌ها و مزایا:

✳️امکان تغییر سیاست‌ها بدون نیاز به بازآموزی مدل

✳️مناسب برای سناریوهای خاص یا سریع‌التغییر (مثل تشخیص تقلب در بازی‌ها یا نظرات جعلی)

✳️بی‌نیاز از داده‌های برچسب‌خورده زیاد

✳️تمرکز بر شفافیت تصمیم‌گیری به‌جای حداقل تأخیر در پاسخ


📜 هر دو مدل تحت مجوز Apache 2.0 منتشر شده‌اند — آزاد برای استفاده، ویرایش و استقرار در پروژه‌های شخصی یا سازمانی.

🔗 منبع رسمی: OpenAI
🤗 در دسترس در: Hugging Face

@rss_ai_ir

#OpenAI #GPT #OSS #AI #ContentModeration #ExplainableAI #هوش_مصنوعی #متن_باز #امنیت_محتوا
1👍1🔥1