⚡️ مجموعه OpenAI معرفی کرد: gpt-oss-safeguard —
مدلهای متنباز برای نظارت هوشمند و قابلتوضیح بر محتوا
🧠 بهجای یک فیلتر سخت و ازپیشآموزشدیده، این مدلها به شما اجازه میدهند سیاستهای امنیتی دلخواه خودتان را وارد کنید و مدل با استدلال منطقی بررسی میکند که آیا پیام با آن سیاست مطابقت دارد یا خیر.
💬 خروجی فقط یک «ایمن / غیرایمن» ساده نیست —
بلکه زنجیرهی تفکر و دلایل مدل را هم نشان میدهد تا بتوانید سیاست یا تصمیم را اصلاح کنید.
📦 مدلها در دو اندازه عرضه شدهاند:
gpt-oss-safeguard-120B
gpt-oss-safeguard-20B
💡 ویژگیها و مزایا:
✳️امکان تغییر سیاستها بدون نیاز به بازآموزی مدل
✳️مناسب برای سناریوهای خاص یا سریعالتغییر (مثل تشخیص تقلب در بازیها یا نظرات جعلی)
✳️بینیاز از دادههای برچسبخورده زیاد
✳️تمرکز بر شفافیت تصمیمگیری بهجای حداقل تأخیر در پاسخ
📜 هر دو مدل تحت مجوز Apache 2.0 منتشر شدهاند — آزاد برای استفاده، ویرایش و استقرار در پروژههای شخصی یا سازمانی.
🔗 منبع رسمی: OpenAI
🤗 در دسترس در: Hugging Face
@rss_ai_ir
#OpenAI #GPT #OSS #AI #ContentModeration #ExplainableAI #هوش_مصنوعی #متن_باز #امنیت_محتوا
مدلهای متنباز برای نظارت هوشمند و قابلتوضیح بر محتوا
🧠 بهجای یک فیلتر سخت و ازپیشآموزشدیده، این مدلها به شما اجازه میدهند سیاستهای امنیتی دلخواه خودتان را وارد کنید و مدل با استدلال منطقی بررسی میکند که آیا پیام با آن سیاست مطابقت دارد یا خیر.
💬 خروجی فقط یک «ایمن / غیرایمن» ساده نیست —
بلکه زنجیرهی تفکر و دلایل مدل را هم نشان میدهد تا بتوانید سیاست یا تصمیم را اصلاح کنید.
📦 مدلها در دو اندازه عرضه شدهاند:
gpt-oss-safeguard-120B
gpt-oss-safeguard-20B
💡 ویژگیها و مزایا:
✳️امکان تغییر سیاستها بدون نیاز به بازآموزی مدل
✳️مناسب برای سناریوهای خاص یا سریعالتغییر (مثل تشخیص تقلب در بازیها یا نظرات جعلی)
✳️بینیاز از دادههای برچسبخورده زیاد
✳️تمرکز بر شفافیت تصمیمگیری بهجای حداقل تأخیر در پاسخ
📜 هر دو مدل تحت مجوز Apache 2.0 منتشر شدهاند — آزاد برای استفاده، ویرایش و استقرار در پروژههای شخصی یا سازمانی.
🔗 منبع رسمی: OpenAI
🤗 در دسترس در: Hugging Face
@rss_ai_ir
#OpenAI #GPT #OSS #AI #ContentModeration #ExplainableAI #هوش_مصنوعی #متن_باز #امنیت_محتوا
❤1👍1🔥1