⚡️ مجموعه OpenAI معرفی کرد: gpt-oss-safeguard —
مدلهای متنباز برای نظارت هوشمند و قابلتوضیح بر محتوا
🧠 بهجای یک فیلتر سخت و ازپیشآموزشدیده، این مدلها به شما اجازه میدهند سیاستهای امنیتی دلخواه خودتان را وارد کنید و مدل با استدلال منطقی بررسی میکند که آیا پیام با آن سیاست مطابقت دارد یا خیر.
💬 خروجی فقط یک «ایمن / غیرایمن» ساده نیست —
بلکه زنجیرهی تفکر و دلایل مدل را هم نشان میدهد تا بتوانید سیاست یا تصمیم را اصلاح کنید.
📦 مدلها در دو اندازه عرضه شدهاند:
gpt-oss-safeguard-120B
gpt-oss-safeguard-20B
💡 ویژگیها و مزایا:
✳️امکان تغییر سیاستها بدون نیاز به بازآموزی مدل
✳️مناسب برای سناریوهای خاص یا سریعالتغییر (مثل تشخیص تقلب در بازیها یا نظرات جعلی)
✳️بینیاز از دادههای برچسبخورده زیاد
✳️تمرکز بر شفافیت تصمیمگیری بهجای حداقل تأخیر در پاسخ
📜 هر دو مدل تحت مجوز Apache 2.0 منتشر شدهاند — آزاد برای استفاده، ویرایش و استقرار در پروژههای شخصی یا سازمانی.
🔗 منبع رسمی: OpenAI
🤗 در دسترس در: Hugging Face
@rss_ai_ir
#OpenAI #GPT #OSS #AI #ContentModeration #ExplainableAI #هوش_مصنوعی #متن_باز #امنیت_محتوا
مدلهای متنباز برای نظارت هوشمند و قابلتوضیح بر محتوا
🧠 بهجای یک فیلتر سخت و ازپیشآموزشدیده، این مدلها به شما اجازه میدهند سیاستهای امنیتی دلخواه خودتان را وارد کنید و مدل با استدلال منطقی بررسی میکند که آیا پیام با آن سیاست مطابقت دارد یا خیر.
💬 خروجی فقط یک «ایمن / غیرایمن» ساده نیست —
بلکه زنجیرهی تفکر و دلایل مدل را هم نشان میدهد تا بتوانید سیاست یا تصمیم را اصلاح کنید.
📦 مدلها در دو اندازه عرضه شدهاند:
gpt-oss-safeguard-120B
gpt-oss-safeguard-20B
💡 ویژگیها و مزایا:
✳️امکان تغییر سیاستها بدون نیاز به بازآموزی مدل
✳️مناسب برای سناریوهای خاص یا سریعالتغییر (مثل تشخیص تقلب در بازیها یا نظرات جعلی)
✳️بینیاز از دادههای برچسبخورده زیاد
✳️تمرکز بر شفافیت تصمیمگیری بهجای حداقل تأخیر در پاسخ
📜 هر دو مدل تحت مجوز Apache 2.0 منتشر شدهاند — آزاد برای استفاده، ویرایش و استقرار در پروژههای شخصی یا سازمانی.
🔗 منبع رسمی: OpenAI
🤗 در دسترس در: Hugging Face
@rss_ai_ir
#OpenAI #GPT #OSS #AI #ContentModeration #ExplainableAI #هوش_مصنوعی #متن_باز #امنیت_محتوا
❤1👍1🔥1
  🛡️ شرکت OpenAI مدلهای رایگان هوش مصنوعی برای پالایش محتوای آنلاین منتشر کرد
شرکت OpenAI دو مدل متنباز جدید برای شناسایی محتوای مضر یا نامناسب معرفی کرده است:
🔹 gpt-oss-safeguard-120b
🔹 gpt-oss-safeguard-20b
---
🧩 ویژگیها:
• این مدلها میتوانند زبان سمی، بررسیهای جعلی و محتوای خطرناک را در وبسایتها و شبکههای اجتماعی شناسایی کنند.
• توسعهدهندگان میتوانند سیاستهای خاص خود را تعریف کنند و تعیین نمایند سیستم بر چه اساسی هشدار یا حذف انجام دهد.
• مانند مدلهای پایهی gpt-oss، این نسخهها نیز قادرند منطق تصمیمگیری خود را توضیح دهند و مسیر استدلال پشت هر اقدام پالایش را نمایش دهند.
---
🎯 هدف OpenAI از انتشار رایگان این مدلها، فراهمکردن ابزارهایی شفاف، قابلکنترل و مقیاسپذیر برای مدیران پلتفرمها در عصر هوش مصنوعی است.
📊 منبع:
https://huggingface.co/collections/openai/gpt-oss-safeguard
📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Moderation #AI #gpt #امنیت #ContentModeration #GPT5
شرکت OpenAI دو مدل متنباز جدید برای شناسایی محتوای مضر یا نامناسب معرفی کرده است:
🔹 gpt-oss-safeguard-120b
🔹 gpt-oss-safeguard-20b
---
🧩 ویژگیها:
• این مدلها میتوانند زبان سمی، بررسیهای جعلی و محتوای خطرناک را در وبسایتها و شبکههای اجتماعی شناسایی کنند.
• توسعهدهندگان میتوانند سیاستهای خاص خود را تعریف کنند و تعیین نمایند سیستم بر چه اساسی هشدار یا حذف انجام دهد.
• مانند مدلهای پایهی gpt-oss، این نسخهها نیز قادرند منطق تصمیمگیری خود را توضیح دهند و مسیر استدلال پشت هر اقدام پالایش را نمایش دهند.
---
🎯 هدف OpenAI از انتشار رایگان این مدلها، فراهمکردن ابزارهایی شفاف، قابلکنترل و مقیاسپذیر برای مدیران پلتفرمها در عصر هوش مصنوعی است.
📊 منبع:
https://huggingface.co/collections/openai/gpt-oss-safeguard
📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Moderation #AI #gpt #امنیت #ContentModeration #GPT5
👍2❤1👎1🔥1👏1