🛡️ شرکت OpenAI مدلهای رایگان هوش مصنوعی برای پالایش محتوای آنلاین منتشر کرد
شرکت OpenAI دو مدل متنباز جدید برای شناسایی محتوای مضر یا نامناسب معرفی کرده است:
🔹 gpt-oss-safeguard-120b
🔹 gpt-oss-safeguard-20b
---
🧩 ویژگیها:
• این مدلها میتوانند زبان سمی، بررسیهای جعلی و محتوای خطرناک را در وبسایتها و شبکههای اجتماعی شناسایی کنند.
• توسعهدهندگان میتوانند سیاستهای خاص خود را تعریف کنند و تعیین نمایند سیستم بر چه اساسی هشدار یا حذف انجام دهد.
• مانند مدلهای پایهی gpt-oss، این نسخهها نیز قادرند منطق تصمیمگیری خود را توضیح دهند و مسیر استدلال پشت هر اقدام پالایش را نمایش دهند.
---
🎯 هدف OpenAI از انتشار رایگان این مدلها، فراهمکردن ابزارهایی شفاف، قابلکنترل و مقیاسپذیر برای مدیران پلتفرمها در عصر هوش مصنوعی است.
📊 منبع:
https://huggingface.co/collections/openai/gpt-oss-safeguard
📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Moderation #AI #gpt #امنیت #ContentModeration #GPT5
شرکت OpenAI دو مدل متنباز جدید برای شناسایی محتوای مضر یا نامناسب معرفی کرده است:
🔹 gpt-oss-safeguard-120b
🔹 gpt-oss-safeguard-20b
---
🧩 ویژگیها:
• این مدلها میتوانند زبان سمی، بررسیهای جعلی و محتوای خطرناک را در وبسایتها و شبکههای اجتماعی شناسایی کنند.
• توسعهدهندگان میتوانند سیاستهای خاص خود را تعریف کنند و تعیین نمایند سیستم بر چه اساسی هشدار یا حذف انجام دهد.
• مانند مدلهای پایهی gpt-oss، این نسخهها نیز قادرند منطق تصمیمگیری خود را توضیح دهند و مسیر استدلال پشت هر اقدام پالایش را نمایش دهند.
---
🎯 هدف OpenAI از انتشار رایگان این مدلها، فراهمکردن ابزارهایی شفاف، قابلکنترل و مقیاسپذیر برای مدیران پلتفرمها در عصر هوش مصنوعی است.
📊 منبع:
https://huggingface.co/collections/openai/gpt-oss-safeguard
📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Moderation #AI #gpt #امنیت #ContentModeration #GPT5
👍2❤1👎1🔥1👏1