AI Scope
- You argue that AI chatbots such as ChatGPT have been a turning point in increasing human agency because, compared with AI technologies such as facial recognition, predictive policing and algorithmic surveillance, they work for us and with us rather than…
+ To take jobs, they are being transformed, and information professionals will need to be using AI tools to do part of their work. If you don’t you will be under-tooled and won’t be competitive. And you may feel that as a loss of agency. You don’t want to change but you can’t choose not to. But then you begin to see the upside: repetitive tasks might be automated, creative processes accelerated. You get a lot more agency and so do other people.
⚪️ رید هافمن:
+ شغلها دارن تغییر میکنن و متخصصها باید از ابزارهای هوش مصنوعی استفاده کنن تا بتونن رقابت کنن.
ممکنه این موضوع رو به عنوان کاهش تواناییهات ببینی اما اینطور نیست.
تو نمیخوای تغییر کنی، اما نمیتونی انتخاب کنی که نکنی!
بعد از یه مدت، جنبههای مثبت رو میبینی: کارهای تکراری خودکار میشن و فرآیندهای خلاقانه سریعتر میشن. در نتیجه، تو و دیگران تواناییهای بیشتری به دست میارین
❤2
The rapid advancement of large language models (LLMs), such as ChatGPT and GPT-4, has led to a surge in synthetic text generation across various domains, including journalism, academia, cybersecurity, and online discourse. While these models offer immense benefits, their ability to generate highly realistic text raises concerns regarding misinformation, academic dishonesty, and content authenticity. Consequently, the detection of LLM-generated content has become an essential area of research.
This survey provides a comprehensive overview of existing detection methodologies, benchmarks, and challenges, offering insights into the strengths and weaknesses of current techniques.The study aims to serve as a guiding reference for researchers and practitioners striving to uphold the integrity of digital information in an era dominated by synthetic content.
📁 Paper: https://arxiv.org/abs/2310.15654
@scopeofai
@LLM_learning
This survey provides a comprehensive overview of existing detection methodologies, benchmarks, and challenges, offering insights into the strengths and weaknesses of current techniques.The study aims to serve as a guiding reference for researchers and practitioners striving to uphold the integrity of digital information in an era dominated by synthetic content.
📁 Paper: https://arxiv.org/abs/2310.15654
@scopeofai
@LLM_learning
❤1
AI Scope
A Survey on Detection of LLMs-Generated Content.pdf
چطور بفهمیم یه متن رو هوش مصنوعی نوشته؟
با زیاد شدن استفاده از این مدلها، نگرانیهایی درباره اخبار جعلی، تقلب در درسها، سواستفاده در رسانهها و حتی امنیت سایبری به وجود اومده.
به همین خاطر، ابزارهایی برای شناسایی متنهای هوش مصنوعی خیلی مهم شدن.
این مقاله بررسی میکنه که چطور میشه متنهایی که مدلهای زبانی مثل ChatGPT تولید میکنن رو تشخیص داد.
بیایید ریز به ریز تحلیلش کنیم
با زیاد شدن استفاده از این مدلها، نگرانیهایی درباره اخبار جعلی، تقلب در درسها، سواستفاده در رسانهها و حتی امنیت سایبری به وجود اومده.
به همین خاطر، ابزارهایی برای شناسایی متنهای هوش مصنوعی خیلی مهم شدن.
این مقاله بررسی میکنه که چطور میشه متنهایی که مدلهای زبانی مثل ChatGPT تولید میکنن رو تشخیص داد.
بیایید ریز به ریز تحلیلش کنیم
❤1
چکیده ( صفحه ۱)
چکیده خلاصهای از کل مقالست.
توی این بخش نویسنده ها توضیح میدن که مدلهای زبانی بزرگ مثل ChatGPT میتونن متن هایی تولید کنن که خیلی شبیه به متن های انسانه
هدف مقاله اینه که تمام روش های شناسایی محتوایی که هوش مصنوعی تولید میکنه رو بشناسیم و راهکار بدیم
The abstract provides an overview of the study, emphasizing the increasing importance of detecting text generated by large language models (LLMs) like ChatGPT. The authors highlight key detection strategies, challenges, and the need for robust models. They position this work as the first comprehensive survey in the field, aiming to guide researchers and practitioners.
🔰 @scopeofai | #papers
چکیده خلاصهای از کل مقالست.
توی این بخش نویسنده ها توضیح میدن که مدلهای زبانی بزرگ مثل ChatGPT میتونن متن هایی تولید کنن که خیلی شبیه به متن های انسانه
هدف مقاله اینه که تمام روش های شناسایی محتوایی که هوش مصنوعی تولید میکنه رو بشناسیم و راهکار بدیم
The abstract provides an overview of the study, emphasizing the increasing importance of detecting text generated by large language models (LLMs) like ChatGPT. The authors highlight key detection strategies, challenges, and the need for robust models. They position this work as the first comprehensive survey in the field, aiming to guide researchers and practitioners.
🔰 @scopeofai | #papers
❤1
مقدمه (صفحات ۱ تا ۲)
توی مقدمه، نویسنده ها توضیح میدن که چرا تشخیص محتوای تولید شده توسط AI مهمه:
• مدلهای زبانی بزرگ میتونن خبرهای جعلی، نظرات غیرواقعی و محتوای تقلبی تولید کنن.
• خیلی از آدما نمیتونن تفاوت بین متن تولید شده توسط انسان و هوش مصنوعی رو تشخیص بدن.
• بیشتر از همیشه به ابزارهایی نیاز داریم که متن های تولید شده توسط هوش مصنوعی رو تشخیص بدن
The introduction expands on the risks posed by AI-generated text, such as misinformation, fake news, and academic integrity issues. The authors illustrate how humans struggle to distinguish between human-written and AI-generated content.
🔰 @scopeofai | #papers
توی مقدمه، نویسنده ها توضیح میدن که چرا تشخیص محتوای تولید شده توسط AI مهمه:
• مدلهای زبانی بزرگ میتونن خبرهای جعلی، نظرات غیرواقعی و محتوای تقلبی تولید کنن.
• خیلی از آدما نمیتونن تفاوت بین متن تولید شده توسط انسان و هوش مصنوعی رو تشخیص بدن.
• بیشتر از همیشه به ابزارهایی نیاز داریم که متن های تولید شده توسط هوش مصنوعی رو تشخیص بدن
The introduction expands on the risks posed by AI-generated text, such as misinformation, fake news, and academic integrity issues. The authors illustrate how humans struggle to distinguish between human-written and AI-generated content.
🔰 @scopeofai | #papers
❤1
تعریف مسئله (صفحات ۳ تا ۵)
اینجا نویسنده ها توضیح میدن که هدف اینه بفهمیم یه متن رو آدم نوشته یا هوش مصنوعی.
چطور دقت تشخیص رو میسنجن؟
- با AUROC: یعنی چقدر مدل خوب میتونه متنها رو دستهبندی کنه.
- نرخ تشخیص درست (TPR) و نرخ خطا (FPR): اینکه مدل چقدر درست تشخیص میده و چقدر اشتباه میکنه.
- خطای نوع اول و دوم: وقتی یه متن انسانی رو اشتباهی AI تشخیص بدیم یا برعکس.
چالشها
بعضی متنها ترکیبی هستن، یعنی یه بخش رو AI نوشته، ولی یه آدم ویرایشش کرده.
بعضی مدلها میتونن با تغییرات کوچیک خودشونو جای انسان جا بزنن
in this part of the study they introduce key metrics used for evaluation:
- AUROC (Area Under the Receiver Operating Characteristic Curve) – Measures classification effectiveness.
- True Positive Rate (TPR) at a fixed False Positive Rate (FPR) – Ensures detectors correctly identify AI-generated text.
Type I & Type II Errors – Helps assess false positive and false negative rates.
🔰 @scopeofai | #papers
اینجا نویسنده ها توضیح میدن که هدف اینه بفهمیم یه متن رو آدم نوشته یا هوش مصنوعی.
چطور دقت تشخیص رو میسنجن؟
- با AUROC: یعنی چقدر مدل خوب میتونه متنها رو دستهبندی کنه.
- نرخ تشخیص درست (TPR) و نرخ خطا (FPR): اینکه مدل چقدر درست تشخیص میده و چقدر اشتباه میکنه.
- خطای نوع اول و دوم: وقتی یه متن انسانی رو اشتباهی AI تشخیص بدیم یا برعکس.
چالشها
بعضی متنها ترکیبی هستن، یعنی یه بخش رو AI نوشته، ولی یه آدم ویرایشش کرده.
بعضی مدلها میتونن با تغییرات کوچیک خودشونو جای انسان جا بزنن
in this part of the study they introduce key metrics used for evaluation:
- AUROC (Area Under the Receiver Operating Characteristic Curve) – Measures classification effectiveness.
- True Positive Rate (TPR) at a fixed False Positive Rate (FPR) – Ensures detectors correctly identify AI-generated text.
Type I & Type II Errors – Helps assess false positive and false negative rates.
🔰 @scopeofai | #papers
❤1🔥1
روشهای تشخیص متنهای هوش مصنوعی (صفحات ۶ تا ۷)
نویسندهها چهار روش مختلف برای شناسایی متنهای تولیدشده توسط AI رو بررسی کردن:
1️⃣ وقتی هیچ اطلاعاتی از مدل نداریم (Black-Box - ناشناخته)
👈 نمیدونیم متن رو کدوم مدل ساخته، فقط میخوایم بفهمیم انسانی هست یا نه.
2️⃣ وقتی فقط میدونیم متن رو یه مدل خاص تولید کرده (Black-Box - شناختهشده)
👈 مثلاً میدونیم متن کار GPT-4 هست ولی جزئیات فنی مدل رو نداریم.
3️⃣ وقتی به کل اطلاعات مدل دسترسی داریم (White-Box - دسترسی کامل)
👈 دقیقاً میدونیم مدل چجوری کار میکنه و میتونیم جزئیاتش رو بررسی کنیم.
4️⃣ وقتی فقط به بخشی از اطلاعات مدل دسترسی داریم (White-Box - دسترسی جزئی)
👈 مثلاً فقط میدونیم مدل چجوری احتمال استفاده از کلمات رو محاسبه میکنه.
Detection Scenarios
- Black-Box (Unknown): Detect AI text without knowing the model.
- Black-Box (Known): Model name is known, but not its details.
- White-Box (Full): Complete access to model parameters.
- White-Box (Partial): Limited
access to internal probabilities..
🔰 @scopeofai | #papers
نویسندهها چهار روش مختلف برای شناسایی متنهای تولیدشده توسط AI رو بررسی کردن:
1️⃣ وقتی هیچ اطلاعاتی از مدل نداریم (Black-Box - ناشناخته)
👈 نمیدونیم متن رو کدوم مدل ساخته، فقط میخوایم بفهمیم انسانی هست یا نه.
2️⃣ وقتی فقط میدونیم متن رو یه مدل خاص تولید کرده (Black-Box - شناختهشده)
👈 مثلاً میدونیم متن کار GPT-4 هست ولی جزئیات فنی مدل رو نداریم.
3️⃣ وقتی به کل اطلاعات مدل دسترسی داریم (White-Box - دسترسی کامل)
👈 دقیقاً میدونیم مدل چجوری کار میکنه و میتونیم جزئیاتش رو بررسی کنیم.
4️⃣ وقتی فقط به بخشی از اطلاعات مدل دسترسی داریم (White-Box - دسترسی جزئی)
👈 مثلاً فقط میدونیم مدل چجوری احتمال استفاده از کلمات رو محاسبه میکنه.
Detection Scenarios
- Black-Box (Unknown): Detect AI text without knowing the model.
- Black-Box (Known): Model name is known, but not its details.
- White-Box (Full): Complete access to model parameters.
- White-Box (Partial): Limited
access to internal probabilities..
🔰 @scopeofai | #papers
❤1🔥1
روشهای شناسایی متنهای AI (صفحات ۷ تا ۸)
۱. یادگیری ماشین
مدل AI روی کلی متن انسانی و ماشینی آموزش میبینه تا فرقشون رو بفهمه.
🔹 ابزارها: GPTZero، OpenAI Classifier، G3Detector
۲. تشخیص بدون نیاز به آموزش
با بررسی الگوهای آماری، بدون نیاز به مدل خاص، متنهای AI رو شناسایی میکنه.
🔹 ابزارها: DetectGPT، DNA-GPT
۳. واترمارکینگ
یه امضای مخفی توی متنهای AI قرار میده تا بعداً قابل شناسایی باشن.
🔹 سیاهجعبه: تغییرات روی متن بعد از تولید.
🔹 سفیدجعبه: تغییرات موقع تولید متن در خود مدل
Detection Methods
- Training-Based: AI models trained to spot human vs. AI text. (GPTZero, OpenAI Classifier)
- Zero-Shot: No training, detects AI text through patterns. (DetectGPT, DNA-GPT)
- Watermarking: Hidden markers in AI text.
🔰 @scopeofai | #papers
۱. یادگیری ماشین
مدل AI روی کلی متن انسانی و ماشینی آموزش میبینه تا فرقشون رو بفهمه.
🔹 ابزارها: GPTZero، OpenAI Classifier، G3Detector
۲. تشخیص بدون نیاز به آموزش
با بررسی الگوهای آماری، بدون نیاز به مدل خاص، متنهای AI رو شناسایی میکنه.
🔹 ابزارها: DetectGPT، DNA-GPT
۳. واترمارکینگ
یه امضای مخفی توی متنهای AI قرار میده تا بعداً قابل شناسایی باشن.
🔹 سیاهجعبه: تغییرات روی متن بعد از تولید.
🔹 سفیدجعبه: تغییرات موقع تولید متن در خود مدل
Detection Methods
- Training-Based: AI models trained to spot human vs. AI text. (GPTZero, OpenAI Classifier)
- Zero-Shot: No training, detects AI text through patterns. (DetectGPT, DNA-GPT)
- Watermarking: Hidden markers in AI text.
🔰 @scopeofai | #papers
❤1🔥1
چالشهای شناسایی متنهای AI (صفحات ۸ تا ۱۱)
⚠️ ۱. تغییر و بازنویسی متن
اگر متن AI ویرایش بشه، تشخیصش سختتر میشه.
💻 ۲. شناسایی کدهای AI
تشخیص کدهای برنامهنویسی ساختهشده توسط AI حتی سختتر از متن عادیه.
🌍 ۳. مشکل سوگیری
بعضی مدلهای شناسایی روی متنهای غیرانگلیسی یا نوشتههای افراد غیربومی درست کار نمیکنن.
🔄 ۴. هماهنگی با مدلهای جدید
مدلهای جدید ممکنه روشهای شناسایی فعلی رو بیاثر کنن.
🧠 ۵. پرامپت هوشمند
بعضی ترفندها باعث میشن AI متنهایی بسازه که سختتر قابل شناسایی باشن.
significant challenges remain:
Paraphrasing Attacks – AI-generated text can be rewritten to evade detection.
Code Detection Complexity – Detecting AI-generated programming code is harder than detecting AI-generated natural language.
Bias Issues – Detection tools may unfairly classify non-native speakers’ text as AI-generated.
Generalization Problems – Current detectors struggle to adapt to newer models.
Prompt Attacks – Users can design prompts that make AI-generated text hard to detect.
🔰 @scopeofai | #papers
⚠️ ۱. تغییر و بازنویسی متن
اگر متن AI ویرایش بشه، تشخیصش سختتر میشه.
💻 ۲. شناسایی کدهای AI
تشخیص کدهای برنامهنویسی ساختهشده توسط AI حتی سختتر از متن عادیه.
🌍 ۳. مشکل سوگیری
بعضی مدلهای شناسایی روی متنهای غیرانگلیسی یا نوشتههای افراد غیربومی درست کار نمیکنن.
🔄 ۴. هماهنگی با مدلهای جدید
مدلهای جدید ممکنه روشهای شناسایی فعلی رو بیاثر کنن.
🧠 ۵. پرامپت هوشمند
بعضی ترفندها باعث میشن AI متنهایی بسازه که سختتر قابل شناسایی باشن.
significant challenges remain:
Paraphrasing Attacks – AI-generated text can be rewritten to evade detection.
Code Detection Complexity – Detecting AI-generated programming code is harder than detecting AI-generated natural language.
Bias Issues – Detection tools may unfairly classify non-native speakers’ text as AI-generated.
Generalization Problems – Current detectors struggle to adapt to newer models.
Prompt Attacks – Users can design prompts that make AI-generated text hard to detect.
🔰 @scopeofai | #papers
❤1🔥1
راهکارهای آینده (صفحات ۱۱ تا ۱۲)
نویسندهها پیشنهاد میکنن که:
✅ ابزارهای شناسایی باید قویتر و هوشمندتر بشن.
✅ باید استانداردهای جدیدی برای ارزیابی دقت درست بشه.
✅ ابزارها باید بتونن متنهای "ترکیبی" (که هم AI نوشته و هم انسان ویرایش کرده) رو بهتر تشخیص بدن.
✅ همچنین باید مطمئن بشیم که مدلهای شناسایی روی همه زبانها به درستی کار میکنن.
The study suggests key areas for improvement:
- Developing more robust and scalable detection techniques.
- Improving benchmark evaluation methods to avoid dataset contamination.
- Enhancing fine-grained detection to distinguish between fully AI-generated and AI-assisted content.
- Ensuring fairness and reducing biases in AI detectors..
🔰 @scopeofai | #papers
نویسندهها پیشنهاد میکنن که:
✅ ابزارهای شناسایی باید قویتر و هوشمندتر بشن.
✅ باید استانداردهای جدیدی برای ارزیابی دقت درست بشه.
✅ ابزارها باید بتونن متنهای "ترکیبی" (که هم AI نوشته و هم انسان ویرایش کرده) رو بهتر تشخیص بدن.
✅ همچنین باید مطمئن بشیم که مدلهای شناسایی روی همه زبانها به درستی کار میکنن.
The study suggests key areas for improvement:
- Developing more robust and scalable detection techniques.
- Improving benchmark evaluation methods to avoid dataset contamination.
- Enhancing fine-grained detection to distinguish between fully AI-generated and AI-assisted content.
- Ensuring fairness and reducing biases in AI detectors..
🔰 @scopeofai | #papers
❤1🔥1
نتیجهگیری ( صفحه ۱۲ )
💡 نویسندهها میگن که شناسایی متنهای AI یه چالش جدیه و هنوز کلی کار داره و به تحقیق و پیشرفت بیشتری نیاز دارن.
همچنین امیدوارن که این مقاله کمکی باشه برای بهتر شدن ابزارهای تشخیص
The paper concludes that AI-generated content detection is a rapidly evolving field. The authors stress the importance of continued research and propose future improvements in accuracy, scalability, and adaptability.
🔰 @scopeofai | #papers
💡 نویسندهها میگن که شناسایی متنهای AI یه چالش جدیه و هنوز کلی کار داره و به تحقیق و پیشرفت بیشتری نیاز دارن.
همچنین امیدوارن که این مقاله کمکی باشه برای بهتر شدن ابزارهای تشخیص
The paper concludes that AI-generated content detection is a rapidly evolving field. The authors stress the importance of continued research and propose future improvements in accuracy, scalability, and adaptability.
🔰 @scopeofai | #papers
❤1🔥1
🌳 اپ Jungle یکی از اون اپ هاییه که این روزا خیلی ازش استفاده میکنم.
قابلیت این رو داره که توی سریعترین زمان ممکن، براتون از هرچیزی کوییز درست کنه
یکی از مزیتهاش هم اینه که چه جواب درست بدید چه غلط، بهتون توضیح میده که علتش چی بوده
The Jungle app is one of those apps I’ve been using a lot lately. It has the ability to create quizzes for you in the fastest possible time from any material. One of its advantages is that whether you answer correctly or incorrectly, it explains the reasoning behind the answer
🧰 @scopeofai | #tools
قابلیت این رو داره که توی سریعترین زمان ممکن، براتون از هرچیزی کوییز درست کنه
یکی از مزیتهاش هم اینه که چه جواب درست بدید چه غلط، بهتون توضیح میده که علتش چی بوده
The Jungle app is one of those apps I’ve been using a lot lately. It has the ability to create quizzes for you in the fastest possible time from any material. One of its advantages is that whether you answer correctly or incorrectly, it explains the reasoning behind the answer
🧰 @scopeofai | #tools
❤1👍1
💥 شرکت OpenAI دیروز قابلیت تولید تصویر مبتنی بر مدل GPT-4o رو معرفی کرد
یکی از مهم ترین ویژگیهاش اینه که میتونه سریع تصاویر رو پردازش کنه و به هر ژانری که میخوایید تبدیل کنه
گرافیک و دقت به جزئیات داخل تصویر به شکل چشم گیری بهتر شدن
همچنین قابلیت فوق العاده رندر کردن متن رو داره. میتونه هر متنی که بهش بدید رو توی تصویر جا بده
این قابلیت الان برای تمام کاربران فعاله و میتونید ازش استفاده کنید
OpenAI yesterday introduced image generation capabilities based on its GPT-4o model, featuring advanced text rendering that precisely integrates any provided text into images. The system demonstrates enhanced graphical precision and dramatic detail improvements compared to previous iterations.
📰 @scopeofai | #news
یکی از مهم ترین ویژگیهاش اینه که میتونه سریع تصاویر رو پردازش کنه و به هر ژانری که میخوایید تبدیل کنه
گرافیک و دقت به جزئیات داخل تصویر به شکل چشم گیری بهتر شدن
همچنین قابلیت فوق العاده رندر کردن متن رو داره. میتونه هر متنی که بهش بدید رو توی تصویر جا بده
این قابلیت الان برای تمام کاربران فعاله و میتونید ازش استفاده کنید
OpenAI yesterday introduced image generation capabilities based on its GPT-4o model, featuring advanced text rendering that precisely integrates any provided text into images. The system demonstrates enhanced graphical precision and dramatic detail improvements compared to previous iterations.
📰 @scopeofai | #news
❤1
💡 گوگل باهوش ترین مدل خودش رو معرفی کرد
گوگل جدیدترین و باهوشترین مدل خودش به نام Gemini 2.5 Pro رو معرفی کرد.
مدلی که توی خیلی از موضوعات مثل کدزنی، ریاضیات و حل مسئله از رقیب های خودش مثل OpenAI o3-mini و Claude 3.7 sonnetجلو زده
فعلا رایگان نمیشه ازش استفاده کرد و فقط برای کاربرهای پریمیوم اپلیکیشن جمینای در دسترسه
Google has unveiled its most advanced AI model yet, Gemini 2.5 Pro, which demonstrates superior performance in coding, mathematics, and problem-solving compared to competitors like OpenAI’s o3-mini and Anthropic’s Claude 3.7 Sonnet
📰 @scopeofai | #news
گوگل جدیدترین و باهوشترین مدل خودش به نام Gemini 2.5 Pro رو معرفی کرد.
مدلی که توی خیلی از موضوعات مثل کدزنی، ریاضیات و حل مسئله از رقیب های خودش مثل OpenAI o3-mini و Claude 3.7 sonnetجلو زده
فعلا رایگان نمیشه ازش استفاده کرد و فقط برای کاربرهای پریمیوم اپلیکیشن جمینای در دسترسه
Google has unveiled its most advanced AI model yet, Gemini 2.5 Pro, which demonstrates superior performance in coding, mathematics, and problem-solving compared to competitors like OpenAI’s o3-mini and Anthropic’s Claude 3.7 Sonnet
📰 @scopeofai | #news
❤1
🐳 مدل جدید DeepSeek V3 رونمایی شد
توی آزمونهایی که ازش گرفتن خیلی بهتر از DeepSeek V2 عمل کرد و تونست حتی با مدلهایی مثل GPT-4.5 و Claude-Sonnet-3.7 رقابت کنه و برنده بیرون بیاد
برخلاف مدل GPT 4.5، اوپنسورس و رایگانه و هزینههاش ۳ برابر از مدل قبلیش ارزونتره
با این همه آپدیت و غافل گیری، ببینیم DeepSeek R2 با اومدنش باز مثل مدل قبلیش میتونه باعث ریختن سهام شرکت ها بشه یا نه
DeepSeek's new V3 model has been unveiled, demonstrating superior performance over its predecessor, DeepSeek V2, and competitively matching leading models like GPT-4.5 and Claude-Sonnet-3.7 in benchmark evaluations
📰 @scopeofai | #news
توی آزمونهایی که ازش گرفتن خیلی بهتر از DeepSeek V2 عمل کرد و تونست حتی با مدلهایی مثل GPT-4.5 و Claude-Sonnet-3.7 رقابت کنه و برنده بیرون بیاد
برخلاف مدل GPT 4.5، اوپنسورس و رایگانه و هزینههاش ۳ برابر از مدل قبلیش ارزونتره
با این همه آپدیت و غافل گیری، ببینیم DeepSeek R2 با اومدنش باز مثل مدل قبلیش میتونه باعث ریختن سهام شرکت ها بشه یا نه
DeepSeek's new V3 model has been unveiled, demonstrating superior performance over its predecessor, DeepSeek V2, and competitively matching leading models like GPT-4.5 and Claude-Sonnet-3.7 in benchmark evaluations
📰 @scopeofai | #news
❤1