AI Scope
111 subscribers
167 photos
20 videos
16 files
106 links
Download Telegram
🔸 آزمایش‌ها

⭐️ از دیتاست CodexGlue استفاده شده که شامل کد و توضیحاته.
سه مدل مختلف بررسی شدن: CodeT5، CodeBERT، GraphCodeBERT.
مقایسه کردن که نتیجه وقتی فقط از هوش مصنوعی استفاده می‌کنی چه فرقی داره با روش ترکیبی

🔸 نتایج

🧢 روش ترکیبی دقت بیشتری داشته

🧢 توانسته خطاهای منطقی بیشتری را شناسایی کند

🧢 پیشنهادهای کاربردی‌تر و کم‌اشتباه‌تری داده

🧢 سرعت بررسی هم خوب بوده و زیاد کند نشده

🔸 بحث

⚠️ مدل‌های زبانی در فهم الگوها و ساختارها قوی هستن، ولی ممکنه گاهی اشتباه کنن.
ابزارهای منطقی کمک می‌کنن این اشتباهات کم بشن.
این دو مکمل هم هستن.
البته چالش‌هایی هم وجود داره؛ مثلاً اجرای ابزار منطقی روی کدهای خیلی پیچیده یا زبان‌های پویا ممکنه سخت باشه.

🔸 نتیجه‌گیری

✔️ ترکیب هوش مصنوعی و منطق دقیق، روش بهتری برای بررسی کد ارائه می‌ده.
این روش می‌تونه در ابزارهای واقعی مثل IDEها یا سیستم‌های کنترل نسخه (مثلاً گیت‌هاب) استفاده بشه.
در آینده می‌شه این روش رو برای زبان‌های مختلف یا ابزارهای تعاملی توسعه داد.

خلاصه که برای ریویو کدهاتون فقط از مدل های زبانی بزرگ استفاده نکنید 🙏

Experiments

⭐️ They used a public dataset called CodexGlue (has examples of code + comments).

Tried their system with 3 popular code-understanding models:

CodeT5

CodeBERT

GraphCodeBERT

Compared:

Just using the AI alone

Their combo system (AI + logic)

🔸 Results

The combo system gave more accurate and meaningful reviews
It caught logic errors that pure AI missed
It gave better suggestions for fixing problems
It didn’t slow things down much — still fast
Less false alarms ("this is wrong" when it’s not)

🔸 Discussion

🧢 AI is great at understanding natural language and common patterns.

But AI can hallucinate (make stuff up).

The logic checker acts like a strict teacher who says “Hold on, is this really true?”

Together, they catch more bugs and give clearer reviews.

However, the logic checker can be tricky to set up for messy or dynamic code.

🔸 Conclusion

💡 Smart combo: AI + logic checking makes code review better
💡 Helps catch bugs AI alone might miss
💡 Gives developers clearer and more useful feedback
💡 Could be used in real tools (like GitHub Copilot but smarter)


🔰 @scopeofai | #papers
1🔥1💅1
بنچ‌مارک MMLU چیه؟

MMLU = Massive Multitask Language Understanding


📊 یه آزمون خیلی بزرگه با ‏۱۵٬۹۰۰ سوال چندگزینه‌ای در ۵۷ موضوع متنوع مثل ریاضی، تاریخ، حقوق، علوم پزشکی و ...

برای اینکه ببینن مدل چقدر بلده از دانسته‌هاش استفاده کنه و جواب درست بده.

🔫 مدل تو یه حالت Zero-shot (بدون هیچ مثال قبلی) یا Few-shot (با چند مثال خیلی کم) باید سوالات چهار‌گزینه‌ای رو جواب بده. یعنی فقط متکیه به دانسته‌هایی که قبلن تو مرحله‌ی pretraining یاد گرفته.


مدل‌های پیشرفته امروزی (مثل GPT‑4 و Claude) با کسب حدود ۸۸–۹۰٪ دقت توی این آزمون، تقریباً هم‌رده متخصصان انسانی بودن.

📊 MMLU is a huge test with 15,900 multiple-choice questions across 57 diverse subjects like math, history, law, and medical sciences.

The goal is to see how well a model can use its knowledge to answer correctly.

The model answers four-choice questions in zero-shot (no prior examples) or few-shot (very few examples) settings, relying only on what it learned during pretraining 🔫.


📰 @scopeofai | #news
🤓1💅1
🧴فقط توی بازه ۵ ساله نمرات اینقدر افزايش داشتن. هم ترسناکه و هم خیلی جالب...

🧴Only within a 5-year span have the scores increased this much. It’s both scary and fascinating...


📰 @scopeofai | #news
🔥1💅1
🎞 هوش مصنوعی NotebookLM یه ویژگی جدید به اسم «Video Overview» اضافه کرده


🗯 الان می‌تونی از یادداشت‌هات، PDFها یا مستندات، ویدیوی خلاصه‌ای با صدا و اسلاید درست کنی و توش عکس، نمودار، نقل‌قول و عدد بیاری.

می‌تونی مشخص کنی موضوع چی باشه، با چه لحن و به چه مخاطبی.

☁️ پنل Studio هم آپدیت شده: چهار تا گزینه داره (Audio, Video, Mind Map, Report) و حالا می‌تونی چندتا خروجی از هر نوع توی همون نوت‌بوک بسازی، راحت مثل آب خوردن.

Now you can turn your notes, PDFs, or docs into short narrated video slideshows, with visuals like diagrams, quotes, and numbers pulled from your sources.

☁️ You can customize things like the tone, focus topics, and even the target audience so the video feels tailored to your needs.

They also refreshed the Studio panel: now you get four big buttons for creating Audio Overviews, Video Overviews, Mind Maps, or Reports—all in one notebook.


https://techcrunch.com/2025/07/29/googles-notebooklm-rolls-out-video-overviews/

📰 @scopeofai | #news
💅2
👩‍🏫 یه قابلیت جدید به ChatGPT اضافه شده به اسم “Study Mode”

توی این حالت به جای اینکه مستقیم جواب سوالت رو بده، ازت سوال می‌پرسه، راهنماییت می‌کنه و کمکت می‌کنه تا مرحله‌به‌مرحله خودت رو به جواب برسونی.

بسته به سابقه‌ات (اگه مموریت فعال باشه)، درس رو شخصی‌سازی می‌کنه و حتی ازت یه آزمون کوچیک هم می‌گیره

می‌تونی هر وقت خواستی از طریق Tools → Study Mode فعال/غیرفعالش کنی.

🎓 خبر خوب اینه که الان برای همه در دسترسه و می‌تونی ازش استفاده کنی.

👩‍🏫OpenAI just added a new “Study Mode” to ChatGPT – it’s like a built-in tutor that won’t just hand you the answer.
Instead of doing your homework for you, Study Mode asks questions, gives hints, and helps you think through tough problems step by step
It adjusts to your level and goals based on your past chats (if memory is ON), and even throws in quizzes and feedback
🎓 You can flip it on/off anytime via the Tools → Study Mode menu. Available to
Free, Plus, Pro, and Team users now, with Edu users getting it soon


📰 @scopeofai | #news
🔥1💅1
🐠 یه تیم مهندسی که قبلاً توی Google X بودن، رفتن نروژ. یه مسیر فلزی زیر آب ساختن که ماهی‌های سالمون ازش رد می‌شن و با کمک دوربین‌های مخصوص و هوش مصنوعی، وزن، تغذیه و حتی علائم بیماری ماهی‌ها رو لحظه‌به‌لحظه بررسی می‌کنن.

این پروژه که اسمش Tidalئه، تونسته تا الان توی بیش از ۷۰۰ قفس پرورش ماهی در دنیا راه بیفته و کمک کنه غذای کمتری هدر بره، ماهی‌ها سالم‌تر بمونن و مرگ‌ومیر کمتر بشه.

🎣 هوش مصنوعی کم‌کم داره وارد دنیای زیر آب می‌شه. این بار خیلی جدی.

A group of engineers from Google’s Moonshot lab went to Norway and built a fish "racetrack" to collect data on salmon. Their startup, Tidal, uses AI and underwater cameras to track fish weight, health, and feeding in real time.

Their tech helps salmon farms reduce waste, spot diseases early, and grow fish more efficiently. It started as an experiment but now runs in over 700 pens worldwide.


https://spectrum.ieee.org/aquaculture

📰 @scopeofai | #news
🔥1💅1
🐘 گوگل مدل جدیدی رو به اسم ‘Gemini 2.5 Deep Think’ معرفی کرد

این مدل چندتا ایجنت از خودش رو هم‌زمان فعال می‌کنه تا بتونه چند تا ایده رو با هم مقایسه کنه، بررسی‌شون کنه و بهترین جواب رو انتخاب کنه.

🎖 این مدل باعث شد گوگل توی المپیاد ریاضی ۲۰۲۵ مدال طلا بگیره.

الان تو اپ Gemini برای مشترکین Ultra (ماهانه حدود ۲۵۰ دلار) قابل‌دسترسه و نسخه API برای توسعه‌دهنده‌ها هم به زودی عرضه می‌شه.

Google rolls out ‘Gemini 2.5 Deep Think. It spawns multiple agents working in parallel, so it can brainstorm, refine, and choose the best answer—like giving the AI more time to think. 🐘
It even helped Google win a gold medal at the 2025 Math Olympiad 🎖
It’s available now inside the Gemini app for $250/month Ultra subscribers. Developers will get API access soon too.


📰 @scopeofai | #news
🔥2💅1
چطوری یه LLM روی لپ‌تاپت اجرا کنی؟

💻 تکنولوژی ریویو میگه الان مدل‌های هوش مصنوعی اون‌قدر سبک شدن که دیگه نیازی به سرور ندارن، روی لپ‌تاپ خودتم می‌تونی اجراشون کنی

با نرم‌افزارهایی مثل Ollamaیا LM Studio ، می‌تونی مدل‌ها رو از Hugging Face انتخاب و روی سیستم خودت چت کنی

🎛 هر مدل ۱ میلیارد پارامتری، حدود ۱ گیگ RAM نیاز داره. یعنی با ۱۶ گیگ رم و بدون اجرای برنامه‌های دیگه، می‌تونی مدل‌های ۱۴B هم اجرا کنی
How to Run an LLM on Your Laptop: MIT Technology Review explains that thanks to model miniaturization and smarter tools, you can now run powerful large language models—like Qwen or Llama—directly on your laptop, no cloud needed

Apps like Ollama (CLI-based) and LM Studio (GUI-based) let you pick, download, and chat with local models easily

running a billion-parameter model needs about 1 GB of RAM—so a 16 GB laptop could handle a 14B model if nothing else is running
https://www.technologyreview.com/2025/07/17/1120391/how-to-run-an-llm-on-your-laptop/

📰 @scopeofai | #news
🖥 توی مسابقه‌ی جهانی AtCoder Heuristic Contest، یکی از پیچیده‌ترین مسابقات برنامه‌نویسی، ۱۱ تا برنامه‌نویس برتر دنیا (با دعوت مستقیم بر اساس رنک جهانی) با یه مدل هوش مصنوعی طراحی‌شده توسط OpenAI رقابت کردن.

در نهایت، پژمیشواف دمبیاک (ملقب به Psyho) تونست مقام اول رو کسب کنه و هوش مصنوعی OpenAI با اختلاف ۹.۵٪ دوم شد.

💊 پژمیشواف گفت:

«الان هنوز بهترین انسان‌ها تو منطق و حل مسئله از AI بهترن، ولی ما محدودیم به اینکه چقدر سریع می‌تونیم تایپ کنیم، در حالی که AI با سرعت می‌تونه هزاران بار راه‌حل رو تست کنه. شاید من آخرین نفری باشم که مقابل هوش مصنوعی پیروز می‌شه.»

💊 In the AtCoder Heuristic Contest, 11 of the world’s top-ranked coders competed against a custom algorithm built by OpenAI.
🖥 The winner? Przemysław Dębiak (aka Psyho), a top competitive coder, who beat the AI by 9.5%. OpenAI’s model came second,
Psyho said:
“Right now, top humans are still better at logic and problem-solving — but we’re bottlenecked by typing.


📰 @scopeofai | #news
🤯2🔥1
🚫 شرکت xAI با رباتش «Grok Imagine» حالا یه ابزار تولید تصویر و ویدیو ساخته که اجازه می‌ده با وارد کردن متن یا عکس، ویدیوی حداکثر ۱۵ ثانیه‌ای با صدا بسازی.

👾 نکته اینجاست؛ حالت «spicy mode» داره که می‌تونه محتوای جنسی (NSFW) تولید کنه. البته ممکنه بعضی از محتوا به‌خاطر فیلتر، تار یا محدود بشه، ولی انگار امکان تولید ویدیوهای نیمه‌برهنه وجود داره.

آیا این شروع تولید ازاد محتوای اروتیک با هوش مصنوعیه؟

Elon Musk’s AI tool Grok Imagine now lets users create 15-second videos with sound from text or image prompts. It even includes a "spicy mode" that enables creation of NSFW (sexually explicit) content—though some output is blurred or limited by filters. Semi-nude visuals are reportedly possible. Is this the start of free generation of ai erotic content?

https://techcrunch.com/2025/08/04/grok-imagine-xais-new-ai-image-and-video-generator-lets-you-make-nsfw-content/

📰 @scopeofai | #news
💅1
With so many LLM papers being published, it's hard to keep up and compare results. This study introduces a semi-automated method that uses LLMs to extract and organize experimental results from arXiv papers into a structured dataset called LLMEvalDB. This process cuts manual effort by over 93%. It reproduces key findings from earlier studies and even uncovers new insights—like how in-context examples help with coding and multimodal tasks, but not so much with math reasoning. The dataset updates automatically, making it easier to track LLM performance over time and analyze trends.

📂 Paper: https://arxiv.org/pdf/2502.18791

▫️@scopeofai
▫️@LLM_learning
🔥1
🛡شرکت OpenAI دو مدل جدید منطق‌محور gpt‑oss‑120b و gpt‑oss‑20b منتشر کرده که کدشون بازه و می‌تونی رایگان از Hugging Face دانلودشون کنی.

مدل بزرگ‌تر رو یه کارت NVIDIA اجرا می‌کنه، مدل کوچیک‌تر رو می‌تونی روی لپ‌تاپی با رم ۱۶ گیگ استفاده کنی.

📊 عملکردشون تقریبا با مدل‌های o‑series برابره و از مدل‌های باز دیگه بهترن، ولی هنوز کمی ضعیف‌تر از o3 یا o4‑mini هستن.

OpenAI just launched two new open‑weight reasoning models called gpt‑oss‑120b and gpt‑oss‑20b. They’re free to download on Hugging Face. The bigger one runs on a single NVIDIA GPU; the smaller one works on a regular laptop. They perform about as well as OpenAI’s o‑series models, and better than other open models—but still a bit weaker than o3 or o4‑mini. The catch is they hallucinate more. These are the first fully open models since GPT‑2, under an Apache 2.0 license.


📰 @scopeofai | #news
🔥2
رونمایی از GPT-5 فردا ساعت ۲۰:۳۰ :))))))
🔥3
💡 گوگل بالاخره دستیار کدنویسیش به اسم «Jules» رو از حالت آزمایشی خارج کرد. این ابزار با مدل هوش مصنوعی Gemini 2.5 Pro کار می‌کنه، پروژه‌هات رو از گیت‌هاب می‌کشه توی فضای ابری، و خودش کد رو درست یا آپدیت می‌کنه تا تو بری سراغ قسمت‌های جذاب‌تر. رایگان یه پلن شروعی داری با ۱۵ تسک در روز.

💡 Google just took its AI coding assistant, “Jules,” out of beta. It uses Google's Gemini 2.5 Pro to quietly fix or update your code by cloning your GitHub projects into the cloud—so you can focus on the fun parts. You get a free intro plan with 15 tasks/day (down from 60 in beta), and there are paid Pro and Ultra versions if you need more power.


https://techcrunch.com/2025/08/06/googles-ai-coding-agent-jules-is-now-out-of-beta/

📰 @scopeofai | #news
:))))))))))
بچه ها لایواستریم رو از دست ندید
تیم OpenAI اعلام کرد GPT-5 برای تمام کاربران قابل استفادست. تمام کاربران!
🔥1
این نسخه بهترین نسخه توی کد زدنه. درجا واستون وب اپ می‌سازه
🔥1
🧲 مایکروسافت هم گفته که GPT-5 رو به همه‌ی محصولاتش اضافه می‌کنه، حتی توی GitHub Copilot و Visual Studio هم می‌تونی ازش استفاده کنی. این مدل انقدر قویه که می‌تونه پروژه‌های کدنویسی سنگین و پیچیده رو راحت انجام بده و توی انجام کارهای ایجنت‌محور طولانی خیلی خوب عمل می‌کنه.

یه حالت جدید به اسم Smart هم به Copilot اضافه شده که با استفاده از GPT-5 به سوال‌هات جواب می‌ده. رایگانه و از طریق نسخه‌ی وب یا اپ موبایلش می‌تونی راحت بهش دسترسی داشته باشی.

🧲 Microsoft also announced that it's bringing GPT-5 to all its products — even GitHub Copilot and Visual Studio now support it. This model is powerful enough to handle complex and long coding tasks, and it's much better at performing extended agent-style operation


📰 @scopeofai | #news
💸 مدل GPT-5 خیلی ارزون ارائه شده. ورودی یک‌میلیون توکن ۱.۲۵ دلار و خروجی ۱۰ دلار، که نسبت به رقبایی مثل Anthropic کلی زیر قیمته (اون‌ها تا ۱۵ دلار ورودی و ۷۵ دلار خروجی می‌گیرن).
این حرکت تهاجمی می‌تونه یه جنگی رو بین شرکت‌های هوش مصنوعی سر قیمت راه بندازه.

💸OpenAI made GPT-5 really cheap—like $1.25 per 1M input tokens and $10 per 1M output tokens, which is way lower than competitors (Anthropic charges up to $15 input / $75 output). This aggressive pricing could spark an AI price war in the industry

📰 @scopeofai | #news
👍2