✍🏻 امروز یه مقاله خیلی کوتاه ولی جالب به چشمم خورد.
💻 عنوانش اینه: بررسی خودکار کد با استفاده از مدلهای زبانی بزرگ و منطق سمبولیک
یعنی ترکیب هوش مصنوعی (مثل چتجیپیتی) با ابزارهای منطقی برای بررسی دقیقتر کد برنامهنویسی.
🧶 بریم با هم تحلیلش کنیم...
🔰 @scopeofai | #papers
💻 عنوانش اینه: بررسی خودکار کد با استفاده از مدلهای زبانی بزرگ و منطق سمبولیک
یعنی ترکیب هوش مصنوعی (مثل چتجیپیتی) با ابزارهای منطقی برای بررسی دقیقتر کد برنامهنویسی.
🧶 بریم با هم تحلیلش کنیم...
✍🏻 Today i read a really short essay but an interesting one.
Automated Code Review Using Large Language Models with Symbolic Reasoning
💻 We’re teaching AI how to review code better by combining smart chatbots (like ChatGPT) with logic-based tools that actually understand how the code works.
🧶 Let's review it together...
🔰 @scopeofai | #papers
💅1
چکیده؛ ایده بزرگ چیه؟
🧑💻 بررسی دستی کدها وقتگیره و ممکنه کلی خطا داشته باشه.
مدلهای زبانی مثل GPT میتونن کمک کنن، اما همیشه دقیق نیستن.
🪢 این مقاله یک روش ترکیبی معرفی میکنه که مدلهای زبانی رو با ابزارهای منطقی (که ساختار و رفتار دقیق کد رو بررسی میکنن) ترکیب میکنه تا نتیجهای بهتر و قابلاعتمادتر ارائه بشه.
🔰 @scopeofai | #papers
🧑💻 بررسی دستی کدها وقتگیره و ممکنه کلی خطا داشته باشه.
مدلهای زبانی مثل GPT میتونن کمک کنن، اما همیشه دقیق نیستن.
🪢 این مقاله یک روش ترکیبی معرفی میکنه که مدلهای زبانی رو با ابزارهای منطقی (که ساختار و رفتار دقیق کد رو بررسی میکنن) ترکیب میکنه تا نتیجهای بهتر و قابلاعتمادتر ارائه بشه.
Abstract – What’s the big idea?
🧑💻 Code review (checking if code is good, clean, and bug-free) takes time and energy. People make mistakes.
LLMs (like ChatGPT) can help, but they sometimes give wrong or vague feedback.
This paper mixes AI with logical tools that double-check the code’s behavior (e.g., “will this crash?”, “is this variable used correctly?”). The mix makes the feedback smarter and more reliable.
🔰 @scopeofai | #papers
💅1
مقدمه؛ چرا به همچین چیزی نیاز داریم؟
🐌 بررسی کد جزو کارهای مهم در توسعه نرمافزاره ولی وقت زیادی میگیره.
مدلهای زبانی سریع عمل میکنن اما ممکنه نکات منطقی و دقیق رو متوجه نشن.
هدف مقاله اینه که سرعت و انعطاف مدلهای زبانی با دقت ابزارهای منطقی ترکیب کنه
🔰 @scopeofai | #papers
🐌 بررسی کد جزو کارهای مهم در توسعه نرمافزاره ولی وقت زیادی میگیره.
مدلهای زبانی سریع عمل میکنن اما ممکنه نکات منطقی و دقیق رو متوجه نشن.
هدف مقاله اینه که سرعت و انعطاف مدلهای زبانی با دقت ابزارهای منطقی ترکیب کنه
Introduction – Why do we need this?
🐌 Programmers spend a lot of time reviewing code.
Code reviews can be inconsistent because people have different styles.
AI tools are fast, but they don’t always understand the actual logic of the code.
The authors want to fix this by adding a second brain: a logical checker that looks at how the code works behind the scenes.
🔰 @scopeofai | #papers
💅1
کارهای مرتبط؛ چه چیزایی قبلا انجام شده؟
👩🏫 روشهای قبلی بیشتر به مدلهای زبانی متکی بودن، که بیشتر ظاهر کد رو میفهمن نه منطق دقیقش رو.
ابزارهای منطقی هم وجود دارن، اما خشک و محدودن.
اینجا نویسندهها این دو رو ترکیب کردن تا هم دقت بالا بره و هم انعطاف حفظ بشه.
🔰 @scopeofai | #papers
👩🏫 روشهای قبلی بیشتر به مدلهای زبانی متکی بودن، که بیشتر ظاهر کد رو میفهمن نه منطق دقیقش رو.
ابزارهای منطقی هم وجود دارن، اما خشک و محدودن.
اینجا نویسندهها این دو رو ترکیب کردن تا هم دقت بالا بره و هم انعطاف حفظ بشه.
Related Work – What has been done before?
👩🏫 People have tried using AI alone to review code.
These models are good at style and basic errors.
But they’re bad at deep logic, like checking if code always behaves correctly or crashes in edge cases.
Symbolic reasoning tools (used in compilers or formal methods) are good at logic but not flexible.
So why not combine both?
🔰 @scopeofai | #papers
💅1
روششناسی، این سیستم چطور کار میکنه؟
روش کار سیستمشون اینجوریه:
🔩 یه مدل هوش مصنوعی (مثل CodeT5 یا CodeBERT) کد رو میخونه و پیشنهاد میده.
یه موتور منطقی هم هست که با استفاده از استدلال سمبولیک، کد رو عمیقتر چک میکنه، مثلاً:
🔹آیا متغیرها درست استفاده شدن؟
🔹 ممکنه کد crash کنه؟
🔹 آیا باگ منطقی داره؟
بعد این دو تا رو با هم ترکیب میکنن تا بهینهتر در مورد کد کامنت بدن.
یعنی به جای اینکه فقط بگن «این اشتباهه»، میگن چرا اشتباهه و طوری که قابل فهم باشه.
🔰 @scopeofai | #papers
روش کار سیستمشون اینجوریه:
🔩 یه مدل هوش مصنوعی (مثل CodeT5 یا CodeBERT) کد رو میخونه و پیشنهاد میده.
یه موتور منطقی هم هست که با استفاده از استدلال سمبولیک، کد رو عمیقتر چک میکنه، مثلاً:
🔹آیا متغیرها درست استفاده شدن؟
🔹 ممکنه کد crash کنه؟
🔹 آیا باگ منطقی داره؟
بعد این دو تا رو با هم ترکیب میکنن تا بهینهتر در مورد کد کامنت بدن.
یعنی به جای اینکه فقط بگن «این اشتباهه»، میگن چرا اشتباهه و طوری که قابل فهم باشه.
Methodology – How does their system work?
Here’s what they built, in simple steps:
🔩 An AI model (like CodeT5 or CodeBERT) reads the code and makes suggestions.
A logic engine (symbolic reasoning tool) also checks the code for deep issues, like:
🔹Are variables used right?
🔹Could this crash?
🔹Is there a logic bug?
They combine both to make smarter review comments.
So instead of just saying “this is bad,” the tool says why it’s bad in a way that makes sense
🔰 @scopeofai | #papers
💅1
🔸 آزمایشها
⭐️ از دیتاست CodexGlue استفاده شده که شامل کد و توضیحاته.
سه مدل مختلف بررسی شدن: CodeT5، CodeBERT، GraphCodeBERT.
مقایسه کردن که نتیجه وقتی فقط از هوش مصنوعی استفاده میکنی چه فرقی داره با روش ترکیبی
🔸 نتایج
🧢 روش ترکیبی دقت بیشتری داشته
🧢 توانسته خطاهای منطقی بیشتری را شناسایی کند
🧢 پیشنهادهای کاربردیتر و کماشتباهتری داده
🧢 سرعت بررسی هم خوب بوده و زیاد کند نشده
🔸 بحث
⚠️ مدلهای زبانی در فهم الگوها و ساختارها قوی هستن، ولی ممکنه گاهی اشتباه کنن.
ابزارهای منطقی کمک میکنن این اشتباهات کم بشن.
این دو مکمل هم هستن.
البته چالشهایی هم وجود داره؛ مثلاً اجرای ابزار منطقی روی کدهای خیلی پیچیده یا زبانهای پویا ممکنه سخت باشه.
🔸 نتیجهگیری
✔️ ترکیب هوش مصنوعی و منطق دقیق، روش بهتری برای بررسی کد ارائه میده.
این روش میتونه در ابزارهای واقعی مثل IDEها یا سیستمهای کنترل نسخه (مثلاً گیتهاب) استفاده بشه.
در آینده میشه این روش رو برای زبانهای مختلف یا ابزارهای تعاملی توسعه داد.
خلاصه که برای ریویو کدهاتون فقط از مدل های زبانی بزرگ استفاده نکنید 🙏
🔰 @scopeofai | #papers
⭐️ از دیتاست CodexGlue استفاده شده که شامل کد و توضیحاته.
سه مدل مختلف بررسی شدن: CodeT5، CodeBERT، GraphCodeBERT.
مقایسه کردن که نتیجه وقتی فقط از هوش مصنوعی استفاده میکنی چه فرقی داره با روش ترکیبی
🔸 نتایج
🧢 روش ترکیبی دقت بیشتری داشته
🧢 توانسته خطاهای منطقی بیشتری را شناسایی کند
🧢 پیشنهادهای کاربردیتر و کماشتباهتری داده
🧢 سرعت بررسی هم خوب بوده و زیاد کند نشده
🔸 بحث
⚠️ مدلهای زبانی در فهم الگوها و ساختارها قوی هستن، ولی ممکنه گاهی اشتباه کنن.
ابزارهای منطقی کمک میکنن این اشتباهات کم بشن.
این دو مکمل هم هستن.
البته چالشهایی هم وجود داره؛ مثلاً اجرای ابزار منطقی روی کدهای خیلی پیچیده یا زبانهای پویا ممکنه سخت باشه.
🔸 نتیجهگیری
✔️ ترکیب هوش مصنوعی و منطق دقیق، روش بهتری برای بررسی کد ارائه میده.
این روش میتونه در ابزارهای واقعی مثل IDEها یا سیستمهای کنترل نسخه (مثلاً گیتهاب) استفاده بشه.
در آینده میشه این روش رو برای زبانهای مختلف یا ابزارهای تعاملی توسعه داد.
خلاصه که برای ریویو کدهاتون فقط از مدل های زبانی بزرگ استفاده نکنید 🙏
Experiments
⭐️ They used a public dataset called CodexGlue (has examples of code + comments).
Tried their system with 3 popular code-understanding models:
CodeT5
CodeBERT
GraphCodeBERT
Compared:
Just using the AI alone
Their combo system (AI + logic)
🔸 Results
✅ The combo system gave more accurate and meaningful reviews
✅ It caught logic errors that pure AI missed
✅ It gave better suggestions for fixing problems
✅ It didn’t slow things down much — still fast
✅ Less false alarms ("this is wrong" when it’s not)
🔸 Discussion
🧢 AI is great at understanding natural language and common patterns.
But AI can hallucinate (make stuff up).
The logic checker acts like a strict teacher who says “Hold on, is this really true?”
Together, they catch more bugs and give clearer reviews.
However, the logic checker can be tricky to set up for messy or dynamic code.
🔸 Conclusion
💡 Smart combo: AI + logic checking makes code review better
💡 Helps catch bugs AI alone might miss
💡 Gives developers clearer and more useful feedback
💡 Could be used in real tools (like GitHub Copilot but smarter)
🔰 @scopeofai | #papers
❤1🔥1💅1
بنچمارک MMLU چیه؟
MMLU = Massive Multitask Language Understanding
📊 یه آزمون خیلی بزرگه با ۱۵٬۹۰۰ سوال چندگزینهای در ۵۷ موضوع متنوع مثل ریاضی، تاریخ، حقوق، علوم پزشکی و ...
برای اینکه ببینن مدل چقدر بلده از دانستههاش استفاده کنه و جواب درست بده.
🔫 مدل تو یه حالت Zero-shot (بدون هیچ مثال قبلی) یا Few-shot (با چند مثال خیلی کم) باید سوالات چهارگزینهای رو جواب بده. یعنی فقط متکیه به دانستههایی که قبلن تو مرحلهی pretraining یاد گرفته.
مدلهای پیشرفته امروزی (مثل GPT‑4 و Claude) با کسب حدود ۸۸–۹۰٪ دقت توی این آزمون، تقریباً همرده متخصصان انسانی بودن.
📰 @scopeofai | #news
MMLU = Massive Multitask Language Understanding
📊 یه آزمون خیلی بزرگه با ۱۵٬۹۰۰ سوال چندگزینهای در ۵۷ موضوع متنوع مثل ریاضی، تاریخ، حقوق، علوم پزشکی و ...
برای اینکه ببینن مدل چقدر بلده از دانستههاش استفاده کنه و جواب درست بده.
🔫 مدل تو یه حالت Zero-shot (بدون هیچ مثال قبلی) یا Few-shot (با چند مثال خیلی کم) باید سوالات چهارگزینهای رو جواب بده. یعنی فقط متکیه به دانستههایی که قبلن تو مرحلهی pretraining یاد گرفته.
مدلهای پیشرفته امروزی (مثل GPT‑4 و Claude) با کسب حدود ۸۸–۹۰٪ دقت توی این آزمون، تقریباً همرده متخصصان انسانی بودن.
📊 MMLU is a huge test with 15,900 multiple-choice questions across 57 diverse subjects like math, history, law, and medical sciences.
The goal is to see how well a model can use its knowledge to answer correctly.
The model answers four-choice questions in zero-shot (no prior examples) or few-shot (very few examples) settings, relying only on what it learned during pretraining 🔫.
📰 @scopeofai | #news
🤓1💅1
🧴فقط توی بازه ۵ ساله نمرات اینقدر افزايش داشتن. هم ترسناکه و هم خیلی جالب...
📰 @scopeofai | #news
🧴Only within a 5-year span have the scores increased this much. It’s both scary and fascinating...
📰 @scopeofai | #news
🔥1💅1
🎞 هوش مصنوعی NotebookLM یه ویژگی جدید به اسم «Video Overview» اضافه کرده
🗯 الان میتونی از یادداشتهات، PDFها یا مستندات، ویدیوی خلاصهای با صدا و اسلاید درست کنی و توش عکس، نمودار، نقلقول و عدد بیاری.
میتونی مشخص کنی موضوع چی باشه، با چه لحن و به چه مخاطبی.
☁️ پنل Studio هم آپدیت شده: چهار تا گزینه داره (Audio, Video, Mind Map, Report) و حالا میتونی چندتا خروجی از هر نوع توی همون نوتبوک بسازی، راحت مثل آب خوردن.
https://techcrunch.com/2025/07/29/googles-notebooklm-rolls-out-video-overviews/
📰 @scopeofai | #news
🗯 الان میتونی از یادداشتهات، PDFها یا مستندات، ویدیوی خلاصهای با صدا و اسلاید درست کنی و توش عکس، نمودار، نقلقول و عدد بیاری.
میتونی مشخص کنی موضوع چی باشه، با چه لحن و به چه مخاطبی.
☁️ پنل Studio هم آپدیت شده: چهار تا گزینه داره (Audio, Video, Mind Map, Report) و حالا میتونی چندتا خروجی از هر نوع توی همون نوتبوک بسازی، راحت مثل آب خوردن.
Now you can turn your notes, PDFs, or docs into short narrated video slideshows, with visuals like diagrams, quotes, and numbers pulled from your sources.
☁️ You can customize things like the tone, focus topics, and even the target audience so the video feels tailored to your needs.
They also refreshed the Studio panel: now you get four big buttons for creating Audio Overviews, Video Overviews, Mind Maps, or Reports—all in one notebook.
https://techcrunch.com/2025/07/29/googles-notebooklm-rolls-out-video-overviews/
📰 @scopeofai | #news
💅2
👩🏫 یه قابلیت جدید به ChatGPT اضافه شده به اسم “Study Mode”
توی این حالت به جای اینکه مستقیم جواب سوالت رو بده، ازت سوال میپرسه، راهنماییت میکنه و کمکت میکنه تا مرحلهبهمرحله خودت رو به جواب برسونی.
بسته به سابقهات (اگه مموریت فعال باشه)، درس رو شخصیسازی میکنه و حتی ازت یه آزمون کوچیک هم میگیره
میتونی هر وقت خواستی از طریق Tools → Study Mode فعال/غیرفعالش کنی.
🎓 خبر خوب اینه که الان برای همه در دسترسه و میتونی ازش استفاده کنی.
📰 @scopeofai | #news
توی این حالت به جای اینکه مستقیم جواب سوالت رو بده، ازت سوال میپرسه، راهنماییت میکنه و کمکت میکنه تا مرحلهبهمرحله خودت رو به جواب برسونی.
بسته به سابقهات (اگه مموریت فعال باشه)، درس رو شخصیسازی میکنه و حتی ازت یه آزمون کوچیک هم میگیره
میتونی هر وقت خواستی از طریق Tools → Study Mode فعال/غیرفعالش کنی.
🎓 خبر خوب اینه که الان برای همه در دسترسه و میتونی ازش استفاده کنی.
👩🏫OpenAI just added a new “Study Mode” to ChatGPT – it’s like a built-in tutor that won’t just hand you the answer.
Instead of doing your homework for you, Study Mode asks questions, gives hints, and helps you think through tough problems step by step
It adjusts to your level and goals based on your past chats (if memory is ON), and even throws in quizzes and feedback
🎓 You can flip it on/off anytime via the Tools → Study Mode menu. Available to
Free, Plus, Pro, and Team users now, with Edu users getting it soon
📰 @scopeofai | #news
🔥1💅1
🐠 یه تیم مهندسی که قبلاً توی Google X بودن، رفتن نروژ. یه مسیر فلزی زیر آب ساختن که ماهیهای سالمون ازش رد میشن و با کمک دوربینهای مخصوص و هوش مصنوعی، وزن، تغذیه و حتی علائم بیماری ماهیها رو لحظهبهلحظه بررسی میکنن.
این پروژه که اسمش Tidalئه، تونسته تا الان توی بیش از ۷۰۰ قفس پرورش ماهی در دنیا راه بیفته و کمک کنه غذای کمتری هدر بره، ماهیها سالمتر بمونن و مرگومیر کمتر بشه.
🎣 هوش مصنوعی کمکم داره وارد دنیای زیر آب میشه. این بار خیلی جدی.
https://spectrum.ieee.org/aquaculture
📰 @scopeofai | #news
این پروژه که اسمش Tidalئه، تونسته تا الان توی بیش از ۷۰۰ قفس پرورش ماهی در دنیا راه بیفته و کمک کنه غذای کمتری هدر بره، ماهیها سالمتر بمونن و مرگومیر کمتر بشه.
🎣 هوش مصنوعی کمکم داره وارد دنیای زیر آب میشه. این بار خیلی جدی.
A group of engineers from Google’s Moonshot lab went to Norway and built a fish "racetrack" to collect data on salmon. Their startup, Tidal, uses AI and underwater cameras to track fish weight, health, and feeding in real time.
Their tech helps salmon farms reduce waste, spot diseases early, and grow fish more efficiently. It started as an experiment but now runs in over 700 pens worldwide.
https://spectrum.ieee.org/aquaculture
📰 @scopeofai | #news
🔥1💅1
🐘 گوگل مدل جدیدی رو به اسم ‘Gemini 2.5 Deep Think’ معرفی کرد
این مدل چندتا ایجنت از خودش رو همزمان فعال میکنه تا بتونه چند تا ایده رو با هم مقایسه کنه، بررسیشون کنه و بهترین جواب رو انتخاب کنه.
🎖 این مدل باعث شد گوگل توی المپیاد ریاضی ۲۰۲۵ مدال طلا بگیره.
الان تو اپ Gemini برای مشترکین Ultra (ماهانه حدود ۲۵۰ دلار) قابلدسترسه و نسخه API برای توسعهدهندهها هم به زودی عرضه میشه.
📰 @scopeofai | #news
این مدل چندتا ایجنت از خودش رو همزمان فعال میکنه تا بتونه چند تا ایده رو با هم مقایسه کنه، بررسیشون کنه و بهترین جواب رو انتخاب کنه.
🎖 این مدل باعث شد گوگل توی المپیاد ریاضی ۲۰۲۵ مدال طلا بگیره.
الان تو اپ Gemini برای مشترکین Ultra (ماهانه حدود ۲۵۰ دلار) قابلدسترسه و نسخه API برای توسعهدهندهها هم به زودی عرضه میشه.
Google rolls out ‘Gemini 2.5 Deep Think. It spawns multiple agents working in parallel, so it can brainstorm, refine, and choose the best answer—like giving the AI more time to think. 🐘
It even helped Google win a gold medal at the 2025 Math Olympiad 🎖
It’s available now inside the Gemini app for $250/month Ultra subscribers. Developers will get API access soon too.
📰 @scopeofai | #news
🔥2💅1
چطوری یه LLM روی لپتاپت اجرا کنی؟
💻 تکنولوژی ریویو میگه الان مدلهای هوش مصنوعی اونقدر سبک شدن که دیگه نیازی به سرور ندارن، روی لپتاپ خودتم میتونی اجراشون کنی
با نرمافزارهایی مثل Ollamaیا LM Studio ، میتونی مدلها رو از Hugging Face انتخاب و روی سیستم خودت چت کنی
🎛 هر مدل ۱ میلیارد پارامتری، حدود ۱ گیگ RAM نیاز داره. یعنی با ۱۶ گیگ رم و بدون اجرای برنامههای دیگه، میتونی مدلهای ۱۴B هم اجرا کنی
📰 @scopeofai | #news
💻 تکنولوژی ریویو میگه الان مدلهای هوش مصنوعی اونقدر سبک شدن که دیگه نیازی به سرور ندارن، روی لپتاپ خودتم میتونی اجراشون کنی
با نرمافزارهایی مثل Ollamaیا LM Studio ، میتونی مدلها رو از Hugging Face انتخاب و روی سیستم خودت چت کنی
🎛 هر مدل ۱ میلیارد پارامتری، حدود ۱ گیگ RAM نیاز داره. یعنی با ۱۶ گیگ رم و بدون اجرای برنامههای دیگه، میتونی مدلهای ۱۴B هم اجرا کنی
How to Run an LLM on Your Laptop: MIT Technology Review explains that thanks to model miniaturization and smarter tools, you can now run powerful large language models—like Qwen or Llama—directly on your laptop, no cloud neededhttps://www.technologyreview.com/2025/07/17/1120391/how-to-run-an-llm-on-your-laptop/
Apps like Ollama (CLI-based) and LM Studio (GUI-based) let you pick, download, and chat with local models easily
running a billion-parameter model needs about 1 GB of RAM—so a 16 GB laptop could handle a 14B model if nothing else is running
📰 @scopeofai | #news
🖥 توی مسابقهی جهانی AtCoder Heuristic Contest، یکی از پیچیدهترین مسابقات برنامهنویسی، ۱۱ تا برنامهنویس برتر دنیا (با دعوت مستقیم بر اساس رنک جهانی) با یه مدل هوش مصنوعی طراحیشده توسط OpenAI رقابت کردن.
در نهایت، پژمیشواف دمبیاک (ملقب به Psyho) تونست مقام اول رو کسب کنه و هوش مصنوعی OpenAI با اختلاف ۹.۵٪ دوم شد.
💊 پژمیشواف گفت:
«الان هنوز بهترین انسانها تو منطق و حل مسئله از AI بهترن، ولی ما محدودیم به اینکه چقدر سریع میتونیم تایپ کنیم، در حالی که AI با سرعت میتونه هزاران بار راهحل رو تست کنه. شاید من آخرین نفری باشم که مقابل هوش مصنوعی پیروز میشه.»
📰 @scopeofai | #news
در نهایت، پژمیشواف دمبیاک (ملقب به Psyho) تونست مقام اول رو کسب کنه و هوش مصنوعی OpenAI با اختلاف ۹.۵٪ دوم شد.
💊 پژمیشواف گفت:
«الان هنوز بهترین انسانها تو منطق و حل مسئله از AI بهترن، ولی ما محدودیم به اینکه چقدر سریع میتونیم تایپ کنیم، در حالی که AI با سرعت میتونه هزاران بار راهحل رو تست کنه. شاید من آخرین نفری باشم که مقابل هوش مصنوعی پیروز میشه.»
💊 In the AtCoder Heuristic Contest, 11 of the world’s top-ranked coders competed against a custom algorithm built by OpenAI.
🖥 The winner? Przemysław Dębiak (aka Psyho), a top competitive coder, who beat the AI by 9.5%. OpenAI’s model came second,
Psyho said:
“Right now, top humans are still better at logic and problem-solving — but we’re bottlenecked by typing.
📰 @scopeofai | #news
🤯2🔥1
🚫 شرکت xAI با رباتش «Grok Imagine» حالا یه ابزار تولید تصویر و ویدیو ساخته که اجازه میده با وارد کردن متن یا عکس، ویدیوی حداکثر ۱۵ ثانیهای با صدا بسازی.
👾 نکته اینجاست؛ حالت «spicy mode» داره که میتونه محتوای جنسی (NSFW) تولید کنه. البته ممکنه بعضی از محتوا بهخاطر فیلتر، تار یا محدود بشه، ولی انگار امکان تولید ویدیوهای نیمهبرهنه وجود داره.
آیا این شروع تولید ازاد محتوای اروتیک با هوش مصنوعیه؟
https://techcrunch.com/2025/08/04/grok-imagine-xais-new-ai-image-and-video-generator-lets-you-make-nsfw-content/
📰 @scopeofai | #news
👾 نکته اینجاست؛ حالت «spicy mode» داره که میتونه محتوای جنسی (NSFW) تولید کنه. البته ممکنه بعضی از محتوا بهخاطر فیلتر، تار یا محدود بشه، ولی انگار امکان تولید ویدیوهای نیمهبرهنه وجود داره.
آیا این شروع تولید ازاد محتوای اروتیک با هوش مصنوعیه؟
Elon Musk’s AI tool Grok Imagine now lets users create 15-second videos with sound from text or image prompts. It even includes a "spicy mode" that enables creation of NSFW (sexually explicit) content—though some output is blurred or limited by filters. Semi-nude visuals are reportedly possible. Is this the start of free generation of ai erotic content?
https://techcrunch.com/2025/08/04/grok-imagine-xais-new-ai-image-and-video-generator-lets-you-make-nsfw-content/
📰 @scopeofai | #news
💅1
With so many LLM papers being published, it's hard to keep up and compare results. This study introduces a semi-automated method that uses LLMs to extract and organize experimental results from arXiv papers into a structured dataset called LLMEvalDB. This process cuts manual effort by over 93%. It reproduces key findings from earlier studies and even uncovers new insights—like how in-context examples help with coding and multimodal tasks, but not so much with math reasoning. The dataset updates automatically, making it easier to track LLM performance over time and analyze trends.
📂 Paper: https://arxiv.org/pdf/2502.18791
▫️@scopeofai
▫️@LLM_learning
📂 Paper: https://arxiv.org/pdf/2502.18791
▫️@scopeofai
▫️@LLM_learning
🔥1
🛡شرکت OpenAI دو مدل جدید منطقمحور gpt‑oss‑120b و gpt‑oss‑20b منتشر کرده که کدشون بازه و میتونی رایگان از Hugging Face دانلودشون کنی.
مدل بزرگتر رو یه کارت NVIDIA اجرا میکنه، مدل کوچیکتر رو میتونی روی لپتاپی با رم ۱۶ گیگ استفاده کنی.
📊 عملکردشون تقریبا با مدلهای o‑series برابره و از مدلهای باز دیگه بهترن، ولی هنوز کمی ضعیفتر از o3 یا o4‑mini هستن.
📰 @scopeofai | #news
مدل بزرگتر رو یه کارت NVIDIA اجرا میکنه، مدل کوچیکتر رو میتونی روی لپتاپی با رم ۱۶ گیگ استفاده کنی.
📊 عملکردشون تقریبا با مدلهای o‑series برابره و از مدلهای باز دیگه بهترن، ولی هنوز کمی ضعیفتر از o3 یا o4‑mini هستن.
OpenAI just launched two new open‑weight reasoning models called gpt‑oss‑120b and gpt‑oss‑20b. They’re free to download on Hugging Face. The bigger one runs on a single NVIDIA GPU; the smaller one works on a regular laptop. They perform about as well as OpenAI’s o‑series models, and better than other open models—but still a bit weaker than o3 or o4‑mini. The catch is they hallucinate more. These are the first fully open models since GPT‑2, under an Apache 2.0 license.
📰 @scopeofai | #news
🔥2
💡 گوگل بالاخره دستیار کدنویسیش به اسم «Jules» رو از حالت آزمایشی خارج کرد. این ابزار با مدل هوش مصنوعی Gemini 2.5 Pro کار میکنه، پروژههات رو از گیتهاب میکشه توی فضای ابری، و خودش کد رو درست یا آپدیت میکنه تا تو بری سراغ قسمتهای جذابتر. رایگان یه پلن شروعی داری با ۱۵ تسک در روز.
https://techcrunch.com/2025/08/06/googles-ai-coding-agent-jules-is-now-out-of-beta/
📰 @scopeofai | #news
💡 Google just took its AI coding assistant, “Jules,” out of beta. It uses Google's Gemini 2.5 Pro to quietly fix or update your code by cloning your GitHub projects into the cloud—so you can focus on the fun parts. You get a free intro plan with 15 tasks/day (down from 60 in beta), and there are paid Pro and Ultra versions if you need more power.
https://techcrunch.com/2025/08/06/googles-ai-coding-agent-jules-is-now-out-of-beta/
📰 @scopeofai | #news