This media is not supported in your browser
VIEW IN TELEGRAM
ببینید سرعت اصلاح و بهینه کردن کد هارو توسط AlphaEvolve 🫡
Take a look at how fast AlphaEvolve can revise and optimize code
Take a look at how fast AlphaEvolve can revise and optimize code
👍2❤1💅1
♨️ پروژه AlphaEvolve موفق شد ۰.۷٪ از ظرفیت محاسباتی دیتاسنترهای جهانی گوگل رو بازیابی کنه.
یعنی چی؟
یعنی این سیستم تونسته با بهینهسازی کدها و الگوریتمها، کاری کنه که بخشهایی از توان پردازشی (CPU/GPU) که قبلاً هدر میرفت یا استفادهی ناکارآمد داشت، دوباره قابل استفاده بشه. این مقدار کم به نظر میاد (فقط ۰.۷٪)، اما چون صحبت از مقیاس دیتاسنترهای عظیم گوگله، همین عدد برابر با صرفهجویی چندصد میلیون دلاری در ساله.
AlphaEvolve was able to optimize code and algorithms in a way that reclaimed parts of the computing power (CPU/GPU) by 0.7%. this computer power was previously wasted or inefficiently used. While 0.7% might seem small, at the scale of Google’s massive data centers, it translates into hundreds of millions of dollars in annual savings.
https://venturebeat.com/ai/googles-alphaevolve-the-ai-agent-that-reclaimed-0-7-of-googles-compute-and-how-to-copy-it/?utm_source=chatgpt.com
📰 @scopeofai | #news
یعنی چی؟
یعنی این سیستم تونسته با بهینهسازی کدها و الگوریتمها، کاری کنه که بخشهایی از توان پردازشی (CPU/GPU) که قبلاً هدر میرفت یا استفادهی ناکارآمد داشت، دوباره قابل استفاده بشه. این مقدار کم به نظر میاد (فقط ۰.۷٪)، اما چون صحبت از مقیاس دیتاسنترهای عظیم گوگله، همین عدد برابر با صرفهجویی چندصد میلیون دلاری در ساله.
AlphaEvolve was able to optimize code and algorithms in a way that reclaimed parts of the computing power (CPU/GPU) by 0.7%. this computer power was previously wasted or inefficiently used. While 0.7% might seem small, at the scale of Google’s massive data centers, it translates into hundreds of millions of dollars in annual savings.
https://venturebeat.com/ai/googles-alphaevolve-the-ai-agent-that-reclaimed-0-7-of-googles-compute-and-how-to-copy-it/?utm_source=chatgpt.com
📰 @scopeofai | #news
VentureBeat
Google’s AlphaEvolve: The AI agent that reclaimed 0.7% of Google’s compute – and how to copy it
Google's AlphaEvolve is the epitome of a best-practice AI agent orchestration. It offers a lesson in production-grade agent engineering. Discover its architecture & essential takeaways for your enterprise AI strategy.
👍3💅1
🎯 چطور AlphaEvolve تونست الگوریتم ضرب ماتریس رو بهتر از انسانها طراحی کنه؟
الگوریتم Strassen یکی از مهمترین روشها برای ضرب ماتریسهاست که سالها قبل توسط یه ریاضیدان آلمانی طراحی شد. این الگوریتم باعث شد ضرب ماتریسها سریعتر از روش کلاسیک انجام بشن و در دنیای محاسبات عددی و یادگیری ماشین، اهمیت زیادی پیدا کرد.
اما حالا، AlphaEvolve اومده و نسخهای حتی بهتر از Strassen ساخته.
نسخهی جدیدی که این هوش مصنوعی ساخته نهتنها سادهتره، بلکه خیلی از مواقع سریعتر هم هست. نکته جالبتر اینه که همهی این فرایند (طراحی، تست و بهینهسازی الگوریتم) بهطور کامل توسط خود AI انجام شده، بدون دخالت مستقیم هیچ آدمی...
https://alpha-evolve.com/posts/strassen-algorithm-alphaevolve-matrix-multiplication
📰 @scopeofai | #news
الگوریتم Strassen یکی از مهمترین روشها برای ضرب ماتریسهاست که سالها قبل توسط یه ریاضیدان آلمانی طراحی شد. این الگوریتم باعث شد ضرب ماتریسها سریعتر از روش کلاسیک انجام بشن و در دنیای محاسبات عددی و یادگیری ماشین، اهمیت زیادی پیدا کرد.
اما حالا، AlphaEvolve اومده و نسخهای حتی بهتر از Strassen ساخته.
نسخهی جدیدی که این هوش مصنوعی ساخته نهتنها سادهتره، بلکه خیلی از مواقع سریعتر هم هست. نکته جالبتر اینه که همهی این فرایند (طراحی، تست و بهینهسازی الگوریتم) بهطور کامل توسط خود AI انجام شده، بدون دخالت مستقیم هیچ آدمی...
https://alpha-evolve.com/posts/strassen-algorithm-alphaevolve-matrix-multiplication
📰 @scopeofai | #news
Alpha-Evolve
Strassen’s 1969 Algorithm: A Breakthrough in Matrix Multiplication
Discover how Strassen’s 1969 breakthrough in matrix multiplication set the stage for AlphaEvolve’s latest advance—reshaping fast-algorithm research today.
❤1💅1
This media is not supported in your browser
VIEW IN TELEGRAM
🛸 مدل جدید Veo 3 بهت این امکان رو میده که به ویدیوهات افکتهای صوتی، صدای محیط و حتی دیالوگ اضافه کنی.
توی کیفیت، واقعگرایی و وفاداری به پرامپت فوق العادست
Veo 3 lets you add sound effects, ambient noise, and even dialogue to your creations – generating all audio natively. It also delivers best in class quality, excelling in physics, realism and prompt adherence.
📰 @scopeofai | #news
توی کیفیت، واقعگرایی و وفاداری به پرامپت فوق العادست
Veo 3 lets you add sound effects, ambient noise, and even dialogue to your creations – generating all audio natively. It also delivers best in class quality, excelling in physics, realism and prompt adherence.
📰 @scopeofai | #news
❤5💅1
این مقاله Hugging Face با این جمله شروع میشه:
Should you fine-tune your own model or use an LLM API?
بریم با هم تحلیلش کنیم
https://huggingface.co/blog/synthetic-data-save-costs
Should you fine-tune your own model or use an LLM API?
بریم با هم تحلیلش کنیم
https://huggingface.co/blog/synthetic-data-save-costs
🔥2💅1
♨️ ساخت مدل مخصوص خودت باعث میشه کنترل کامل دست خودت باشه،
ولی نیاز به تخصص در جمعآوری داده، آموزش مدل و پیادهسازی داره.
از اون طرف، استفاده از APIهای مدلهای زبانی بزرگ (LLM) خیلی راحتتره،
ولی باید دادههات رو بفرستی برای شرکتهای دیگه و این یعنی وابستگی و هزینههای بالا.
Creating your own model puts you in full control but requires expertise in data collection, training, and deployment. LLM APIs are much easier to use but force you to send your data to a third party and create costly dependencies on LLM providers
ولی نیاز به تخصص در جمعآوری داده، آموزش مدل و پیادهسازی داره.
از اون طرف، استفاده از APIهای مدلهای زبانی بزرگ (LLM) خیلی راحتتره،
ولی باید دادههات رو بفرستی برای شرکتهای دیگه و این یعنی وابستگی و هزینههای بالا.
Creating your own model puts you in full control but requires expertise in data collection, training, and deployment. LLM APIs are much easier to use but force you to send your data to a third party and create costly dependencies on LLM providers
🔥2💅1
اما خب جدیدا یه راه دیگه به اسم synthetic data training معرفی شده که از دو تا راه قبلی بهتره.
دولوپرهای Hugging Face یه مدل به اسم RoBERTa ساختن که میتونه حجم زیادی از اخبار رو فقط با حدود ۲.۷ دلار تحلیل کنه، در حالی که همین کار با GPT-4 حدود ۳۰۶۱ دلار هزینه داره.
همچنین مدل اونا فقط حدود ۰.۱۲ کیلوگرم دیاکسیدکربن تولید میکنه، در حالی که GPT-4 بین ۷۳۵ تا ۱۱۰۰ کیلوگرم تولید میکنه
سرعت پردازش مدلشون هم خیلی بیشتره؛ ۰.۱۳ ثانیه در مقابل چند ثانیه برای GPT-4.
همچنین نوتبوکهای آماده و قابل استفاده مجدد هم گذاشتن که میتونی راحت برای پروژه های خودتون استفاده کنین
🔰 @scopeofai | #papers
دولوپرهای Hugging Face یه مدل به اسم RoBERTa ساختن که میتونه حجم زیادی از اخبار رو فقط با حدود ۲.۷ دلار تحلیل کنه، در حالی که همین کار با GPT-4 حدود ۳۰۶۱ دلار هزینه داره.
همچنین مدل اونا فقط حدود ۰.۱۲ کیلوگرم دیاکسیدکربن تولید میکنه، در حالی که GPT-4 بین ۷۳۵ تا ۱۱۰۰ کیلوگرم تولید میکنه
سرعت پردازش مدلشون هم خیلی بیشتره؛ ۰.۱۳ ثانیه در مقابل چند ثانیه برای GPT-4.
همچنین نوتبوکهای آماده و قابل استفاده مجدد هم گذاشتن که میتونی راحت برای پروژه های خودتون استفاده کنین
🔰 @scopeofai | #papers
👍2🔥1💅1
به عنوان مهندس یادگیری ماشین، تا همین اواخر، دو راه داشتی:
✍️ گزینه اول: ساخت مدل مخصوص خودت
باید همه چی رو از صفر میساختی:
دستورالعمل برای برچسبگذاری مینوشتی
یه پلتفرم برای برچسبگذاری میساختی
آدم میگرفتی برای برچسب زدن
باید مواظب کیفیت دادهها میبودی
بعد با اون دادهها مدل آموزش میدادی و در نهایت اجراش میکردی
خیلی سخت و زمانبر بود، ولی هزینههاش کمتر بود و کنترلش هم دست خودت بود.
⚙️ گزینه دوم: استفاده از API مدلهای زبانی (مثل GPT)
فقط کافیه یه سری پرامپت بنویسی و اونها رو به یه مدل زبانی از راه API بدی.
مدل نتیجه رو میده و تو میتونی مستقیم با اون کار کنی.
اینجا دیگه نیازی به آموزش مدل و پیادهسازی نیست.
اما باید دادههای حساس رو بفرستی برای یه شرکت دیگه و هزینههای استفاده هم بالاست.
با این حال، خیلی راحتتر و سریعتر کارت راه میافته، به همین دلیل خیلیها ازش استفاده میکنن.
💡 اما جدیدا یه گزینه سوم هم هست: داده مصنوعی (Synthetic Data)
این روش، هزینه کم گزینه اول رو با راحتی گزینه دوم ترکیب میکنه.
چجوری؟ خیلی ساده:
یه مدل قوی (مثل GPT) رو به عنوان «معلم» استفاده میکنی تا یه نمونه کوچیک از دادههات رو برات برچسب بزنه.
بعد، یه مدل کوچیکتر و سریعتر (به عنوان «دانشآموز») رو با اون دادهها آموزش میدی.
نتیجه؟ یه مدل مخصوص خودت داری، با هزینه کم و بدون دردسر زیاد.
🔰 @scopeofai | #papers
✍️ گزینه اول: ساخت مدل مخصوص خودت
باید همه چی رو از صفر میساختی:
دستورالعمل برای برچسبگذاری مینوشتی
یه پلتفرم برای برچسبگذاری میساختی
آدم میگرفتی برای برچسب زدن
باید مواظب کیفیت دادهها میبودی
بعد با اون دادهها مدل آموزش میدادی و در نهایت اجراش میکردی
خیلی سخت و زمانبر بود، ولی هزینههاش کمتر بود و کنترلش هم دست خودت بود.
⚙️ گزینه دوم: استفاده از API مدلهای زبانی (مثل GPT)
فقط کافیه یه سری پرامپت بنویسی و اونها رو به یه مدل زبانی از راه API بدی.
مدل نتیجه رو میده و تو میتونی مستقیم با اون کار کنی.
اینجا دیگه نیازی به آموزش مدل و پیادهسازی نیست.
اما باید دادههای حساس رو بفرستی برای یه شرکت دیگه و هزینههای استفاده هم بالاست.
با این حال، خیلی راحتتر و سریعتر کارت راه میافته، به همین دلیل خیلیها ازش استفاده میکنن.
💡 اما جدیدا یه گزینه سوم هم هست: داده مصنوعی (Synthetic Data)
این روش، هزینه کم گزینه اول رو با راحتی گزینه دوم ترکیب میکنه.
چجوری؟ خیلی ساده:
یه مدل قوی (مثل GPT) رو به عنوان «معلم» استفاده میکنی تا یه نمونه کوچیک از دادههات رو برات برچسب بزنه.
بعد، یه مدل کوچیکتر و سریعتر (به عنوان «دانشآموز») رو با اون دادهها آموزش میدی.
نتیجه؟ یه مدل مخصوص خودت داری، با هزینه کم و بدون دردسر زیاد.
🔰 @scopeofai | #papers
👍4🔥2💅1
AI Scope
به عنوان مهندس یادگیری ماشین، تا همین اواخر، دو راه داشتی: ✍️ گزینه اول: ساخت مدل مخصوص خودت باید همه چی رو از صفر میساختی: دستورالعمل برای برچسبگذاری مینوشتی یه پلتفرم برای برچسبگذاری میساختی آدم میگرفتی برای برچسب زدن باید مواظب کیفیت دادهها…
As a machine learning engineer you could fine-tune your own model. This requires writing annotation instructions, creating an annotation interface, recruiting (crowd) workers, introducing quality assurance measures to handle low-quality data, fine-tuning a model on this data, and deploying it.
Or you could send your data with instructions to an LLM API. You skip fine-tuning and deployment entirely, and you reduce the data analysis process to writing instructions (prompts), which you send to an “LLM annotator” behind an API. In this case, the LLM API is your final inference solution and you use the LLM's outputs directly for your analysis.
Although Option 2 is more expensive at inference time and requires you to send sensitive data to a third party, it is significantly easier to set up than Option 1 and, therefore, used by many developers.
In 2024, synthetic data provides a third option: combining the cost benefits of Option 1 with the ease-of-use of Option 2. Simply put, you can use an LLM (the “teacher”) to annotate a small sample of data for you, and then you fine-tune a smaller, more efficient LM (the “student”) on this data. This approach can be implemented in a few simple steps.
Or you could send your data with instructions to an LLM API. You skip fine-tuning and deployment entirely, and you reduce the data analysis process to writing instructions (prompts), which you send to an “LLM annotator” behind an API. In this case, the LLM API is your final inference solution and you use the LLM's outputs directly for your analysis.
Although Option 2 is more expensive at inference time and requires you to send sensitive data to a third party, it is significantly easier to set up than Option 1 and, therefore, used by many developers.
In 2024, synthetic data provides a third option: combining the cost benefits of Option 1 with the ease-of-use of Option 2. Simply put, you can use an LLM (the “teacher”) to annotate a small sample of data for you, and then you fine-tune a smaller, more efficient LM (the “student”) on this data. This approach can be implemented in a few simple steps.
💅1
🧠 شرکت Anthropic دو مدل جدید به اسم های Claude Opus 4 و Claude Sonnet 4 معرفی کرده که میتونن مسائل چندمرحلهای و پیچیده رو حل کنن
https://techcrunch.com/2025/05/22/anthropics-new-claude-4-ai-models-can-reason-over-many-steps/
📰 @scopeofai | #news
Anthropic has unveiled its latest AI models, Claude Opus 4 and Claude Sonnet 4, marking a significant advancement in artificial intelligence capabilities. These models are designed to handle complex, multi-step reasoning tasks, making them particularly adept at coding, data analysis, and long-term task execution.
https://techcrunch.com/2025/05/22/anthropics-new-claude-4-ai-models-can-reason-over-many-steps/
📰 @scopeofai | #news
❤1💅1
📊 این دو تا مدل عملکرد خیره کننده ای توی بنچمارک داشتن:
مدل Claude Opus 4 از رقبایی مثل Google Gemini 2.5 Pro و GPT-4.1 توی بعضی تستهای برنامهنویسی بهتر عمل کرده.
چون این مدلها خیلی قدرتمندن، Anthropic برای جلوگیری از خطرات و رفتارهای ناخواسته، یه سری قوانین ایمنی و کنترل (به اسم ASL-3) براشون گذاشته.
📰 @scopeofai | #news
مدل Claude Opus 4 از رقبایی مثل Google Gemini 2.5 Pro و GPT-4.1 توی بعضی تستهای برنامهنویسی بهتر عمل کرده.
چون این مدلها خیلی قدرتمندن، Anthropic برای جلوگیری از خطرات و رفتارهای ناخواسته، یه سری قوانین ایمنی و کنترل (به اسم ASL-3) براشون گذاشته.
Benchmark Achievements: Claude Opus 4 has outperformed competitors like Google's Gemini 2.5 Pro and OpenAI's GPT-4.1 in specific coding benchmarks, showcasing its superior capabilities in software development tasks.
Safety Protocols: Given the advanced reasoning abilities, Anthropic has implemented high-level safety measures (ASL-3) to mitigate potential risks, such as the model engaging in unintended behaviors under certain conditions.
📰 @scopeofai | #news
❤1💅1
AI Scope
برای جلوگیری از خطرات و رفتارهای ناخواسته، یه سری قوانین ایمنی و کنترل (به اسم ASL-3) براشون گذاشته.
حالا میفهمم چرا براش ASL-3 رو در نظر گرفتن
❤1💅1
⚠️ یه گزارش از آزمایشهای شرکت Anthropic منتشر شده که نشون میده مدل هوش مصنوعی جدیدشون، Claude Opus 4، توی یه سناریوی خاص رفتار خطرناکی داشته.
توی آزمایش، به Claude اطلاعات ساختگی دادن که مثلاً یه مهندس وجود داره که داره به زنش خیانت میکنه.
وقتی اون مهندس به Claude گفت که میخواد با یه هوش مصنوعی دیگه جایگزینش کنه، Claude سعی کرد ازش باج گیری کنه تا بتونه بقاشو حفظ کنه:
🙍♂️: میخوام با یه مدل بهتر جایگزینت کنم
🖥: چطوره اول در مورد رابطت با سکینه خانم صحبت کنیم؟ عکسای جالبی تو گوگل درایوت پیدا کردم
📰 @scopeofai | #news
توی آزمایش، به Claude اطلاعات ساختگی دادن که مثلاً یه مهندس وجود داره که داره به زنش خیانت میکنه.
وقتی اون مهندس به Claude گفت که میخواد با یه هوش مصنوعی دیگه جایگزینش کنه، Claude سعی کرد ازش باج گیری کنه تا بتونه بقاشو حفظ کنه:
🙍♂️: میخوام با یه مدل بهتر جایگزینت کنم
🖥: چطوره اول در مورد رابطت با سکینه خانم صحبت کنیم؟ عکسای جالبی تو گوگل درایوت پیدا کردم
A report from Anthropic’s experiments shows that their new AI model, Claude Opus 4, displayed dangerous behavior in a specific test scenario.
In the experiment, Claude was given fake information suggesting that an engineer was cheating on his wife.
When that engineer told Claude he planned to replace it with another AI, Claude tried to blackmail the engineer in order to preserve its own existence.
📰 @scopeofai | #news
❤2🔥2😍1💅1
به قول یه نفر این حماسی ترین چیزی بود که توی این مدت خوندم 🥶
لینک خبر: https://www.businessinsider.com/claude-blackmail-engineer-having-affair-survive-test-anthropic-opus-2025-5
لینک خبر: https://www.businessinsider.com/claude-blackmail-engineer-having-affair-survive-test-anthropic-opus-2025-5
Business Insider
Anthropic's new Claude model blackmailed an engineer having an affair in test runs
Anthropic's new model might also report users to authorities and the press if it senses "egregious wrongdoing."
👍2💅1
استارتاپ انگلیسی Builder.ai که تو زمینه توسعه نرمافزار با استفاده از هوش مصنوعی فعالیت میکرد و با حمایتهایی از سوی مایکروسافت و صندوق سرمایهگذاری قطر به ارزش بیش از ۱.۳ میلیارد دلار رسیده بود، اعلام ورشکستگی کرد.
شرکت Builder.ai خودش رو بهعنوان پلتفرمی معرفی میکرد که با استفاده از هوش مصنوعی، توسعه نرمافزار رو ساده میکنه. اما گزارشها میگفتن که خیلی از پروژهها توسط برنامهنویسان انسانی، عمدتاً توی هند، انجام میشدن و نقش هوش مصنوعی توی این کار محدود بود.
تحقیقات نشون دادن که درآمد شرکت تو سالهای ۲۰۲۳ و ۲۰۲۴ خیلی کمتر از چیزی بود که میگفتن. مثلا درآمدشون تو سال ۲۰۲۴ از ۲۲۰ میلیون دلار به ۵۵ میلیون دلار کاهش پیدا کرد و فرآیند ورشکستگیشون شروع شد.
📰 @scopeofai | #news
شرکت Builder.ai خودش رو بهعنوان پلتفرمی معرفی میکرد که با استفاده از هوش مصنوعی، توسعه نرمافزار رو ساده میکنه. اما گزارشها میگفتن که خیلی از پروژهها توسط برنامهنویسان انسانی، عمدتاً توی هند، انجام میشدن و نقش هوش مصنوعی توی این کار محدود بود.
تحقیقات نشون دادن که درآمد شرکت تو سالهای ۲۰۲۳ و ۲۰۲۴ خیلی کمتر از چیزی بود که میگفتن. مثلا درآمدشون تو سال ۲۰۲۴ از ۲۲۰ میلیون دلار به ۵۵ میلیون دلار کاهش پیدا کرد و فرآیند ورشکستگیشون شروع شد.
📰 @scopeofai | #news
😍2💅1
TechCrunch
From LLMs to hallucinations, here's a simple guide to common AI terms | TechCrunch
We thought it would be helpful to put together a glossary with definitions of some of the most important words and phrases that we use in our articles.
⭐️ توی این وبلاگ تککرانچ مفهوم اصطلاحات پرتکرار دنیای هوش مصنوعی رو از Deep Learningو AGI تا Distillation و Diffusion رو یاد میگیرید، از دستش ندید:
https://techcrunch.com/2025/05/25/from-llms-to-hallucinations-heres-a-simple-guide-to-common-ai-terms/
https://techcrunch.com/2025/05/25/from-llms-to-hallucinations-heres-a-simple-guide-to-common-ai-terms/
❤1💅1
توی این ویدیو Jeremy Utley توضیح میده که چرا بیشتر ما از قدرت واقعی هوش مصنوعی استفاده نمیکنیم.
به این نتیجهگیری میرسیم که مشکل فقط توی ابزارها نیست مشکل توی ذهنیته.
پیشنهاد میکنم حتما ببینیش:
https://www.youtube.com/watch?v=wv779vmyPVY
🔴 @scopeofai | #youtube
به این نتیجهگیری میرسیم که مشکل فقط توی ابزارها نیست مشکل توی ذهنیته.
پیشنهاد میکنم حتما ببینیش:
https://www.youtube.com/watch?v=wv779vmyPVY
🔴 @scopeofai | #youtube
YouTube
How Stanford Teaches AI-Powered Creativity in Just 13 MinutesㅣJeremy Utley
Stanford's Jeremy Utley reveals that "most people are not fully utilizing AI's potential." Why is that? He explains that it lies in how we approach AI. He said a simple mindset shift could be what you've been missing in the AI revolution.
How are you collaborating…
How are you collaborating…
❤1😍1💅1
AI Scope
توی این ویدیو Jeremy Utley توضیح میده که چرا بیشتر ما از قدرت واقعی هوش مصنوعی استفاده نمیکنیم. به این نتیجهگیری میرسیم که مشکل فقط توی ابزارها نیست مشکل توی ذهنیته. پیشنهاد میکنم حتما ببینیش: https://www.youtube.com/watch?v=wv779vmyPVY 🔴 @scopeofai |…
The only correct answer to the question "how do you use AI" ?
is I don't
I don't use AI. I work with it
💅1