AI Scope
124 subscribers
180 photos
21 videos
17 files
108 links
Download Telegram
🚂 شرکت Perplexity که خودش حدود ۱۸ میلیارد دلار ارزش داره، پیشنهاد داده با ۳۴.۵ میلیارد دلار کروم رو از گوگل بخره.

هدفش اینه که با داشتن کروم و کاربرای میلیاردیش، مرورگر AI خودش (Comet) رو توسعه بده. قول داده کد کروم رو متن‌باز نگه داره و دو سال آینده ۳ میلیارد دلار سرمایه‌گذاری کنه ولی فعلاً گوگل نپذیرفته که بفروشه.

🕯 اگه این قراداد نهایی بشه داستان جذابی داریم که تعریف کنیم. آراویند سیرینیواس از همون اول شیفته گوگل بود و الان به قدرتی رسیده که دو برابر ارزش شرکتش می‌خواد هزینه کنه ولی مرورگر اصلی گوگل رو بخره...خیلی حماسی می‌شه.

Perplexity, an AI startup with a valuation of about $18 billion, just made a $34.5 billion all-cash bid to buy Google's Chrome browser. It wants Chrome’s 3 billion+ users for its own AI browser, Comet. The offer includes keeping Chrome open-source and investing $3 billion over two years—but Google hasn’t said it’ll sell


📰 @scopeofai | #news
🪩 سایت Promptly یه پلتفرم و کامیونیتی برای کساییه که پرامپت نوشتن رو جدی می‌گیرن. توش می‌تونی:

🔸 پروفایل شخصی خودتو بسازی

🔸 پرامپت‌های دسته‌بندی‌شده رو تو حوزه‌های مختلف پیدا کنی (از کدنویسی و مارکتینگ گرفته تا داستان‌نویسی و طراحی)

🔸 پرامپت‌های خودتو منتشر کنی

🔸 پرامپت‌های بقیه رو ذخیره یا امتحان کنی

Promptly is a dedicated platform and community for people who take prompt crafting seriously.

Here, you can:

🔸Create your personal profile and showcase your work

🔸Explore categorized prompts across different fields (coding, marketing, storytelling, design, and more)

🔸Publish your own prompts and get visibility

🔸Save and try prompts from other creators


🔗 https://searchpromptly.com/

🧰 @scopeofai | #tools
🪖 برنامه NotePlan سه چیز رو یک‌جا برات میاره: تقویم، لیست کارها و یادداشت‌ها.
هر روز، هفته یا ماه برات یه صفحه‌ی تازه می‌سازه که توش می‌تونی برنامه‌ریزی کنی، کارها رو زمان‌بندی کنی و یادداشت بنویسی. می‌تونی یادداشت‌ها رو به هم لینک بدی و کارهای تکراری رو هم مدیریت کنی. همه‌چی توی یه جا، مرتب و شخصی‌سازی‌شده.

🫧 NotePlan combines three things in one app: calendar, to-do lists, and notes. It creates fresh daily, weekly, or monthly pages so you can plan, schedule tasks, and jot down notes. You write in Markdown, link notes together, manage recurring or future tasks — all in one organized, customizable space.


🔗https://noteplan.co/

🧰 @scopeofai | #tools
2
شرکت Anthropic به مدل‌های Claude (نسخه Opus 4 و 4.1) یه قابلیت جدید اضافه کرده: حالا می‌تونن کل مکالمه رو خودشون ببندن، ولی فقط وقتی طرف درخواست‌های تاکسیک و آزاردهنده کنه. مثلاً موضوعات مربوط به کودکان یا خشونت جمعی. این کار برا ایمن‌تر شدنه و فقط به‌عنوان آخرین راه‌حل انجام می‌شه، وقتی همه راه‌ها امتحان شده باشن

Anthropic just gave some of its Claude AI models (Opus 4 and 4.1) a new trick: they can shut down a conversation if someone's being persistently abusive or asking for really toxic stuff (like anything involving minors or planning mass violence). It's not because the AI has feelings—it’s just a safety move. And it only happens as a last resort, after lots of attempts to redirect the chat. And if someone’s in crisis, it won’t end the conversation.


📰 @scopeofai | #news
This media is not supported in your browser
VIEW IN TELEGRAM
قابلیت‌های هوش مصنوعی توی ساخت ویدیو هرروز ترسناک‌تر می‌شه. توی مدت کم چقدر توی لب‌خوانی فقط پیشرفت داشته!

AI capabilities in making videos os getting crazier than ever before. Specially in lip syncing
🤠 یه مقاله بانمک خوندم امروز. در مورد اینکه یه مدل بسازیم مخصوص پیش‌بینی کردن اینکه آخر یه جمله چه ایموجی‌ای بذاریم بهتره.
بریم بیینیم در مورد چیه اصلا

I came across a funny article today. it was about building a model that predicts which emoji fits best at the end of a sentence.
Let’s check out what it’s all about!
چکیده

🚏 این پروژه پیش‌بینی ایموجی از روی متن‌های کوتاه (مثل توییت) رو با چهار مدل یادگیری عمیق بررسی می‌کنه:

شبکه ساده (Feedforward)، CNN، Transformer و BERT.

از دیتاست TweetEval استفاده شده و برای حل مشکل نامتوازن بودن کلاس‌ها (یعنی بعضی ایموجی‌ها خیلی بیشتر از بقیه میان)
از روش‌هایی مثل focal loss و منظم‌سازی استفاده کردن.

نتیجه‌ها نشون دادن که BERT بهترین عملکرد کلی رو داشت چون قبلاً آموزش دیده، ولی CNN تو ایموجی‌های نادر بهتر عمل کرد.

این تحقیق نشون می‌ده انتخاب معماری و تنظیم درست هایپرپارامترها برای پیش‌بینی ایموجی خیلی مهمه و می‌تونه به تعامل بهتر انسان و کامپیوتر کمک کنه.

Abstract (What’s the big picture?)
The paper studies how to predict which emoji best fits a short text (like a tweet). They test four deep learning models:

CNN (captures patterns in word sequences)

Transformer (self-attention to model relationships)

BERT (pretrained on lots of text, strongest)

BERT is best overall (because of pretraining and context handling).

🔰 @scopeofai | #papers

مقدمه / مسئله و هدف

🔍 کار این پروژه اینه که مدلی بسازه که بتونه تشخیص بده کدوم ایموجی بیشتر به یه پیام کوتاه می‌خوره.

این کار شبیه تحلیل احساساته، چون باید از روی کلمات حال‌وهوای متن رو بفهمه.

اهداف پروژه:

🔸 ساختن مدلی که بتونه پیام‌های کوتاه رو به ایموجی مناسب وصل کنه

🔸 بهتر کردن پیش‌بینی برای ایموجی‌های کم‌استفاده

🔸 مقایسه مدل‌ها و روش‌های تنظیمشون تا بفهمیم کدوم بهتر جواب می‌ده

🔸 ساختن مدلی که بتونه تغییر معنای ایموجی‌هارو بفهمه ( "😭" الان بیشتر به معنای خندیدن استفاده ميشه تا خود گریه)

Introduction

Emojis are like a shorthand for emotions in text. Predicting the right emoji is basically sentiment analysis with extra nuance.

Problem: Some emojis (❤️) appear way more often than others 🎄, making training biased.

Goal: Build models that don’t just predict frequent emojis, but also learn rare ones and handle context changes


🔰 @scopeofai | #papers
دیتاست

از دیتاست TweetEval استفاده کردن:

شامل دو ستون که ستون اول توییته و ستون دوم ایموجی‌ای که بهش نسبت داده می‌شه

۴۵هزار نمونه آموزش، ۵ هزار نمونه برای اعتبارسنجی و ۵۰ هزار تست.

مشکل: بعضی ایموجی‌ها (❤️) خیلی زیاد تکرار شدن، بعضی خیلی کم مثل 😏 یا 😅


Dataset

TweetEval Emoji Dataset (tweets + 20 emoji classes).

~45K training, 5K validation, 50K test.

Class imbalance: ❤️ is everywhere; 😏 or 😅 are rare.

This imbalance makes the problem realistic but harder

🔰 @scopeofai | #papers
نتایج

BERT: ٪بهترین عملکرد → دقت ۴۴
قوی روی ایموجی‌های پرکاربرد و مشخص (❤️، 🎄، 🇺🇸). ضعیف روی ایموجی‌های کمیاب یا مشابه.

CNN: ٪دقت ۳۳
خوب روی ایموجی‌هایی با الگوهای مشخص (🎄، 🔥).

Transformer: ٪دقت ~۳۰
بهتر از شبکه ساده، ولی overfitting زیاد.

شبکه ساده: ضعیف‌ترین (۲۸٪). خیلی ساده‌ست برای این کار.

Results

BERT: Best accuracy (44%) + best weighted F1 (0.45). Strong on frequent emojis and distinctive ones (❤️, 🎄, 🇺🇸). Weak on rare/ambiguous emojis.



CNN: Second best (33%). Great at spotting emojis tied to clear word patterns (🎄, 🔥).


Transformer: Moderate (30%). Better than feedforward but still overfit.


Feedforward: Weakest (28%). Too simple to capture nuance.


👉 BERT wins because of pretraining + context awareness. CNN is a good backup for spotting distinct keywords.


🔰 @scopeofai | #papers
نتیجه‌گیری

انتخاب معماری خیلی تاثیر داره. BERT بهترین بود چون از قبل آموزش دیده.

مشکل بزرگ: نامتوازن بودن داده‌ها (ایموجی قلب‌ خیلی بیشتر از بقیه بود).

همه‌ی مدل‌ها روی ایموجی‌های واضح خوب بودن ولی روی ایموجی‌های مشابه (💙💜❤️) یا کمیاب بد عمل کردن.

کاربردها: کیبورد گوشیت بهتر عمل می‌کنه، می‌شه با این مدل محتوای شبکه‌های اجتماعی رو بهتر درک کرد (شاید)

کارهای آینده: داده‌سازی بیشتر، مدل‌های ترکیبی، روش‌های جدید برای حل مشکل ایموجی‌های نادر

Conclusion

Architecture choice is crucial: simple models underperform, pretrained BERT dominates.

Imbalance is still a big issue: hearts dominate, subtle distinctions (💜 vs 💙 vs ❤️) are hard.

Applications: Smarter keyboards, content moderation, sentiment analysis improvements.

Future work: Data augmentation, hybrid models, contrastive learning.

👉 Core insight: Emoji prediction is a fun but serious testbed for emotional NLP—teaches us a lot about how models grasp subtle sentiment


🔰 @scopeofai | #papers
این خبر یه‌ذره قدیمیه اما بشنوینش:

🔵 شرکت متا به یه مهندس هوش مصنوعی‌ یک میلیارد دلار در ازای چهارسال کار پیشنهاد کرد

و طرف پیشنهاد رو رد کرد!

هزینه‌های که شرکت‌های تاپ برای کسب برتری توی حوزه هوش مصنوعی پرداخت می‌کنن واقعا عجیبه

⚫️ @scopeofai | #tweets
این هم رزومه اون فرد...
🐳 شرکت DeepSeek بی‌ سروصدا مدل جدیدش رو منتشر کرده: DeepSeek V3.1 با ۶۸۵ میلیارد پارامتر.

این مدل رو می‌تونید از Hugging Face رایگان دانلود کنید. ظرفیتش تا ۱۲۸ هزار توکن رو مدیریت می‌کنه ( یه کتاب ۴۰۰ صفحه‌‌ای رو توی یه لحظه می‌خونه)

DeepSeek just quietly dropped DeepSeek V3.1—a massive 685-billion parameter, open-source model now available on Hugging Face. It’s fast, handles up to 128,000 tokens in one go (like reading a 400-page book instantly), and competes with top-tier AIs from OpenAI and Anthropic. What’s cooler?


📰 @scopeofai | #news
👍1🤯1
🔏 به تازگی ChatGPT ویژگی جدید ساخت فلش‌کارت رو به خودش اضافه کرده و می‎‌‌تونه برای هر موضوعی که بخوایید براتون فلش‌کارت درست کنه. فقط باید توی پرامپتتون ذکر کنید که از quizgpt برای این کار استفاده کن

ChatGPT has recently added a new flashcard feature. It can now create flashcards for any topic you want . you just need to mention in your prompt that you want to use quizgpt for it.


📰 @scopeofai | #news
👍1