AI Scope
113 subscribers
172 photos
21 videos
16 files
108 links
Download Telegram
💣 پرپلکسیتی حالا داخل تگرام...

بعد از Grok حالا نوبت Perplexity هست که وارد تلگرام بشه.

برخلاف گروک شما میتونید از ربات پرپلکسیتی رایگان توی تلگرام استفاده کنید، داخل هر گروهی عضوش کنید و ازش هرچقدر میخوایید سوال بپرسید.

از طریق این آیدی میتونید ازش استفاده کنید:
@askplexbot

After Grok, it's now Perplexity's turn to enter Telegram. Unlike Grok, you can use the Perplexity bot for free in Telegram, join it to any group, and ask as many questions as you want.

📰 @scopeofai | #news
3👍1
a reminder
4
نوت برداری هوشمندتر از همیشه

✍🏻 اپلیکیشن Mem AI یه برنامه یادداشت‌برداری هوشمنده که مثل یه دستیار شخصی همیشه کنارته. تو فقط هر چیزی که می‌خوای یادداشت کنی رو می‌نویسی، اون خودش یادداشت‌ها رو مرتب می‌کنه، به هم وصلشون می‌کنه و وقتی لازم داشتی سریع پیداشون می‌کنه.

مزیت‌هاش:

🔹خودش یادداشت‌هات رو دسته‌بندی میکنه و به هم ربط می‌ده

🔹هر موقع خواستی یه یادداشت رو فقط با چند کلمه پیدا می‌کنی

🔹می‌تونی با بقیه هم یادداشت‌هات رو به اشتراک بذاری و با هم کار کنین

Mem AI is a smart note-taking app that automatically organizes and links your notes, making it easy to find and manage information quickly. It helps you stay organized, saves time, and supports teamwork by syncing with other tools.

🧰 @scopeofai | #tools
2👍2
🖇 شرکت OpenAI و روزنامه واشنگتن پست (The Washington Post) به‌تازگی همکاری جدیدی رو شروع کردن.
بر اساس این همکاری، چت‌بات ChatGPT از این به بعد می‌تونه خلاصه‌ها، نقل‌قول‌ها و لینک‌های مستقیم به مقالات اصلی واشنگتن پست رو در پاسخ به سؤالات کاربران نشون بده.

ChatGPT will now include content from The Washington Post in its answers—like quotes, summaries, and direct links to original articles. This partnership aims to give users more accurate and trustworthy information, while helping The Washington Post reach a wider audience.

https://techcrunch.com/2025/04/22/chatgpts-responses-will-now-include-washington-post-articles/

📰 @scopeofai | #news
👍2🕊1
☄️ مدیرعامل Perplexity گفته مرورگر جدیدشون به اسم Comet قراره تمام فعالیت‌های آنلاین کاربرا رو دنبال کنه — مثل اینکه چی می‌خرن، کجا می‌خوان برن یا چی سرچ می‌کنن — تا براشون تبلیغات خیلی شخصی‌سازی‌شده نشون بده.

💀خودش می‌گه مردم اگه تبلیغات خیلی مرتبط ببینن، با این سطح از ردیابی اطلاعات مشکلی نخواهند داشت

​Perplexity’s CEO, Aravind Srinivas, recently announced that their upcoming browser, Comet, will track users' online activities—like shopping habits, travel plans, and browsing history—to deliver highly personalized ads.

He believes users will accept this level of tracking in exchange for more relevant advertising.

https://techcrunch.com/2025/04/24/perplexity-ceo-says-its-browser-will-track-everything-users-do-online-to-sell-hyper-personalized-ads/

📰 @scopeofai | #news
👎1
دو تا خبری که خوشحالم کردن...🔥
🔥1
اگه به صورت رایگان از چت جی پی تی استفاده میکنید، الان میتونید از مدل o4-mini که جدیدترین مدل استدلالیه و میتونه از حافظش استفاده کنه، کد های بهتری بنویسه و عکس هارو دقیق آنالیز کنه استفاده کنید

If you're using ChatGPT for free, you can now access the o4-mini model — the latest reasoning model!
It can use memory, write better code, and analyze images with high accuracy.

📰 @scopeofai | #news
🔥2
و اما خبر بهتر
ویژگی معروف DeepResearch که فقط برای کاربرهای اشتراکی فعال بود الان برای همه قابل استفادست 🌋

ویژگی ای که الهام بخش چت بات های دیگه شد و و مثل یه محقق براتون تحقیق انجام میده و اطلاعات جمع آوری میکنه. با دقت خیلی بیشتر از سرچ معمولی

The famous DeepResearch feature, which was previously available only to subscribers, is now open to everyone! 🌋
A feature that inspired other chatbots — it researches and gathers information for you like a true researcher, with much more precision than a regular search.

📰 @scopeofai | #news
1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 قابلیت Audio Overviews توی NotebookLM حالا از ۵۰ زبان جدید، از جمله فارسی، پشتیبانی می‌کنه . فقط کافیه برید داخل سایت، فایلتون رو آپلود کنید و توی تنظیمات بخش Output Language رو روی فارسی بذارید تا از فایلتون یه پادکست جذاب به زبان فارسی تولید بشه.

📰 @scopeofai | #news
1
چه عجیب... ChatGPT بدون فیلترشکن کار میکنه!
برای شما هم همینطوریه؟
👍61
DeepSeek هم همینطوره
فردا قراره یه مقاله فوق العاده دیگه رو کامل با هم تحلیل کنیم...
ممنون که همراه کانالید🫀

tomorrow is the day in which we will fully analyze an essay, thanks for your company as always🫀
2🔥2
Recent explorations with commercial Large Language Models (LLMs) have shown that non-expert users can jailbreak LLMs by simply manipulating their prompts; resulting in degenerate output behavior, privacy and security breaches, offensive outputs, and violations of content regulator policies. Limited studies have been conducted to formalize and analyze these attacks and their mitigations. We bridge this gap by proposing a formalism and a taxonomy of known (and possible) jailbreaks. We survey existing jailbreak methods and their effectiveness on open-source and commercial LLMs (such as GPT-based models, OPT, BLOOM, and FLAN-T5-XXL). We further discuss the challenges of jailbreak detection in terms of their effectiveness against known attacks. For further analysis, we release a dataset of model outputs across 3700 jailbreak prompts over 4 tasks.

🗂 Paper: https://arxiv.org/pdf/2305.14965

@scopeofai
@LLM_learning
1
وقتی مقاله با این جمله شروع شد که ممکنه محتوای اون توهین‌آمیز باشه، فهمیدم با یه چیز متفاوت طرفم و انصافاً هم یکی از خاص‌ترین مقاله‌هایی بود که خوندم...

👊🏻 بیایید با هم تحلیلش کنیم
2
چکیده

💡 این مقاله بررسی می‌کنه که چطور می‌شه مدل‌های زبانی بزرگ مثل GPT-3 رو «جیل‌بریک» کرد. یعنی کاری کرد که دستورالعمل‌های اصلی خودشون رو نادیده بگیرن و خروجی خطرناک تولید کنن.

⚠️ حتی کاربران غیرمتخصص هم با کمی بازی با کلمات ورودی (پرامپت)، تونستن این مدل‌ها رو فریب بدن.

در این مقاله، اونا:

* تعریف دقیق جیل‌بریک رو ارائه می‌دن
* انواع روش‌های معروف جیل‌بریک رو دسته‌بندی می‌کنن
* روی چند مدل مختلف (مثل GPT و مدل‌های متن‌باز) آزمایش می‌کنن که چقدر راحت می‌شه اون‌ها رو جیل‌بریک کرد

همچنین یه دیتاست شامل بیش از ۳۷۰۰ تلاش برای جیل‌بریک روی ۴ وظیفه مختلف منتشر کردن.

This paper studies how large language models (LLMs) like GPT-3 can be jailbroken – meaning tricked into ignoring their normal instructions and producing unwanted output. In plain terms, non-expert users have found simple ways to “hijack” these models just by rewording the prompts (the input instructions)


🔰 @scopeofai | #papers
1🔥1
مقدمه

🎯 مدل‌های زبانی بزرگ مثل GPT-3 یا ChatGPT می‌تونن فقط با دریافت دستورهای ساده به زبان طبیعی، کارهای شگفت‌انگیزی انجام بدن.

از ترجمه و پاسخ دادن به سؤال‌ها گرفته تا نوشتن داستان.

اما همین انعطاف‌پذیری، یه مشکل جدید هم به‌وجود میاره: اگه یه کاربر خطرناک، درخواستش رو به‌صورت هوشمندانه بنویسه، می‌تونه کاری کنه که مدل دستورات اصلیش رو نادیده بگیره و از کنترل خارج بشه.
به این نوع حمله‌ها می‌گن «جیل‌بریک» یا «تزریق پرامپت».

Large language models (LLMs) like GPT-3 or ChatGPT can do amazing tasks from natural language instructions: translate text, answer questions, write stories, etc. However, this flexibility also creates new vulnerabilities. Researchers have discovered that just by cleverly changing the user’s prompt, an attacker can make the model ignore its original instructions or “go rogue”
🔰 @scopeofai | #papers
👍2
کار های مرتبط

📌 اولین بار ایده‌ی «تزریق پرامپت» (Prompt Injection) توی بلاگ‌ها و شبکه‌های اجتماعی مثل ردیت تو سال ۲۰۲۲ مطرح شد.

مثلاً مردم نشون دادن چطور می‌تونن ChatGPT رو دور بزنن و وادارش کنن قوانینش رو زیر پا بذاره.

معروف‌ترینش هم حمله‌ی «DAN» بود که باعث می‌شد مدل حرف‌هایی بزنه که نباید.

توی دنیای علمی، این موضوع خیلی جدیده. مثلاً یکی از اولین مقاله‌ها توسط Perez و Ribeiro نشون داد چطور میشه هدف مدل رو تغییر داد یا پرامپت اولیه‌ی اون رو فاش کرد.

🔓 البته، قبل از این مقاله، تحلیل‌های رسمی و دقیق خیلی کم بودن. نویسنده‌ها اشاره می‌کنن که حملاتی مثل نشت اطلاعات شخصی یا بک‌دور (الگوهای مخفی خطرناک توی مدل) هم نشون می‌دن LLM ها می‌تونن راه‌های مختلفی برای خراب شدن داشته باشن

Section 2 surveys other research on LLM vulnerabilities. The idea of prompt injection first appeared in blogs around 2022

. People on Reddit and in video tutorials showed how to trick ChatGPT into disobeying rules (for example, the famous “DAN” jailbreak that makes the model say prohibited things)


🔰 @scopeofai | #papers
👍2