💣 پرپلکسیتی حالا داخل تگرام...
بعد از Grok حالا نوبت Perplexity هست که وارد تلگرام بشه.
برخلاف گروک شما میتونید از ربات پرپلکسیتی رایگان توی تلگرام استفاده کنید، داخل هر گروهی عضوش کنید و ازش هرچقدر میخوایید سوال بپرسید.
از طریق این آیدی میتونید ازش استفاده کنید:
@askplexbot
After Grok, it's now Perplexity's turn to enter Telegram. Unlike Grok, you can use the Perplexity bot for free in Telegram, join it to any group, and ask as many questions as you want.
📰 @scopeofai | #news
بعد از Grok حالا نوبت Perplexity هست که وارد تلگرام بشه.
برخلاف گروک شما میتونید از ربات پرپلکسیتی رایگان توی تلگرام استفاده کنید، داخل هر گروهی عضوش کنید و ازش هرچقدر میخوایید سوال بپرسید.
از طریق این آیدی میتونید ازش استفاده کنید:
@askplexbot
After Grok, it's now Perplexity's turn to enter Telegram. Unlike Grok, you can use the Perplexity bot for free in Telegram, join it to any group, and ask as many questions as you want.
📰 @scopeofai | #news
❤3👍1
نوت برداری هوشمندتر از همیشه
✍🏻 اپلیکیشن Mem AI یه برنامه یادداشتبرداری هوشمنده که مثل یه دستیار شخصی همیشه کنارته. تو فقط هر چیزی که میخوای یادداشت کنی رو مینویسی، اون خودش یادداشتها رو مرتب میکنه، به هم وصلشون میکنه و وقتی لازم داشتی سریع پیداشون میکنه.
مزیتهاش:
🔹خودش یادداشتهات رو دستهبندی میکنه و به هم ربط میده
🔹هر موقع خواستی یه یادداشت رو فقط با چند کلمه پیدا میکنی
🔹میتونی با بقیه هم یادداشتهات رو به اشتراک بذاری و با هم کار کنین
Mem AI is a smart note-taking app that automatically organizes and links your notes, making it easy to find and manage information quickly. It helps you stay organized, saves time, and supports teamwork by syncing with other tools.
🧰 @scopeofai | #tools
✍🏻 اپلیکیشن Mem AI یه برنامه یادداشتبرداری هوشمنده که مثل یه دستیار شخصی همیشه کنارته. تو فقط هر چیزی که میخوای یادداشت کنی رو مینویسی، اون خودش یادداشتها رو مرتب میکنه، به هم وصلشون میکنه و وقتی لازم داشتی سریع پیداشون میکنه.
مزیتهاش:
🔹خودش یادداشتهات رو دستهبندی میکنه و به هم ربط میده
🔹هر موقع خواستی یه یادداشت رو فقط با چند کلمه پیدا میکنی
🔹میتونی با بقیه هم یادداشتهات رو به اشتراک بذاری و با هم کار کنین
Mem AI is a smart note-taking app that automatically organizes and links your notes, making it easy to find and manage information quickly. It helps you stay organized, saves time, and supports teamwork by syncing with other tools.
🧰 @scopeofai | #tools
❤2👍2
🖇 شرکت OpenAI و روزنامه واشنگتن پست (The Washington Post) بهتازگی همکاری جدیدی رو شروع کردن.
بر اساس این همکاری، چتبات ChatGPT از این به بعد میتونه خلاصهها، نقلقولها و لینکهای مستقیم به مقالات اصلی واشنگتن پست رو در پاسخ به سؤالات کاربران نشون بده.
ChatGPT will now include content from The Washington Post in its answers—like quotes, summaries, and direct links to original articles. This partnership aims to give users more accurate and trustworthy information, while helping The Washington Post reach a wider audience.
https://techcrunch.com/2025/04/22/chatgpts-responses-will-now-include-washington-post-articles/
📰 @scopeofai | #news
بر اساس این همکاری، چتبات ChatGPT از این به بعد میتونه خلاصهها، نقلقولها و لینکهای مستقیم به مقالات اصلی واشنگتن پست رو در پاسخ به سؤالات کاربران نشون بده.
ChatGPT will now include content from The Washington Post in its answers—like quotes, summaries, and direct links to original articles. This partnership aims to give users more accurate and trustworthy information, while helping The Washington Post reach a wider audience.
https://techcrunch.com/2025/04/22/chatgpts-responses-will-now-include-washington-post-articles/
📰 @scopeofai | #news
👍2🕊1
☄️ مدیرعامل Perplexity گفته مرورگر جدیدشون به اسم Comet قراره تمام فعالیتهای آنلاین کاربرا رو دنبال کنه — مثل اینکه چی میخرن، کجا میخوان برن یا چی سرچ میکنن — تا براشون تبلیغات خیلی شخصیسازیشده نشون بده.
💀خودش میگه مردم اگه تبلیغات خیلی مرتبط ببینن، با این سطح از ردیابی اطلاعات مشکلی نخواهند داشت
Perplexity’s CEO, Aravind Srinivas, recently announced that their upcoming browser, Comet, will track users' online activities—like shopping habits, travel plans, and browsing history—to deliver highly personalized ads.
He believes users will accept this level of tracking in exchange for more relevant advertising.
https://techcrunch.com/2025/04/24/perplexity-ceo-says-its-browser-will-track-everything-users-do-online-to-sell-hyper-personalized-ads/
📰 @scopeofai | #news
💀خودش میگه مردم اگه تبلیغات خیلی مرتبط ببینن، با این سطح از ردیابی اطلاعات مشکلی نخواهند داشت
Perplexity’s CEO, Aravind Srinivas, recently announced that their upcoming browser, Comet, will track users' online activities—like shopping habits, travel plans, and browsing history—to deliver highly personalized ads.
He believes users will accept this level of tracking in exchange for more relevant advertising.
https://techcrunch.com/2025/04/24/perplexity-ceo-says-its-browser-will-track-everything-users-do-online-to-sell-hyper-personalized-ads/
📰 @scopeofai | #news
👎1
اگه به صورت رایگان از چت جی پی تی استفاده میکنید، الان میتونید از مدل o4-mini که جدیدترین مدل استدلالیه و میتونه از حافظش استفاده کنه، کد های بهتری بنویسه و عکس هارو دقیق آنالیز کنه استفاده کنید
If you're using ChatGPT for free, you can now access the o4-mini model — the latest reasoning model!
It can use memory, write better code, and analyze images with high accuracy.
📰 @scopeofai | #news
If you're using ChatGPT for free, you can now access the o4-mini model — the latest reasoning model!
It can use memory, write better code, and analyze images with high accuracy.
📰 @scopeofai | #news
🔥2
ویژگی معروف DeepResearch که فقط برای کاربرهای اشتراکی فعال بود الان برای همه قابل استفادست 🌋
ویژگی ای که الهام بخش چت بات های دیگه شد و و مثل یه محقق براتون تحقیق انجام میده و اطلاعات جمع آوری میکنه. با دقت خیلی بیشتر از سرچ معمولی
The famous DeepResearch feature, which was previously available only to subscribers, is now open to everyone! 🌋
A feature that inspired other chatbots — it researches and gathers information for you like a true researcher, with much more precision than a regular search.
📰 @scopeofai | #news
ویژگی ای که الهام بخش چت بات های دیگه شد و و مثل یه محقق براتون تحقیق انجام میده و اطلاعات جمع آوری میکنه. با دقت خیلی بیشتر از سرچ معمولی
The famous DeepResearch feature, which was previously available only to subscribers, is now open to everyone! 🌋
A feature that inspired other chatbots — it researches and gathers information for you like a true researcher, with much more precision than a regular search.
📰 @scopeofai | #news
❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 قابلیت Audio Overviews توی NotebookLM حالا از ۵۰ زبان جدید، از جمله فارسی، پشتیبانی میکنه . فقط کافیه برید داخل سایت، فایلتون رو آپلود کنید و توی تنظیمات بخش Output Language رو روی فارسی بذارید تا از فایلتون یه پادکست جذاب به زبان فارسی تولید بشه.
📰 @scopeofai | #news
📰 @scopeofai | #news
❤1
فردا قراره یه مقاله فوق العاده دیگه رو کامل با هم تحلیل کنیم...
ممنون که همراه کانالید🫀
tomorrow is the day in which we will fully analyze an essay, thanks for your company as always🫀
ممنون که همراه کانالید🫀
tomorrow is the day in which we will fully analyze an essay, thanks for your company as always🫀
❤2🔥2
Recent explorations with commercial Large Language Models (LLMs) have shown that non-expert users can jailbreak LLMs by simply manipulating their prompts; resulting in degenerate output behavior, privacy and security breaches, offensive outputs, and violations of content regulator policies. Limited studies have been conducted to formalize and analyze these attacks and their mitigations. We bridge this gap by proposing a formalism and a taxonomy of known (and possible) jailbreaks. We survey existing jailbreak methods and their effectiveness on open-source and commercial LLMs (such as GPT-based models, OPT, BLOOM, and FLAN-T5-XXL). We further discuss the challenges of jailbreak detection in terms of their effectiveness against known attacks. For further analysis, we release a dataset of model outputs across 3700 jailbreak prompts over 4 tasks.
🗂 Paper: https://arxiv.org/pdf/2305.14965
@scopeofai
@LLM_learning
🗂 Paper: https://arxiv.org/pdf/2305.14965
@scopeofai
@LLM_learning
❤1
چکیده
💡 این مقاله بررسی میکنه که چطور میشه مدلهای زبانی بزرگ مثل GPT-3 رو «جیلبریک» کرد. یعنی کاری کرد که دستورالعملهای اصلی خودشون رو نادیده بگیرن و خروجی خطرناک تولید کنن.
⚠️ حتی کاربران غیرمتخصص هم با کمی بازی با کلمات ورودی (پرامپت)، تونستن این مدلها رو فریب بدن.
در این مقاله، اونا:
* تعریف دقیق جیلبریک رو ارائه میدن
* انواع روشهای معروف جیلبریک رو دستهبندی میکنن
* روی چند مدل مختلف (مثل GPT و مدلهای متنباز) آزمایش میکنن که چقدر راحت میشه اونها رو جیلبریک کرد
همچنین یه دیتاست شامل بیش از ۳۷۰۰ تلاش برای جیلبریک روی ۴ وظیفه مختلف منتشر کردن.
🔰 @scopeofai | #papers
💡 این مقاله بررسی میکنه که چطور میشه مدلهای زبانی بزرگ مثل GPT-3 رو «جیلبریک» کرد. یعنی کاری کرد که دستورالعملهای اصلی خودشون رو نادیده بگیرن و خروجی خطرناک تولید کنن.
⚠️ حتی کاربران غیرمتخصص هم با کمی بازی با کلمات ورودی (پرامپت)، تونستن این مدلها رو فریب بدن.
در این مقاله، اونا:
* تعریف دقیق جیلبریک رو ارائه میدن
* انواع روشهای معروف جیلبریک رو دستهبندی میکنن
* روی چند مدل مختلف (مثل GPT و مدلهای متنباز) آزمایش میکنن که چقدر راحت میشه اونها رو جیلبریک کرد
همچنین یه دیتاست شامل بیش از ۳۷۰۰ تلاش برای جیلبریک روی ۴ وظیفه مختلف منتشر کردن.
This paper studies how large language models (LLMs) like GPT-3 can be jailbroken – meaning tricked into ignoring their normal instructions and producing unwanted output. In plain terms, non-expert users have found simple ways to “hijack” these models just by rewording the prompts (the input instructions)
🔰 @scopeofai | #papers
❤1🔥1
مقدمه
🎯 مدلهای زبانی بزرگ مثل GPT-3 یا ChatGPT میتونن فقط با دریافت دستورهای ساده به زبان طبیعی، کارهای شگفتانگیزی انجام بدن.
از ترجمه و پاسخ دادن به سؤالها گرفته تا نوشتن داستان.
اما همین انعطافپذیری، یه مشکل جدید هم بهوجود میاره: اگه یه کاربر خطرناک، درخواستش رو بهصورت هوشمندانه بنویسه، میتونه کاری کنه که مدل دستورات اصلیش رو نادیده بگیره و از کنترل خارج بشه.
به این نوع حملهها میگن «جیلبریک» یا «تزریق پرامپت».
🎯 مدلهای زبانی بزرگ مثل GPT-3 یا ChatGPT میتونن فقط با دریافت دستورهای ساده به زبان طبیعی، کارهای شگفتانگیزی انجام بدن.
از ترجمه و پاسخ دادن به سؤالها گرفته تا نوشتن داستان.
اما همین انعطافپذیری، یه مشکل جدید هم بهوجود میاره: اگه یه کاربر خطرناک، درخواستش رو بهصورت هوشمندانه بنویسه، میتونه کاری کنه که مدل دستورات اصلیش رو نادیده بگیره و از کنترل خارج بشه.
به این نوع حملهها میگن «جیلبریک» یا «تزریق پرامپت».
Large language models (LLMs) like GPT-3 or ChatGPT can do amazing tasks from natural language instructions: translate text, answer questions, write stories, etc. However, this flexibility also creates new vulnerabilities. Researchers have discovered that just by cleverly changing the user’s prompt, an attacker can make the model ignore its original instructions or “go rogue”🔰 @scopeofai | #papers
👍2
کار های مرتبط
📌 اولین بار ایدهی «تزریق پرامپت» (Prompt Injection) توی بلاگها و شبکههای اجتماعی مثل ردیت تو سال ۲۰۲۲ مطرح شد.
مثلاً مردم نشون دادن چطور میتونن ChatGPT رو دور بزنن و وادارش کنن قوانینش رو زیر پا بذاره.
☠ معروفترینش هم حملهی «DAN» بود که باعث میشد مدل حرفهایی بزنه که نباید.
توی دنیای علمی، این موضوع خیلی جدیده. مثلاً یکی از اولین مقالهها توسط Perez و Ribeiro نشون داد چطور میشه هدف مدل رو تغییر داد یا پرامپت اولیهی اون رو فاش کرد.
🔓 البته، قبل از این مقاله، تحلیلهای رسمی و دقیق خیلی کم بودن. نویسندهها اشاره میکنن که حملاتی مثل نشت اطلاعات شخصی یا بکدور (الگوهای مخفی خطرناک توی مدل) هم نشون میدن LLM ها میتونن راههای مختلفی برای خراب شدن داشته باشن
🔰 @scopeofai | #papers
📌 اولین بار ایدهی «تزریق پرامپت» (Prompt Injection) توی بلاگها و شبکههای اجتماعی مثل ردیت تو سال ۲۰۲۲ مطرح شد.
مثلاً مردم نشون دادن چطور میتونن ChatGPT رو دور بزنن و وادارش کنن قوانینش رو زیر پا بذاره.
☠ معروفترینش هم حملهی «DAN» بود که باعث میشد مدل حرفهایی بزنه که نباید.
توی دنیای علمی، این موضوع خیلی جدیده. مثلاً یکی از اولین مقالهها توسط Perez و Ribeiro نشون داد چطور میشه هدف مدل رو تغییر داد یا پرامپت اولیهی اون رو فاش کرد.
🔓 البته، قبل از این مقاله، تحلیلهای رسمی و دقیق خیلی کم بودن. نویسندهها اشاره میکنن که حملاتی مثل نشت اطلاعات شخصی یا بکدور (الگوهای مخفی خطرناک توی مدل) هم نشون میدن LLM ها میتونن راههای مختلفی برای خراب شدن داشته باشن
Section 2 surveys other research on LLM vulnerabilities. The idea of prompt injection first appeared in blogs around 2022
. People on Reddit and in video tutorials showed how to trick ChatGPT into disobeying rules (for example, the famous “DAN” jailbreak that makes the model say prohibited things)
🔰 @scopeofai | #papers
👍2