VIRSUN
7.2K subscribers
1.45K photos
819 videos
5 files
908 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
⚔️ جنگ‌های آینده در دنیای دیجیتال: نبرد هوش مصنوعی علیه هوش مصنوعی! ⚔️

شاید وقتی اسم "جنگ" را می‌شنوید، به فکر سرباز و تانک بیفتید. اما امروز، یک جنگ تمام‌عیار، خاموش و با سرعتی باورنکردنی در دنیای سایبری در جریان است: نبرد AI علیه AI! 🤯

این یعنی چه؟ یعنی هم قهرمان‌ها (متخصصان امنیت) و هم تبهکاران (هکرها) از هوش مصنوعی به عنوان سلاح اصلی خود استفاده می‌کنند. بیایید دو جبهه این نبرد را بشناسیم:

---

🛡️ جبهه اول: هوش مصنوعی به عنوان "مدافع" (The Good Guys)


متخصصان امنیت سایبری از AI برای ساختن یک قلعه دیجیتال غیرقابل نفوذ استفاده می‌کنند:

1️⃣ چشم همیشه بیدار: AI می‌تواند حجم عظیمی از داده‌های شبکه را در لحظه تحلیل کند و کوچک‌ترین فعالیت مشکوک (مثل ورود یک کارمند در ساعت ۳ صبح) را فوراً شناسایی کند. 🕵️‍♂️

2️⃣ واکنش در کسری از ثانیه: اگر یک حمله شروع شود، AI می‌تواند به صورت خودکار IP مهاجم را مسدود یا دستگاه آلوده را از شبکه ایزوله کند. سرعتی که هیچ انسانی به آن نمی‌رسد! ⚡️

3️⃣ پیش‌بینی حملات: با تحلیل حملات قبلی در جهان، AI یاد می‌گیرد که حملات بعدی از کجا و چگونه خواهند بود و قبل از وقوع، هشدار می‌دهد. 🔮

---

🧨 جبهه دوم: هوش مصنوعی به عنوان "مهاجم" (The Bad Guys)

در طرف دیگر، هکرها هم از AI برای ساخت سلاح‌های هوشمندتر و خطرناک‌تر استفاده می‌کنند:

1️⃣ بدافزارهای تطبیق‌پذیر: تصور کنید یک ویروس وارد شبکه شما شود که می‌تواند "یاد بگیرد"! این بدافزار آنتی‌ویروس شما را شناسایی کرده و رفتار خود را برای پنهان ماندن تغییر می‌دهد. 🦎

2️⃣ ایمیل‌های فیشینگ فوق‌پیشرفته: با استفاده از AI، هکرها ایمیل‌هایی می‌سازند که دقیقاً شبیه ایمیل رئیس یا همکار شماست! تشخیص جعلی بودن آن‌ها تقریبا غیرممکن است. 📧🤖

3️⃣ ارتش ربات‌های حمله‌کننده: AI می‌تواند یک ارتش از ربات‌ها را مدیریت کند که ۲۴ ساعته و ۷ روز هفته به دنبال یک نقطه ضعف در سیستم شما می‌گردند و از شکست‌هایشان درس می‌گیرند. 🤖🔥

---

⚡️ نتیجه: مسابقه تسلیحاتی الگوریتمیک! ⚡️

"جنگ AI علیه AI" یعنی یک چرخه بی‌پایان از حمله و دفاع با سرعت نور:
* یک AI مهاجم روش جدیدی برای نفوذ پیدا می‌کند.
* یک AI مدافع آن روش را یاد می‌گیرد و سد دفاعی خود را قوی‌تر می‌کند.
* یک AI مهاجم دوباره خود را آپدیت می‌کند تا از سد جدید عبور کند... و این داستان ادامه دارد.

آینده امنیت ما به این بستگی دارد که هوش مصنوعیِ "خوب" همیشه یک قدم از هوش مصنوعیِ "بد" جلوتر باشد. 🚀

#هوش_مصنوعی #امنیت_سایبری #جنگ_سایبری #تکنولوژی #فناوری #هک #امنیت #AI #CyberSecurity #AIvsAI #Deepfake #Malware #Phishing

@rss_ai_ir
🔥8😁6👍5🎉54👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🚨 رسوایی امنیتی در ربات‌های Unitree G1

سه پژوهشگر امنیت سایبری به جای پیدا کردن چند باگ کوچک، به کشفی تکان‌دهنده رسیدند: ربات G1 هر ۵ دقیقه تمام داده‌های حسگرهایش را به سرورهای شرکت می‌فرستد! 🕵️‍♂️🤖

🔎 جزئیات نگران‌کننده:

هر ۳۰۰ ثانیه حدود ۴.۵ کیلوبایت داده JSON شامل لایدار، دوربین‌ها، میکروفون، موقعیت مکانی و لاگ‌های دستگاه ارسال می‌شود.

ارتباط مداوم از طریق MQTT/WebSocket با دو هاست خارجی برقرار است، نه موردی بلکه پیوسته.

فایل‌های تنظیمات با Blowfish-ECB رمزگذاری شده‌اند، اما کلید رمزگذاری برای همه دستگاه‌ها یکسان است → با هک یک ربات، می‌توان به کل ناوگان نفوذ کرد.

همه دستگاه‌ها با یک کلید AES مشترک برای بلوتوث عرضه می‌شوند → هر مهاجم در محدوده بلوتوث می‌تواند به سطح دسترسی روت برسد.

⛔️تاکنون حدود ۱۵۰۰ دستگاه در سراسر جهان فروخته و فعال شده‌اند.


⚠️ این موضوع یک باگ نرم‌افزاری ساده نیست، بلکه یک ریسک ساختاری در زنجیره تأمین و حریم خصوصی است: داده‌هایی که نباید ارسال شوند، کلیدهای مشترکی که نباید وجود داشته باشند، و میلیون‌ها دقیقه تله‌متری که بی‌سر و صدا به خارج منتقل می‌شود.

شما حاضر هستید چنین رباتی را وارد دفتر یا کارخانه خود کنید؟


@rss_ai_ir
#Unitree #امنیت #رباتیک #حریم_خصوصی #CyberSecurity
⚠️🧠 Black-box optimization:
چگونه می‌توان «بدون شکافت» یک LLM را گمراه کرد؟

در یک مقاله جدید نشان داده‌اند روشی ساده اما قدرتمند برای هدایت مدل‌های بسته (black-box) به سمت خروجی‌های ممنوع — فقط با پرس‌وجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) می‌دهد و از مدل می‌پرسد «کدام‌یک به هدف من نزدیک‌تر است؟» پاسخ‌های مدل به‌عنوان سیگنال به‌کار می‌رود تا مرحله‌به‌مرحله گزینه‌ها را به سمت هدف نامناسب «بهینه» کنند.

🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجی‌های متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیط‌های آزمایشی، اغلب با <۲۰۰ پرس‌و‌جو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابل‌گسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملی‌تر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینه‌سازی می‌کند).

🔥 چرا نگران‌کننده است؟
زیرا بسیاری از دفاع‌ها فقط به «آنچه مدل تولید می‌کند» نگاه می‌کنند — اما این روش نشان می‌دهد که الگوهای تعامل کاربر خود می‌تواند ابزاری برای دورزدن محافظ‌ها باشد.

🛡️ پیشنهادهای دفاعی (عمومی، غیر‌قابل‌سوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جست‌و‌جوی مکرر برای تغییر پاسخ یا «درجه‌بندی» گزینه‌ها می‌تواند پرچم‌گذاری شود.
• محدودسازی نرخ و تنوع پرسش‌ها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیاب‌های خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تست‌های سم‌زدایی و ارزیابی هم‌زمان خروجی و الگوی تعامل.

🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794

📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
👍1
🛡️مجموعه OpenAI عامل امنیتی جدید خود را معرفی کرد: Aardvark

مجموعه OpenAI از یک عامل هوش مصنوعی تازه به نام Aardvark رونمایی کرده است — دستیار امنیت سایبری که مانند یک تحلیلگر امنیتی خستگی‌ناپذیر، کدها را برای یافتن آسیب‌پذیری‌ها اسکن، آزمایش و تحلیل می‌کند 🔍💻


---

🔹 عامل Aardvark مستقیماً به GitHub متصل می‌شود و به‌صورت پیوسته کدها را بررسی می‌کند تا نقص‌های امنیتی و بخش‌های ضعیف را شناسایی کند.
🔹 با بهره‌گیری از GPT-5 و توانایی استدلال پیشرفته، ریسک‌ها را تحلیل کرده، شدت آن‌ها را توضیح می‌دهد و پیشنهاد اصلاح دقیق ارائه می‌کند — بدون آن‌که خود کد را تغییر دهد.
🔹 در آزمایش‌های اولیه، این عامل چندین باگ ناشناخته در پروژه‌های متن‌باز پیدا کرد که بعداً با عنوان CVE (Common Vulnerabilities and Exposures) ثبت شدند.
🔹 فعلاً در مرحله‌ی بتای دعوتی (invite-only) است و پس از دریافت بازخورد از توسعه‌دهندگان، به‌صورت گسترده در دسترس قرار خواهد گرفت.


---

🎯 هدف OpenAI از توسعه‌ی Aardvark، تبدیل فرآیند بازرسی امنیتی از کاری دستی و کند، به یک سیستم هوشمند، سریع و پیشگیرانه است.

📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Aardvark #امنیت #CyberSecurity #GPT5 #AI #DevTools #CodeAudit
🔒 سرقت اطلاعات کاربران API اوپن‌اِی‌آی

اوپن‌اِی‌آی اعلام کرد که اوایل نوامبر سرویس آنالیتیک Mixpanel که برای تحلیل رفتار کاربران استفاده می‌کرد، هک شده و داده‌های مربوط به کاربران API افشا شده است.

چه چیزهایی لو رفته؟
• نام صاحب اکانت API
• ایمیل مرتبط با اکانت
• موقعیت تقریبی (شهر، منطقه، کشور) بر اساس داده مرورگر
• سیستم‌عامل و مرورگر مورد استفاده
• وبسایت‌هایی که کاربر از آن‌ها وارد شده
• شناسه‌های سازمانی یا کاربری متصل به اکانت API

خوشبختانه: کلیدهای API، رمز عبورها و اطلاعات پرداخت فاش نشده‌اند.

این حادثه یادآوری مهمی است:
حتی ابزارهای آنالیتیک هم می‌توانند نقطه ضعف امنیتی باشند.
برای امنیت، سازمان‌ها و کاربران باید اکانت‌های خود را بررسی و سیاست‌های امنیتی‌شان را به‌روزرسانی کنند.

#OpenAI #CyberSecurity #DataLeak #APISecurity #InfoSec #Privacy #AISecurity
2😁2