VIRSUN
6.1K subscribers
1.05K photos
617 videos
5 files
681 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🚀 نصب سریع‌تر پکیج‌های پایتون در پروژه‌های صنعتی!

🤖 اگر با پروژه‌های Docker + Python کار می‌کنید (مثلاً Flask یا Django)، خبر خوب اینه که می‌تونید به‌جای pip از ابزار uv استفاده کنید:

چرا uv؟

♻️تا ۱۰ برابر سریع‌تر از pip
♻️نصب سبک‌تر و قابل کش در داکر
♻️همه‌چیز یکجا: مدیریت وابستگی + نصب + اجرا


🔧 روش کار:
1️⃣ فایل pyproject.toml بسازید و وابستگی‌ها (مثلاً flask, gunicorn) را داخلش لیست کنید.
2️⃣ در Dockerfile به‌جای pip install از دستور uv sync استفاده کنید.
3️⃣ برای اجرا هم می‌تونید از uvx کمک بگیرید (مثل uvx gunicorn app:app).

📌 نتیجه:

♻️سرعت بالا
♻️ایمیج‌های کوچک‌تر
♻️مدیریت بهتر در CI/CD


🖥 مناسب برای: Flask, Django و هر پروژه Python که نیاز به سرعت و بهینه‌سازی دارد.


---

👉 تجربه‌تون از pip vs uv چی بوده؟ به نظرتون وقتشه کلاً مهاجرت کنیم؟


@rss_ai_ir

#Python #Docker #uv #Flask #Django #DevOps #Optimization
🔥30👍24🥰2018🎉17😁13👏11🤩9😍7❤‍🔥5💯5
🧮 پیشرفت چشمگیر هوش مصنوعی در تحقیقات ریاضی

استاد Ryu از دانشگاه UCLA با کمک GPT-5 Pro توانست یک مسئله باز در حوزه‌ی بهینه‌سازی محدب (Convex Optimization) را حل کند — مسئله‌ای که سال‌ها بدون پاسخ مانده بود.

گرچه حدود ۸۰٪ از تلاش‌های مدل در اثبات نادرست بودند، اما GPT-5 Pro توانست ایده‌های نوآورانه‌ای ارائه دهد که مسیر پژوهش را تغییر داد.

🧠 مشارکت‌های کلیدی GPT-5 Pro:

♻️تولید استدلال نهایی برای اثبات مسئله

♻️تسریع روند جستجو با حذف سریع مسیرهای بن‌بست


این پژوهش نمونه‌ای برجسته از هم‌افزایی انسان و هوش مصنوعی در کشف دانش جدید است — جایی که AI نه‌تنها ابزار، بلکه شریک پژوهشی واقعی است.

@rss_ai_ir
#هوش_مصنوعی #GPT5 #ریاضیات #AIResearch #Optimization #Science
1
⚡️ vLLM Sleep Mode —
حالت خواب برای تعویض سریع مدل‌ها

در نسخه‌ی جدید منتشرشده در بلاگ vLLM، ویژگی جدیدی به نام Sleep Mode معرفی شده که زمان تعویض بین مدل‌های زبانی را به‌شدت کاهش می‌دهد.

🧠 در روش‌های سنتی، اگر بخواهید دو مدل را به‌صورت هم‌زمان در GPU داشته باشید، یا باید هر دو را بارگذاری کنید (که منابع را دو برابر مصرف می‌کند) یا یکی را خاموش و دیگری را مجدداً بارگذاری کنید — که معمولاً ۳۰ تا ۱۰۰ ثانیه زمان می‌برد.

Sleep Mode
راه سوم را ارائه می‌دهد:
مدل‌ها در حالت «خواب» قرار می‌گیرند و فقط در چند ثانیه دوباره «بیدار» می‌شوند، در حالی که وضعیت اولیه‌شان حفظ شده است.

🔹 دو سطح خواب:

1. Sleep Level 1:
وزن‌ها در RAM ذخیره می‌شوند — راه‌اندازی بسیار سریع اما نیاز به رم بالا دارد.


2. Sleep Level 2:
وزن‌ها کاملاً آزاد می‌شوند — مصرف رم پایین‌تر، ولی بیدارسازی کمی کندتر است.



📊 نتایج:

♻️سرعت سوئیچ بین مدل‌ها تا ۱۸ تا ۲۰۰ برابر بیشتر

♻️سرعت استنتاج بعد از بیداری بین ۶۱ تا ۸۸٪ سریع‌تر

♻️زیرا فرآیندهایی مانند حافظه‌ی CUDA، گراف‌ها و JIT compilation حفظ می‌شوند.


💡 ویژگی Sleep Mode برای محیط‌هایی که نیاز به تعویض مداوم بین چند مدل دارند ایده‌آل است —
از GPUهای متوسط مثل A4000 تا مدل‌های قدرتمند مانند A100.

🔗 مطالعه‌ی کامل در بلاگ vLLM

@rss_ai_ir
#vLLM #AI #Optimization #Inference #DeepLearning #LLM