Linux Labdon
405 subscribers
39 photos
2 videos
2 files
795 links
🕸 Linux Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Linux 6.18 Kernel Happenings, Python 3.14, NTFSPLUS & Other October Highlights

🟢 خلاصه مقاله:
** در ماه اکتبر، سایت Phoronix با انتشار ۳۰۵ خبر درباره Linux و پروژه‌های متن‌باز و ۲۱ بررسی و بنچمارک چندصفحه‌ای سخت‌افزار، تصویری جامع از روندهای نرم‌افزاری و سخت‌افزاری ارائه کرد. محورهای اصلی شامل پیگیری تحولات Linux 6.18 Kernel، مسیر توسعه Python 3.14 و به‌روزرسانی‌های NTFSPLUS بود. در کنار آن، مجموعه‌ای از بررسی‌های دقیق روی CPU/GPUهای جدید و پلتفرم‌های AMD، Intel، NVIDIA، ARM و RISC‑V انجام شد که کارایی، مصرف انرژی، درایورها، گرافیک (Mesa/Wayland/Vulkan) و تفاوت توزیع‌ها را سنجید. همچنین موضوعاتی مانند امنیت، پیشرفت‌های GCC/LLVM، کانتینرها و مجازی‌سازی پوشش داده شد. نتیجه، جمع‌بندی موجز اما داده‌محور از مهم‌ترین روندهایی بود که بیشترین توجه خوانندگان را جلب کرد.

#Linux #LinuxKernel #OpenSource #Python314 #NTFSPLUS #Phoronix #Benchmark #Hardware

🟣لینک مقاله:
https://www.phoronix.com/news/October-2025-Highlights


👑 @Linux_Labdon
🔵 عنوان مقاله
Tellusim Core SDK Posted On GitHub As C++ SDK For Graphics / Compute

🟢 خلاصه مقاله:
شرکت Tellusim Technologies نسخه عمومی Tellusim Core SDK را در GitHub منتشر کرده است؛ یک C++ SDK برای توسعه گرافیک و Compute با کارایی بالا و پشتیبانی چندسکویی، مناسب برای شبیه‌سازی، بصری‌سازی و کاربردهای مشابه. انتشار روی GitHub فرآیند ارزیابی، آزمایش و ادغام در گردش‌کارهای موجود را ساده‌تر می‌کند و مسیر گزارش باگ و دریافت به‌روزرسانی‌ها را شفاف‌تر می‌سازد. این گزینه برای تیم‌ها و پژوهشگرانی که به عملکرد بالا و قابلیت حمل میان پلتفرم‌ها نیاز دارند، انتخابی قابل‌توجه است.

#Tellusim #TellusimCoreSDK #SDK #Graphics #Compute #CPlusPlus #CrossPlatform #GitHub

🟣لینک مقاله:
https://www.phoronix.com/news/Tellusim-Core-SDK-GitHub


👑 @Linux_Labdon
1
🔵 عنوان مقاله
Ubuntu Announces Architecture Variants: Ubuntu 25.10 Gets x86_64-v3 Packages

🟢 خلاصه مقاله:
** این حرکت جدید از سوی Canonical معرفی «architecture variants» برای Ubuntu است؛ رویکردی که امکان ارائه آرشیوهایی با هدف‌گذاری سطوح مختلف توانایی CPU را فراهم می‌کند تا کاربرانِ سخت‌افزارهای نوتر از بهینه‌سازی‌های بیشتر بهره ببرند. در نخستین گام، Ubuntu 25.10 آرشیوی با بسته‌های ساخته‌شده برای x86_64-v3 ارائه می‌کند؛ مشخصه‌ای که پردازنده‌های مدرن Intel و AMD را هدف می‌گیرد و با استفاده از دستورالعمل‌های برداری و bit-manipulation جدید، کارایی بهتری در بارهای کاری مانند فشرده‌سازی، رمزنگاری، چندرسانه‌ای و محاسبات علمی می‌دهد. نتیجه برای کاربرانِ سازگار، اجرای سریع‌تر و روان‌تر برنامه‌هاست و این رویکرد مسیر بهینه‌سازی‌های گسترده‌تر و نسخه‌های متنوع‌تر در آینده را هموار می‌کند.

#Ubuntu #Canonical #Linux #x86_64v3 #Ubuntu2510 #Performance #Intel #AMD

🟣لینک مقاله:
https://www.phoronix.com/news/Ubuntu-Architecture-Variants


👑 @Linux_Labdon
🔵 عنوان مقاله
Steam On Linux Use Up 1% From Last September

🟢 خلاصه مقاله:
** Valve نتایج Steam Survey برای September را منتشر کرد و نشان داد سهم کاربران Steam روی Linux نسبت به September سال گذشته حدود ۱ واحد درصد افزایش داشته است. این رشد با بهبودهای مداوم در اکوسیستم بازی روی Linux همسو است؛ از جمله گسترش سازگاری Proton، بلوغ درایورها و اثر Steam Deck که کاربران بیشتری را با Linux آشنا کرده است. هرچند Steam Survey اختیاری است و نوسان ماهانه دارد، روند سال‌به‌سال از تداوم این حرکت حکایت می‌کند. برای توسعه‌دهندگان و ناشران، پیام روشن است: روی سازگاری با Proton و آزمودن بیلدهای Linux تمرکز کنند و تا حد امکان از Vulkan بهره بگیرند؛ برای کاربران نیز این به معنای اجرای راحت‌تر بازی‌ها و تجربه‌ای پایدارتر روی Linux است.

#Steam #Linux #Valve #SteamSurvey #Gaming #Proton #SteamDeck #PCGaming

🟣لینک مقاله:
https://www.phoronix.com/news/Steam-September-2925


👑 @Linux_Labdon
🔵 عنوان مقاله
Valve Developer Gets Initial DLSS Support Working On Open-Source NVIDIA "NVK" Driver

🟢 خلاصه مقاله:
آتام اشتون از تیم درایور گرافیکی Linux در Valve موفق شده DLSS شرکت NVIDIA را روی NVK (درایور Vulkan متن‌باز NVIDIA در Mesa) راه‌اندازی کند. این پیاده‌سازی هنوز آماده ادغام در upstream نیست، اما به‌عنوان یک نقطه عطف اولیه، نشان می‌دهد قابلیت‌های پیشرفته مانند DLSS می‌تواند به سمت پشته متن‌باز هم بیاید. با پخته‌شدن این کار، کاربران Linux با GPUهای NVIDIA—به‌ویژه در سناریوهای بازی و استفاده از DXVK/VKD3D-Proton—می‌توانند به بهبود کارایی و کیفیت تصویر در چارچوب متن‌باز امیدوار باشند. در حال حاضر کد آزمایشی است و نیاز به توسعه، آزمون و بازبینی بیشتر دارد، اما روند کلی نوید نزدیک‌تر شدن پشته متن‌باز به توانمندی‌های درایورهای اختصاصی را می‌دهد.

#DLSS #NVK #NVIDIA #Mesa #Vulkan #LinuxGaming #OpenSource #Valve

🟣لینک مقاله:
https://www.phoronix.com/news/NVIDIA-DLSS-NVK-Experimental


👑 @Linux_Labdon
1
🔵 عنوان مقاله
AES-GCM Crypto Performance Up To ~74% Faster For AMD Zen 3 With Linux 6.19

🟢 خلاصه مقاله:
**
به‌روزرسانی‌های تازه در AES-GCM داخل Linux kernel قرار است روی سیستم‌های AMD Zen 3 در نسخه Linux 6.19 تا حدود ۷۴٪ بهبود کارایی ایجاد کند. این بهینه‌سازی‌ها با کوتاه‌تر کردن مسیرهای اجرایی، کاهش سربار و هماهنگی بهتر با ریزمعماری Zen 3، توان AES-GCM را برای پردازش داده بیشتر در هر چرخه بالا می‌برد.

نتیجه برای کاربران: توان عبوری بالاتر، تأخیر کمتر و مصرف CPU پایین‌تر در ترافیک رمزگذاری‌شده (مانند TLS و IPsec)؛ بدون نیاز به تغییر در برنامه‌ها، کافی است سیستم به Linux 6.19 ارتقا یابد. این تغییرات از ابتدای سال جدید همراه با انتشار نسخه جدید kernel در دسترس خواهند بود.

#Linux #LinuxKernel #AESGCM #AMDZen3 #Cryptography #Performance #Security #OpenSource

🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.19-AES-GCM-AVX2-Faster


👑 @Linux_Labdon
🔵 عنوان مقاله
AMD Enterprise AI Suite Announced: End-To-End AI Solution For Kubernetes With Instinct

🟢 خلاصه مقاله:
**AMD در وبلاگ AMD ROCm از پروژه‌ای متن‌باز رونمایی کرد که شامل AMD Enterprise AI Suite و AMD Inference Microservices (AIMs) است. این راهکار به‌عنوان یک بسته یکپارچه برای اجرای بارهای کاری هوش مصنوعی روی Kubernetes و بهینه‌شده برای شتاب‌دهنده‌های Instinct معرفی شده است. هدف آن ساده‌سازی استقرار و مقیاس‌پذیری در مقیاس سازمانی، و ارائه مؤلفه‌های ماژولار برای استنتاج است. تکیه بر اکوسیستم ROCm و رویکرد متن‌باز نیز به کاهش قفل‌شدن به فروشنده و تقویت سازگاری در زیرساخت‌های ابری کمک می‌کند.

#AMD #ROCm #Kubernetes #AI #AIMs #Instinct #OpenSource #EnterpriseAI

🟣لینک مقاله:
https://www.phoronix.com/news/AMD-Enterprise-AI-Suite


👑 @Linux_Labdon
🔵 عنوان مقاله
Linux 6.18 Lands Intel FRED Update For Late Incompatible Change To Spec

🟢 خلاصه مقاله:
تیم لینوکس در نسخه 6.18 پیاده‌سازی FRED از Intel را با نسخه نهایی و اصلاح‌شده مشخصات هماهنگ کرده است؛ تغییری که پس از پژوهش‌های امنیتی و به‌صورت ناسازگار با نسخه‌های قبلی اعمال شد. FRED که ابتدا در Linux 6.9 وارد شد، سازوکاری نو برای تحویل و بازگشت رویدادها در x86 است و با ساده‌سازی مسیرهای ورود/خروج و بهبود مرزبندی کاربر-هسته، به امنیت و کارایی کمک می‌کند. این به‌روزرسانی روی سیستم‌هایی که CPUهای سازگار با FRED ندارند اثری ندارد و هسته در صورت نبود پشتیبانی سخت‌افزاری به مسیرهای قدیمی بازمی‌گردد؛ در عین حال، کاربران پلتفرم‌های آزمایشی ممکن است به ریزبرنامه/میان‌افزار و ابزارهای هماهنگ نیاز داشته باشند.

#Linux #LinuxKernel #Intel #FRED #x86 #Security #KernelDevelopment #Linux6_18

🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-Intel-FRED


👑 @Linux_Labdon
🔵 عنوان مقاله
ARM64 With Linux 6.18 To Accept Secrets From Firmware & More

🟢 خلاصه مقاله:
**به‌روزرسانی‌های ARM64 برای Linux 6.18 زودتر از موعد برای merge window ارسال شده‌اند و مجموعه‌ای از قابلیت‌های تازه برای سیستم‌های ۶۴-بیتی مبتنی بر ARM به همراه دارند. مهم‌ترین تغییر، پشتیبانی از دریافت «اسرار» از میان‌افزار در مراحل اولیه بوت است؛ قابلیتی که امکان دریافت امن کلیدها، توکن‌ها یا پیکربندی‌های حساس از میان‌افزار را فراهم می‌کند و امنیت جریان‌های بوت و تأیید را در ARM64 بهبود می‌دهد. علاوه بر آن، بهبودهای تدریجی در سطح معماری، پایداری و توانمندسازی پلتفرم نیز انتظار می‌رود که کیفیت تجربه کاربران Linux روی ARM64 را بهتر کند.

#ARM64 #Linux #LinuxKernel #Kernel6_18 #Firmware #Security #MergeWindow #OpenSource

🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-ARM64


👑 @Linux_Labdon
کاهش هزینه سیستم‌های هوش مصنوعی با Semantic Caching

با رشد مدل‌های زبانی بزرگ و پیشرفته، هزینه و زمان پاسخ‌دهی هم به شدت افزایش پیدا کرده. مدل‌هایی مثل GPT-5 یا Claude برای کارهای پیچیده فوق‌العاده‌اند، ولی استفاده از اون‌ها هم پرهزینه و هم کند محسوب می‌شه. از طرف دیگه، AI Agentها واقعاً «توکن‌خور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی می‌کنن: تحقیق، برنامه‌ریزی، عمل و بازتاب و تکرار. همین باعث می‌شه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متن‌های طولانی‌تر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.

یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوال‌هاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوال‌های مشابهی می‌پرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور می‌شه هر بار پاسخ رو از صفر تولید کنه. نتیجه‌ش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستم‌های RAG و زیرساخت‌هاست.

در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت می‌کنه. ایده‌ی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوال‌هایی که از نظر معنی یکی هستن ولی عبارت‌هاشون فرق می‌کنه، مثل: «می‌خوام پولم رو پس بگیرم»، «چطور می‌تونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss می‌شن و کش عملاً استفاده نمی‌شه.

اینجاست که Semantic Caching وارد می‌شه. به جای تطابق کلمه‌به‌کلمه، کش به معنی و مفهوم جمله نگاه می‌کنه. مزیت اصلی‌ش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفه‌جویی خیلی بیشتر می‌شه. البته چالشش هم اینه که گاهی ممکنه جواب بی‌ربط بده یا همون «False Positive» رخ بده.

روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل می‌شه. بعد با بردارهای موجود در کش با Semantic Search مقایسه می‌شه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده می‌شه؛ در غیر این صورت به RAG یا LLM می‌ریم. در نهایت سوال و پاسخ جدید هم ذخیره می‌شه تا دفعه بعدی قابل استفاده باشه.

پیاده‌سازی Semantic Caching با چالش‌هایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست می‌ده، کارایی (Performance) و میزان Cache Hit، سرعت سرویس‌دهی، آپدیت‌پذیری کش و اینکه آیا می‌تونیم کش رو گرم، تازه‌سازی یا پاکسازی کنیم. همچنین مشاهده‌پذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفه‌جویی هزینه و کیفیت کش رو بسنجیم.

معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون می‌ده چند درصد درخواست‌ها از کش پاسخ داده می‌شن و Precision/Recall/F1 Score که کیفیت و دقت پاسخ‌ها رو مشخص می‌کنه. برای بهبود دقت و کارایی کش هم می‌تونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسش‌های زمان‌محور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.

یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اون‌ها با نوآوری‌هایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG می‌ره. نتیجه‌ش رسیدن به دقت نزدیک ۹۰٪ بوده.

<Reza Jafari/>

👉 https://t.iss.one/addlist/AJ7rh2IzIh02NTI0
1