🔵 عنوان مقاله
Valve Developer Gets Initial DLSS Support Working On Open-Source NVIDIA "NVK" Driver
🟢 خلاصه مقاله:
آتام اشتون از تیم درایور گرافیکی Linux در Valve موفق شده DLSS شرکت NVIDIA را روی NVK (درایور Vulkan متنباز NVIDIA در Mesa) راهاندازی کند. این پیادهسازی هنوز آماده ادغام در upstream نیست، اما بهعنوان یک نقطه عطف اولیه، نشان میدهد قابلیتهای پیشرفته مانند DLSS میتواند به سمت پشته متنباز هم بیاید. با پختهشدن این کار، کاربران Linux با GPUهای NVIDIA—بهویژه در سناریوهای بازی و استفاده از DXVK/VKD3D-Proton—میتوانند به بهبود کارایی و کیفیت تصویر در چارچوب متنباز امیدوار باشند. در حال حاضر کد آزمایشی است و نیاز به توسعه، آزمون و بازبینی بیشتر دارد، اما روند کلی نوید نزدیکتر شدن پشته متنباز به توانمندیهای درایورهای اختصاصی را میدهد.
#DLSS #NVK #NVIDIA #Mesa #Vulkan #LinuxGaming #OpenSource #Valve
🟣لینک مقاله:
https://www.phoronix.com/news/NVIDIA-DLSS-NVK-Experimental
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Valve Developer Gets Initial DLSS Support Working On Open-Source NVIDIA "NVK" Driver
🟢 خلاصه مقاله:
آتام اشتون از تیم درایور گرافیکی Linux در Valve موفق شده DLSS شرکت NVIDIA را روی NVK (درایور Vulkan متنباز NVIDIA در Mesa) راهاندازی کند. این پیادهسازی هنوز آماده ادغام در upstream نیست، اما بهعنوان یک نقطه عطف اولیه، نشان میدهد قابلیتهای پیشرفته مانند DLSS میتواند به سمت پشته متنباز هم بیاید. با پختهشدن این کار، کاربران Linux با GPUهای NVIDIA—بهویژه در سناریوهای بازی و استفاده از DXVK/VKD3D-Proton—میتوانند به بهبود کارایی و کیفیت تصویر در چارچوب متنباز امیدوار باشند. در حال حاضر کد آزمایشی است و نیاز به توسعه، آزمون و بازبینی بیشتر دارد، اما روند کلی نوید نزدیکتر شدن پشته متنباز به توانمندیهای درایورهای اختصاصی را میدهد.
#DLSS #NVK #NVIDIA #Mesa #Vulkan #LinuxGaming #OpenSource #Valve
🟣لینک مقاله:
https://www.phoronix.com/news/NVIDIA-DLSS-NVK-Experimental
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Valve Developer Gets Initial DLSS Support Working On Open-Source NVIDIA "NVK" Driver
Autumn Ashton of Valve's Linux graphics driver team and responsible for many great Mesa and DXVK/VKD3D-Proton improvements over the years has managed an exciting new feat: getting NVIDIA DLSS upscaling working atop Mesa's NVK open-source NVIDIA Vulkan driver
❤1
🔵 عنوان مقاله
AES-GCM Crypto Performance Up To ~74% Faster For AMD Zen 3 With Linux 6.19
🟢 خلاصه مقاله:
**
بهروزرسانیهای تازه در AES-GCM داخل Linux kernel قرار است روی سیستمهای AMD Zen 3 در نسخه Linux 6.19 تا حدود ۷۴٪ بهبود کارایی ایجاد کند. این بهینهسازیها با کوتاهتر کردن مسیرهای اجرایی، کاهش سربار و هماهنگی بهتر با ریزمعماری Zen 3، توان AES-GCM را برای پردازش داده بیشتر در هر چرخه بالا میبرد.
نتیجه برای کاربران: توان عبوری بالاتر، تأخیر کمتر و مصرف CPU پایینتر در ترافیک رمزگذاریشده (مانند TLS و IPsec)؛ بدون نیاز به تغییر در برنامهها، کافی است سیستم به Linux 6.19 ارتقا یابد. این تغییرات از ابتدای سال جدید همراه با انتشار نسخه جدید kernel در دسترس خواهند بود.
#Linux #LinuxKernel #AESGCM #AMDZen3 #Cryptography #Performance #Security #OpenSource
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.19-AES-GCM-AVX2-Faster
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
AES-GCM Crypto Performance Up To ~74% Faster For AMD Zen 3 With Linux 6.19
🟢 خلاصه مقاله:
**
بهروزرسانیهای تازه در AES-GCM داخل Linux kernel قرار است روی سیستمهای AMD Zen 3 در نسخه Linux 6.19 تا حدود ۷۴٪ بهبود کارایی ایجاد کند. این بهینهسازیها با کوتاهتر کردن مسیرهای اجرایی، کاهش سربار و هماهنگی بهتر با ریزمعماری Zen 3، توان AES-GCM را برای پردازش داده بیشتر در هر چرخه بالا میبرد.
نتیجه برای کاربران: توان عبوری بالاتر، تأخیر کمتر و مصرف CPU پایینتر در ترافیک رمزگذاریشده (مانند TLS و IPsec)؛ بدون نیاز به تغییر در برنامهها، کافی است سیستم به Linux 6.19 ارتقا یابد. این تغییرات از ابتدای سال جدید همراه با انتشار نسخه جدید kernel در دسترس خواهند بود.
#Linux #LinuxKernel #AESGCM #AMDZen3 #Cryptography #Performance #Security #OpenSource
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.19-AES-GCM-AVX2-Faster
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
AES-GCM Crypto Performance Up To ~74% Faster For AMD Zen 3 With Linux 6.19
Improvements to the Linux kernel's AES-GCM Galois/Counter Mode crypto block cipher code will yield up to 74% faster performance for AMD Zen 3 processors with the Linux 6.19 kernel in the new year.
🔵 عنوان مقاله
AMD Enterprise AI Suite Announced: End-To-End AI Solution For Kubernetes With Instinct
🟢 خلاصه مقاله:
**AMD در وبلاگ AMD ROCm از پروژهای متنباز رونمایی کرد که شامل AMD Enterprise AI Suite و AMD Inference Microservices (AIMs) است. این راهکار بهعنوان یک بسته یکپارچه برای اجرای بارهای کاری هوش مصنوعی روی Kubernetes و بهینهشده برای شتابدهندههای Instinct معرفی شده است. هدف آن سادهسازی استقرار و مقیاسپذیری در مقیاس سازمانی، و ارائه مؤلفههای ماژولار برای استنتاج است. تکیه بر اکوسیستم ROCm و رویکرد متنباز نیز به کاهش قفلشدن به فروشنده و تقویت سازگاری در زیرساختهای ابری کمک میکند.
#AMD #ROCm #Kubernetes #AI #AIMs #Instinct #OpenSource #EnterpriseAI
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-Enterprise-AI-Suite
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
AMD Enterprise AI Suite Announced: End-To-End AI Solution For Kubernetes With Instinct
🟢 خلاصه مقاله:
**AMD در وبلاگ AMD ROCm از پروژهای متنباز رونمایی کرد که شامل AMD Enterprise AI Suite و AMD Inference Microservices (AIMs) است. این راهکار بهعنوان یک بسته یکپارچه برای اجرای بارهای کاری هوش مصنوعی روی Kubernetes و بهینهشده برای شتابدهندههای Instinct معرفی شده است. هدف آن سادهسازی استقرار و مقیاسپذیری در مقیاس سازمانی، و ارائه مؤلفههای ماژولار برای استنتاج است. تکیه بر اکوسیستم ROCm و رویکرد متنباز نیز به کاهش قفلشدن به فروشنده و تقویت سازگاری در زیرساختهای ابری کمک میکند.
#AMD #ROCm #Kubernetes #AI #AIMs #Instinct #OpenSource #EnterpriseAI
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-Enterprise-AI-Suite
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
AMD Enterprise AI Suite Announced: End-To-End AI Solution For Kubernetes With Instinct
The AMD ROCm blog just announced a new open-source AMD AI software project: the AMD Enterprise AI Suite as well as AMD Inference Microservices (AIMs).
🔵 عنوان مقاله
Linux 6.18 Lands Intel FRED Update For Late Incompatible Change To Spec
🟢 خلاصه مقاله:
تیم لینوکس در نسخه 6.18 پیادهسازی FRED از Intel را با نسخه نهایی و اصلاحشده مشخصات هماهنگ کرده است؛ تغییری که پس از پژوهشهای امنیتی و بهصورت ناسازگار با نسخههای قبلی اعمال شد. FRED که ابتدا در Linux 6.9 وارد شد، سازوکاری نو برای تحویل و بازگشت رویدادها در x86 است و با سادهسازی مسیرهای ورود/خروج و بهبود مرزبندی کاربر-هسته، به امنیت و کارایی کمک میکند. این بهروزرسانی روی سیستمهایی که CPUهای سازگار با FRED ندارند اثری ندارد و هسته در صورت نبود پشتیبانی سختافزاری به مسیرهای قدیمی بازمیگردد؛ در عین حال، کاربران پلتفرمهای آزمایشی ممکن است به ریزبرنامه/میانافزار و ابزارهای هماهنگ نیاز داشته باشند.
#Linux #LinuxKernel #Intel #FRED #x86 #Security #KernelDevelopment #Linux6_18
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-Intel-FRED
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Linux 6.18 Lands Intel FRED Update For Late Incompatible Change To Spec
🟢 خلاصه مقاله:
تیم لینوکس در نسخه 6.18 پیادهسازی FRED از Intel را با نسخه نهایی و اصلاحشده مشخصات هماهنگ کرده است؛ تغییری که پس از پژوهشهای امنیتی و بهصورت ناسازگار با نسخههای قبلی اعمال شد. FRED که ابتدا در Linux 6.9 وارد شد، سازوکاری نو برای تحویل و بازگشت رویدادها در x86 است و با سادهسازی مسیرهای ورود/خروج و بهبود مرزبندی کاربر-هسته، به امنیت و کارایی کمک میکند. این بهروزرسانی روی سیستمهایی که CPUهای سازگار با FRED ندارند اثری ندارد و هسته در صورت نبود پشتیبانی سختافزاری به مسیرهای قدیمی بازمیگردد؛ در عین حال، کاربران پلتفرمهای آزمایشی ممکن است به ریزبرنامه/میانافزار و ابزارهای هماهنگ نیاز داشته باشند.
#Linux #LinuxKernel #Intel #FRED #x86 #Security #KernelDevelopment #Linux6_18
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-Intel-FRED
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Linux 6.18 Lands Intel FRED Update For Late Incompatible Change To Spec
While Intel FRED was merged back in Linux 6.9 in advance of Intel processors shipping with this Flexible Return Event Delivery functionality, there ended up being a late, incompatible change to the specification as a result of security research into it
🔵 عنوان مقاله
ARM64 With Linux 6.18 To Accept Secrets From Firmware & More
🟢 خلاصه مقاله:
**بهروزرسانیهای ARM64 برای Linux 6.18 زودتر از موعد برای merge window ارسال شدهاند و مجموعهای از قابلیتهای تازه برای سیستمهای ۶۴-بیتی مبتنی بر ARM به همراه دارند. مهمترین تغییر، پشتیبانی از دریافت «اسرار» از میانافزار در مراحل اولیه بوت است؛ قابلیتی که امکان دریافت امن کلیدها، توکنها یا پیکربندیهای حساس از میانافزار را فراهم میکند و امنیت جریانهای بوت و تأیید را در ARM64 بهبود میدهد. علاوه بر آن، بهبودهای تدریجی در سطح معماری، پایداری و توانمندسازی پلتفرم نیز انتظار میرود که کیفیت تجربه کاربران Linux روی ARM64 را بهتر کند.
#ARM64 #Linux #LinuxKernel #Kernel6_18 #Firmware #Security #MergeWindow #OpenSource
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-ARM64
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
ARM64 With Linux 6.18 To Accept Secrets From Firmware & More
🟢 خلاصه مقاله:
**بهروزرسانیهای ARM64 برای Linux 6.18 زودتر از موعد برای merge window ارسال شدهاند و مجموعهای از قابلیتهای تازه برای سیستمهای ۶۴-بیتی مبتنی بر ARM به همراه دارند. مهمترین تغییر، پشتیبانی از دریافت «اسرار» از میانافزار در مراحل اولیه بوت است؛ قابلیتی که امکان دریافت امن کلیدها، توکنها یا پیکربندیهای حساس از میانافزار را فراهم میکند و امنیت جریانهای بوت و تأیید را در ARM64 بهبود میدهد. علاوه بر آن، بهبودهای تدریجی در سطح معماری، پایداری و توانمندسازی پلتفرم نیز انتظار میرود که کیفیت تجربه کاربران Linux روی ARM64 را بهتر کند.
#ARM64 #Linux #LinuxKernel #Kernel6_18 #Firmware #Security #MergeWindow #OpenSource
🟣لینک مقاله:
https://www.phoronix.com/news/Linux-6.18-ARM64
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
ARM64 With Linux 6.18 To Accept Secrets From Firmware & More
All of the ARM64 feature changes intended for the Linux 6.18 merge window have been submitted in advance
کاهش هزینه سیستمهای هوش مصنوعی با Semantic Caching
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://t.iss.one/addlist/AJ7rh2IzIh02NTI0
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://t.iss.one/addlist/AJ7rh2IzIh02NTI0
❤1
🔵 عنوان مقاله
Google Develops Code Prefetch Insertion Optimizer For Faster Intel GNR & AMD Turin Performance
🟢 خلاصه مقاله:
گوگل با اعلام Rahman Lavaee از یک نمونه اولیه به نام Code Prefetch Insertion Optimizer خبر داده که بهصورت خودکار دستورهای prefetch بهینه را در باینریها درج میکند تا عملکرد بهویژه روی پردازندههای جدید Intel Granite Rapids (GNR) و AMD Turin که دستورهای prefetch تازهای دارند، سریعتر شود. این رویکرد با پیشبارگذاری دادهها در کش، تاخیر حافظه را کاهش میدهد و در کنار prefetch سختافزاری، الگوهای دسترسی خاص بارکاری را بهتر پوشش میدهد. تمرکز آن بر درج در سطح باینری است تا با چیدمان نهایی کد همسو شود و از قابلیتهای معماری جدید این پردازندهها بهره ببرد، مخصوصاً در بارهای حافظهمحور. این کار هنوز در مرحله نمونه اولیه است، با هدف خودکارسازی کاری که پیشتر دستی یا وابسته به تغییرات سطح کد بود؛ انتظار میرود مزیتها بسته به نوع بارکاری و جزئیات ریزمعماری متفاوت باشد و ارزیابیهای بیشتری انجام شود.
#Google #Prefetch #CompilerOptimization #IntelGraniteRapids #AMDTurin #Performance #Datacenter #x86
🟣لینک مقاله:
https://www.phoronix.com/news/Propeller-Prefetch-Insertion
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Google Develops Code Prefetch Insertion Optimizer For Faster Intel GNR & AMD Turin Performance
🟢 خلاصه مقاله:
گوگل با اعلام Rahman Lavaee از یک نمونه اولیه به نام Code Prefetch Insertion Optimizer خبر داده که بهصورت خودکار دستورهای prefetch بهینه را در باینریها درج میکند تا عملکرد بهویژه روی پردازندههای جدید Intel Granite Rapids (GNR) و AMD Turin که دستورهای prefetch تازهای دارند، سریعتر شود. این رویکرد با پیشبارگذاری دادهها در کش، تاخیر حافظه را کاهش میدهد و در کنار prefetch سختافزاری، الگوهای دسترسی خاص بارکاری را بهتر پوشش میدهد. تمرکز آن بر درج در سطح باینری است تا با چیدمان نهایی کد همسو شود و از قابلیتهای معماری جدید این پردازندهها بهره ببرد، مخصوصاً در بارهای حافظهمحور. این کار هنوز در مرحله نمونه اولیه است، با هدف خودکارسازی کاری که پیشتر دستی یا وابسته به تغییرات سطح کد بود؛ انتظار میرود مزیتها بسته به نوع بارکاری و جزئیات ریزمعماری متفاوت باشد و ارزیابیهای بیشتری انجام شود.
#Google #Prefetch #CompilerOptimization #IntelGraniteRapids #AMDTurin #Performance #Datacenter #x86
🟣لینک مقاله:
https://www.phoronix.com/news/Propeller-Prefetch-Insertion
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Google Develops Code Prefetch Insertion Optimizer For Faster Intel GNR & AMD Turin Performance
Google engineer Rahman Lavaee today announced their work on a prototype software implementation to automatically insert optimal code prefetches into binaries for faster performance, especially for the latest Intel Granite Rapids and AMD Turin processors with…
❤1
🔵 عنوان مقاله
AMD ROCm 7.1 Released: Many Instinct MI350 Series Improvements, Better Performance
🟢 خلاصه مقاله:
** AMD نسخه ROCm 7.1 را منتشر کرد؛ بهعنوان گامی تازه در پشته متنباز محاسبات GPU برای سختافزارهای Radeon و Instinct. تمرکز اصلی این نسخه بر بهبودهای متعدد برای سری Instinct MI350 است که با بهینهسازیهای هدفمند، کارایی بهتر، تأخیر کمتر و مقیاسپذیری پایدارتر در بارهای محاسباتی و هوش مصنوعی را هدف میگیرد. علاوه بر این، ROCm 7.1 ارتقاهای کلی در عملکرد، پایداری و تجربه توسعهدهنده ارائه میدهد و استخراج کارایی از شتابدهندههای Instinct و برخی GPUهای Radeon را آسانتر میکند.
#AMD #ROCm #InstinctMI350 #GPU #Radeon #OpenSource #HPC #AI
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-ROCm-7.1-Released
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
AMD ROCm 7.1 Released: Many Instinct MI350 Series Improvements, Better Performance
🟢 خلاصه مقاله:
** AMD نسخه ROCm 7.1 را منتشر کرد؛ بهعنوان گامی تازه در پشته متنباز محاسبات GPU برای سختافزارهای Radeon و Instinct. تمرکز اصلی این نسخه بر بهبودهای متعدد برای سری Instinct MI350 است که با بهینهسازیهای هدفمند، کارایی بهتر، تأخیر کمتر و مقیاسپذیری پایدارتر در بارهای محاسباتی و هوش مصنوعی را هدف میگیرد. علاوه بر این، ROCm 7.1 ارتقاهای کلی در عملکرد، پایداری و تجربه توسعهدهنده ارائه میدهد و استخراج کارایی از شتابدهندههای Instinct و برخی GPUهای Radeon را آسانتر میکند.
#AMD #ROCm #InstinctMI350 #GPU #Radeon #OpenSource #HPC #AI
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-ROCm-7.1-Released
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
AMD ROCm 7.1 Released: Many Instinct MI350 Series Improvements, Better Performance
As expected after noting this morning that ROCm 7.1 release preparations were underway, ROCm 7.1 is now officially released as the newest step-forward for this open-source GPU compute stack for Radeon and Instinct hardware.
🔵 عنوان مقاله
AMD GAIA 0.13 Released With New AI Coding & Docker Agents
🟢 خلاصه مقاله:
** AMD نسخه 0.13 از پروژه متنباز GAIA را منتشر کرد؛ ابزاری سریعراهاندازی برای نمایش و آزمایش کاربردهای مولد هوش مصنوعی روی سختافزارهای AMD. در این بهروزرسانی، دو عامل جدید با عنوان AI Coding و Docker Agents اضافه شدهاند تا فرایندهای رایج توسعه مانند تولید کد و استقرار کانتینری را سادهتر کنند. GAIA که مخفف “Generative AI Is Awesome” است، روی سیستمهایی با Ryzen CPUs، Radeon GPUs و Ryzen AI NPUs کار میکند و با آمادهسازی مؤلفههای لازم، زمان تنظیمات اولیه را کاهش میدهد. هرچند تمرکز اصلی GAIA بر Microsoft Windows بوده، پشتیبانی محدودی از Linux نیز اخیراً افزوده شده که فعلاً به شتابدهی GPU مبتنی بر Vulkan متکی است. نسخه 0.13 گامی دیگر در جهت بهبود تجربه بینسکویی و تسهیل کار توسعهدهندگان برای ساخت و استقرار سریعتر برنامههای مجهز به هوش مصنوعی روی سختافزار AMD است.
#AMD #GAIA #GenerativeAI #Ryzen #Radeon #Windows #Linux #Docker
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-GAIA-0.13
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
AMD GAIA 0.13 Released With New AI Coding & Docker Agents
🟢 خلاصه مقاله:
** AMD نسخه 0.13 از پروژه متنباز GAIA را منتشر کرد؛ ابزاری سریعراهاندازی برای نمایش و آزمایش کاربردهای مولد هوش مصنوعی روی سختافزارهای AMD. در این بهروزرسانی، دو عامل جدید با عنوان AI Coding و Docker Agents اضافه شدهاند تا فرایندهای رایج توسعه مانند تولید کد و استقرار کانتینری را سادهتر کنند. GAIA که مخفف “Generative AI Is Awesome” است، روی سیستمهایی با Ryzen CPUs، Radeon GPUs و Ryzen AI NPUs کار میکند و با آمادهسازی مؤلفههای لازم، زمان تنظیمات اولیه را کاهش میدهد. هرچند تمرکز اصلی GAIA بر Microsoft Windows بوده، پشتیبانی محدودی از Linux نیز اخیراً افزوده شده که فعلاً به شتابدهی GPU مبتنی بر Vulkan متکی است. نسخه 0.13 گامی دیگر در جهت بهبود تجربه بینسکویی و تسهیل کار توسعهدهندگان برای ساخت و استقرار سریعتر برنامههای مجهز به هوش مصنوعی روی سختافزار AMD است.
#AMD #GAIA #GenerativeAI #Ryzen #Radeon #Windows #Linux #Docker
🟣لینک مقاله:
https://www.phoronix.com/news/AMD-GAIA-0.13
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
AMD GAIA 0.13 Released With New AI Coding & Docker Agents
AMD's GAIA open-source project as a reminder is their 'Generrative AI Is Awesome' quick-setup solution for demonstrating generative AI use on AMD hardware platforms with Ryzen CPUs, Radeon GPUs, and/or Ryzen AI NPUs
شرکت Canonical اکنون تضمین میکند که نسخههای Ubuntu LTS لینوکس تا ۱۵ سال با «Legacy add-on» پوشش امنیتی داشته باشند!
از Ubuntu 14.04 شروع شده گزینهای عالی برای زیرساختهای بلندمدت.
من عشق LTS نصب کردنم.
<MehrdadLinux/>
از Ubuntu 14.04 شروع شده گزینهای عالی برای زیرساختهای بلندمدت.
من عشق LTS نصب کردنم.
<MehrdadLinux/>
❤1
🔵 عنوان مقاله
Ryzen AI Software 1.6.1 Advertises Linux Support
🟢 خلاصه مقاله:
نسخه 1.6.1 از Ryzen AI Software پشتیبانی از Linux را اعلام کرده است؛ مجموعه ابزار و کتابخانههای AMD برای اجرای استنتاج هوش مصنوعی روی رایانههای مجهز به Ryzen AI. این پشتیبانی فعلاً در مرحله early access است و فقط برای مشتریان ثبتنامشده AMD در دسترس قرار میگیرد. هدف این بهروزرسانی، سادهسازی استقرار مدلها روی NPU (در کنار CPU و GPU) و نزدیکتر کردن تجربه توسعه بین Windows و Linux است، هرچند تا زمان عرضه عمومی، دسترسی و منابع بهصورت محدود ارائه میشود.
#AMD #RyzenAI #Linux #AI #NPU #EdgeAI #SoftwareUpdate #Developers
🟣لینک مقاله:
https://www.phoronix.com/news/Ryzen-AI-Software-1.6.1
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Ryzen AI Software 1.6.1 Advertises Linux Support
🟢 خلاصه مقاله:
نسخه 1.6.1 از Ryzen AI Software پشتیبانی از Linux را اعلام کرده است؛ مجموعه ابزار و کتابخانههای AMD برای اجرای استنتاج هوش مصنوعی روی رایانههای مجهز به Ryzen AI. این پشتیبانی فعلاً در مرحله early access است و فقط برای مشتریان ثبتنامشده AMD در دسترس قرار میگیرد. هدف این بهروزرسانی، سادهسازی استقرار مدلها روی NPU (در کنار CPU و GPU) و نزدیکتر کردن تجربه توسعه بین Windows و Linux است، هرچند تا زمان عرضه عمومی، دسترسی و منابع بهصورت محدود ارائه میشود.
#AMD #RyzenAI #Linux #AI #NPU #EdgeAI #SoftwareUpdate #Developers
🟣لینک مقاله:
https://www.phoronix.com/news/Ryzen-AI-Software-1.6.1
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Ryzen AI Software 1.6.1 Advertises Linux Support
Ryzen AI Software as AMD's collection of tools and libraries for AI inferencing on AMD Ryzen AI class PCs has Linux support with its newest point release
🔵 عنوان مقاله
Rust 1.90 Released With LLD Default On Linux x86_64 While macOS x86_64 Demoted
🟢 خلاصه مقاله:
Rust 1.90 منتشر شد و علاوه بر بهبودهای معمول، تغییرات مهمی در ابزارها و هدفهای پشتیبانیشده دارد. در این نسخه، روی Linux x86_64 لینکِر پیشفرض به LLD تغییر کرده است؛ تغییری که معمولاً باعث لینک سریعتر، وابستگیهای سیستمی کمتر و ساختهای قابلاعتمادتر میشود. در مقابل، macOS x86_64 از نظر اولویت پشتیبانی تنزل یافته؛ گرچه همچنان قابل استفاده است، اما تمرکز بیشتر پروژه به سمت پلتفرمهای جدیدتر (مانند Apple Silicon) رفته است. توصیه میشود توسعهدهندگان یادداشتهای انتشار را مرور کرده و تنظیمات CI و وابستگیهای خود را با پیشفرضها و اولویتهای جدید هماهنگ کنند.
#Rust #Rust190 #LLD #Linux #macOS #x86_64 #Release #Programming
🟣لینک مقاله:
https://www.phoronix.com/news/Rust-1.90-Released
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Rust 1.90 Released With LLD Default On Linux x86_64 While macOS x86_64 Demoted
🟢 خلاصه مقاله:
Rust 1.90 منتشر شد و علاوه بر بهبودهای معمول، تغییرات مهمی در ابزارها و هدفهای پشتیبانیشده دارد. در این نسخه، روی Linux x86_64 لینکِر پیشفرض به LLD تغییر کرده است؛ تغییری که معمولاً باعث لینک سریعتر، وابستگیهای سیستمی کمتر و ساختهای قابلاعتمادتر میشود. در مقابل، macOS x86_64 از نظر اولویت پشتیبانی تنزل یافته؛ گرچه همچنان قابل استفاده است، اما تمرکز بیشتر پروژه به سمت پلتفرمهای جدیدتر (مانند Apple Silicon) رفته است. توصیه میشود توسعهدهندگان یادداشتهای انتشار را مرور کرده و تنظیمات CI و وابستگیهای خود را با پیشفرضها و اولویتهای جدید هماهنگ کنند.
#Rust #Rust190 #LLD #Linux #macOS #x86_64 #Release #Programming
🟣لینک مقاله:
https://www.phoronix.com/news/Rust-1.90-Released
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Rust 1.90 Released With LLD Default On Linux x86_64 While macOS x86_64 Demoted
Rust 1.90 is out today as the newest feature release for this popular programming language.
❤1
🔵 عنوان مقاله
FreeBSD 15.0 Beta 5 Released With Build Fixes For Google & Azure Clouds
🟢 خلاصه مقاله:
نسخه Beta 5 از FreeBSD 15.0 با تمرکز بر رفعاشکالهای ساخت برای استقرار در Google Cloud و Microsoft Azure منتشر شد. قرار بود این آخر هفته نسخه RC1 منتشر شود، اما تیم انتشار برای اطمینان از پایداری و آزمون بیشتر یک بتای دیگر را ضروری دانست. تمرکز این نسخه بر تثبیت، بهبود فرآیند ساخت و اطمینان از سازگاری تصاویر ابری است و از کاربران خواسته شده آن را در سختافزار واقعی، ماشینهای مجازی و بهویژه در Google Cloud و Microsoft Azure آزمایش و مشکلات را گزارش کنند. RC1 پس از تکمیل بازخورد و اطمینان از آمادگی منتشر خواهد شد.
#FreeBSD #FreeBSD15 #Beta5 #RC1 #GoogleCloud #MicrosoftAzure #OpenSource #CloudComputing
🟣لینک مقاله:
https://www.phoronix.com/news/FreeBSD-15.0-Beta-5
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
FreeBSD 15.0 Beta 5 Released With Build Fixes For Google & Azure Clouds
🟢 خلاصه مقاله:
نسخه Beta 5 از FreeBSD 15.0 با تمرکز بر رفعاشکالهای ساخت برای استقرار در Google Cloud و Microsoft Azure منتشر شد. قرار بود این آخر هفته نسخه RC1 منتشر شود، اما تیم انتشار برای اطمینان از پایداری و آزمون بیشتر یک بتای دیگر را ضروری دانست. تمرکز این نسخه بر تثبیت، بهبود فرآیند ساخت و اطمینان از سازگاری تصاویر ابری است و از کاربران خواسته شده آن را در سختافزار واقعی، ماشینهای مجازی و بهویژه در Google Cloud و Microsoft Azure آزمایش و مشکلات را گزارش کنند. RC1 پس از تکمیل بازخورد و اطمینان از آمادگی منتشر خواهد شد.
#FreeBSD #FreeBSD15 #Beta5 #RC1 #GoogleCloud #MicrosoftAzure #OpenSource #CloudComputing
🟣لینک مقاله:
https://www.phoronix.com/news/FreeBSD-15.0-Beta-5
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
FreeBSD 15.0 Beta 5 Released With Build Fixes For Google & Azure Clouds
FreeBSD 15.0-RC1 had been expected this weekend but instead a fifth beta release of FreeBSD 15.0 was deemed warranted.