🔵 عنوان مقاله
ASRock AI Quickset WSL Aims To Make It Easier Running ROCm + AI Linux Apps On Windows
🟢 خلاصه مقاله:
ASRock نسخه دوم ابزار تسهیلکننده خود را با نام AI QuickSet WSL معرفی کرده است؛ ابزاری که نصب و راهاندازی AMD ROCm را در محیط WSL روی Windows سادهتر میکند و استقرار بستههای AI مبتنی بر Linux را در همان محیط روانتر میسازد. این نسخه جدید با هدف کاهش دردسرهای تنظیمات (از هماهنگی درایورها تا پیکربندی ROCm و نصب ابزارهای AI) ارائه شده تا کاربران بتوانند بدون نیاز به dual-boot یا مجازیسازی کامل، از مزایای اکوسیستم AI در Linux روی سیستمهای Windows خود بهره ببرند. بهطور خلاصه، AI QuickSet WSL مسیر اجرای سریعتر و کمدردسرتر نرمافزارهای AI لینوکسی را برای کاربران سختافزار ASRock فراهم میکند.
#ASRock #AIQuickSet #WSL #ROCm #Windows #Linux #AMD #AI
🟣لینک مقاله:
https://www.phoronix.com/news/ASRock-AI-QuickSet-WSL
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
ASRock AI Quickset WSL Aims To Make It Easier Running ROCm + AI Linux Apps On Windows
🟢 خلاصه مقاله:
ASRock نسخه دوم ابزار تسهیلکننده خود را با نام AI QuickSet WSL معرفی کرده است؛ ابزاری که نصب و راهاندازی AMD ROCm را در محیط WSL روی Windows سادهتر میکند و استقرار بستههای AI مبتنی بر Linux را در همان محیط روانتر میسازد. این نسخه جدید با هدف کاهش دردسرهای تنظیمات (از هماهنگی درایورها تا پیکربندی ROCm و نصب ابزارهای AI) ارائه شده تا کاربران بتوانند بدون نیاز به dual-boot یا مجازیسازی کامل، از مزایای اکوسیستم AI در Linux روی سیستمهای Windows خود بهره ببرند. بهطور خلاصه، AI QuickSet WSL مسیر اجرای سریعتر و کمدردسرتر نرمافزارهای AI لینوکسی را برای کاربران سختافزار ASRock فراهم میکند.
#ASRock #AIQuickSet #WSL #ROCm #Windows #Linux #AMD #AI
🟣لینک مقاله:
https://www.phoronix.com/news/ASRock-AI-QuickSet-WSL
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
ASRock AI Quickset WSL Aims To Make It Easier Running ROCm + AI Linux Apps On Windows
Back in late 2023 ASRock announced AI QuickSet to make it easier to get up and running with AI workloads on their hardware under Windows or Linux
🔵 عنوان مقاله
Mesa Adds Contributor Guidelines - Will Allow AI Generated Code If Author Understands It
🟢 خلاصه مقاله:
** راهنمای جدید مشارکت در پروژه Mesa در مخزن Git ادغام و به مستندات رسمی اضافه شده است تا مسیر ارسال Patchها برای کاربران تازهکار روشنتر شود. بخش مهمی از این راهنما میگوید ارسال کد تولیدشده یا کمکگرفته از AI مجاز است، به شرطی که نویسنده واقعاً آن را بفهمد و مسئولیت کاملش را بپذیرد. هدف این سیاست آن است که ضمن پذیرفتن نقش ابزارهای AI در توسعه، استانداردهای کیفیت، قابلیت نگهداری و پاسخگویی در فرایند بازبینی کد حفظ شود.
#Mesa #OpenSource #AI #ContributorGuidelines #Git #CodeReview #SoftwareDevelopment #Mesa3D
🟣لینک مقاله:
https://www.phoronix.com/news/Mesa-Contributor-Guidelines
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Mesa Adds Contributor Guidelines - Will Allow AI Generated Code If Author Understands It
🟢 خلاصه مقاله:
** راهنمای جدید مشارکت در پروژه Mesa در مخزن Git ادغام و به مستندات رسمی اضافه شده است تا مسیر ارسال Patchها برای کاربران تازهکار روشنتر شود. بخش مهمی از این راهنما میگوید ارسال کد تولیدشده یا کمکگرفته از AI مجاز است، به شرطی که نویسنده واقعاً آن را بفهمد و مسئولیت کاملش را بپذیرد. هدف این سیاست آن است که ضمن پذیرفتن نقش ابزارهای AI در توسعه، استانداردهای کیفیت، قابلیت نگهداری و پاسخگویی در فرایند بازبینی کد حفظ شود.
#Mesa #OpenSource #AI #ContributorGuidelines #Git #CodeReview #SoftwareDevelopment #Mesa3D
🟣لینک مقاله:
https://www.phoronix.com/news/Mesa-Contributor-Guidelines
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Mesa Adds Contributor Guidelines - Will Allow AI Generated Code If Author Understands It
Merged to Mesa Git are new contributor guidelines added to the documentation
🔵 عنوان مقاله
Raspberry Pi Announces Price Increases Due To Rising Memory Demand
🟢 خلاصه مقاله:
Raspberry Pi اعلام کرد بهدلیل افزایش هزینههای LPDDR، قیمت برخی محصولات خود را افزایش میدهد. عامل اصلی این وضعیت، رشد تقاضای جهانی برای حافظه—بهویژه HBM برای کاربردهای AI—است که فشار قیمتی را به بازار DRAM و سپس LPDDR منتقل کرده است. هدف از این تغییر، جبران بخشی از هزینهها و حفظ عرضه پایدار است؛ این افزایشها محدود بوده و در صورت ثبات بازار، دوباره بررسی خواهند شد.
#RaspberryPi #HBM #AI #LPDDR #DRAM #Semiconductors #Pricing #Makers
🟣لینک مقاله:
https://www.phoronix.com/news/Raspberry-Pi-Price-RAM-Demand
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Raspberry Pi Announces Price Increases Due To Rising Memory Demand
🟢 خلاصه مقاله:
Raspberry Pi اعلام کرد بهدلیل افزایش هزینههای LPDDR، قیمت برخی محصولات خود را افزایش میدهد. عامل اصلی این وضعیت، رشد تقاضای جهانی برای حافظه—بهویژه HBM برای کاربردهای AI—است که فشار قیمتی را به بازار DRAM و سپس LPDDR منتقل کرده است. هدف از این تغییر، جبران بخشی از هزینهها و حفظ عرضه پایدار است؛ این افزایشها محدود بوده و در صورت ثبات بازار، دوباره بررسی خواهند شد.
#RaspberryPi #HBM #AI #LPDDR #DRAM #Semiconductors #Pricing #Makers
🟣لینک مقاله:
https://www.phoronix.com/news/Raspberry-Pi-Price-RAM-Demand
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Raspberry Pi Announces Price Increases Due To Rising Memory Demand
Due to rising demand around system memory being pushed up in large part by HBM for AI applications, Raspberry Pi announced price increases on select products to help offset the rising LPDDR costs.
👍1
🔵 عنوان مقاله
AMD Ryzen AI Max+ "Strix Halo" Performance With ROCm 7.0
🟢 خلاصه مقاله:
ROCm 7.0 هفتهی گذشته منتشر شد، اما در فهرست رسمی GPUهای پشتیبانیشده نامی از SoCهای AMD Ryzen AI Max «Strix Halo» دیده نمیشد؛ موضوعی که پرسشهایی را از سوی کاربران، از جمله خوانندگان Phoronix، درباره سازگاری ایجاد کرد. با اینکه برخی از افراد AMD پیشتر به ارتباط Strix Halo با ROCm اشاره کرده بودند، نبودِ ذکر صریح در فهرست پشتیبانی ابهامهایی درباره کارکرد «آماده برای استفاده» بهجا گذاشت. برای رفع ابهام، نویسنده ROCm 7.0 را روی Ubuntu Linux و در یک Framework Desktop با AMD Ryzen AI Max 395 و Radeon 8060S Graphics آزمایش و بنچمارکهایی اجرا کرد تا تشخیص سختافزار، قابلیت استفاده از شتابدهندهها و تصویری اولیه از کارایی را بررسی کند. تمرکز بر روند نصب، شناسایی دستگاه، پایداری اجرا و توان محاسباتی پایه بود تا مشخص شود آیا میتوان از Strix Halo هماکنون برای بارهای GPU/AI با ROCm 7.0 استفاده کرد، حتی اگر هنوز در فهرست رسمی نامی از آن نیامده باشد.
#ROCm #AMD #RyzenAIMax #StrixHalo #Linux #GPU #AI #Benchmark
🟣لینک مقاله:
https://www.phoronix.com/review/amd-rocm-7-strix-halo
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
AMD Ryzen AI Max+ "Strix Halo" Performance With ROCm 7.0
🟢 خلاصه مقاله:
ROCm 7.0 هفتهی گذشته منتشر شد، اما در فهرست رسمی GPUهای پشتیبانیشده نامی از SoCهای AMD Ryzen AI Max «Strix Halo» دیده نمیشد؛ موضوعی که پرسشهایی را از سوی کاربران، از جمله خوانندگان Phoronix، درباره سازگاری ایجاد کرد. با اینکه برخی از افراد AMD پیشتر به ارتباط Strix Halo با ROCm اشاره کرده بودند، نبودِ ذکر صریح در فهرست پشتیبانی ابهامهایی درباره کارکرد «آماده برای استفاده» بهجا گذاشت. برای رفع ابهام، نویسنده ROCm 7.0 را روی Ubuntu Linux و در یک Framework Desktop با AMD Ryzen AI Max 395 و Radeon 8060S Graphics آزمایش و بنچمارکهایی اجرا کرد تا تشخیص سختافزار، قابلیت استفاده از شتابدهندهها و تصویری اولیه از کارایی را بررسی کند. تمرکز بر روند نصب، شناسایی دستگاه، پایداری اجرا و توان محاسباتی پایه بود تا مشخص شود آیا میتوان از Strix Halo هماکنون برای بارهای GPU/AI با ROCm 7.0 استفاده کرد، حتی اگر هنوز در فهرست رسمی نامی از آن نیامده باشد.
#ROCm #AMD #RyzenAIMax #StrixHalo #Linux #GPU #AI #Benchmark
🟣لینک مقاله:
https://www.phoronix.com/review/amd-rocm-7-strix-halo
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
AMD Ryzen AI Max+ "Strix Halo" Performance With ROCm 7.0
With last week's official release of ROCm 7.0 failing to mention the AMD Ryzen AI Max 'Strix Halo' SoCs on the supported GPU list, a number of Phoronix readers and from elsewhere were inquiring whether or not Strix Halo works with the new ROCm release.
🔵 عنوان مقاله
New GIMP Plug-In Integrates Google Gemini AI Image Creation
🟢 خلاصه مقاله:
این خبر از عرضه یک افزونه جدید برای GIMP به نام Dream Prompter خبر میدهد که توسط Josh Ellithorpe توسعه داده شده و مدل Gemini 2.5 Flash Image Preview از Google را مستقیماً به روند کار ویرایش تصویر در GIMP میآورد. این افزونه مستقل از انتشار توسعهای جدید GIMP 3.2 است و بهعنوان یک افزودنی جداگانه عمل میکند. هدف آن تسهیل ساخت و آزمون تصاویر مبتنی بر هوش مصنوعی در خود GIMP است تا طراحان و سازندگان بتوانند سریعتر ایدهپردازی کرده و تغییرات بصری را با تکیه بر قابلیتهای Gemini ایجاد کنند.
#GIMP #Gemini #Google #DreamPrompter #OpenSource #AI #ImageEditing #Plugin
🟣لینک مقاله:
https://www.phoronix.com/news/Dream-Prompter-GIMP-Plugin
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
New GIMP Plug-In Integrates Google Gemini AI Image Creation
🟢 خلاصه مقاله:
این خبر از عرضه یک افزونه جدید برای GIMP به نام Dream Prompter خبر میدهد که توسط Josh Ellithorpe توسعه داده شده و مدل Gemini 2.5 Flash Image Preview از Google را مستقیماً به روند کار ویرایش تصویر در GIMP میآورد. این افزونه مستقل از انتشار توسعهای جدید GIMP 3.2 است و بهعنوان یک افزودنی جداگانه عمل میکند. هدف آن تسهیل ساخت و آزمون تصاویر مبتنی بر هوش مصنوعی در خود GIMP است تا طراحان و سازندگان بتوانند سریعتر ایدهپردازی کرده و تغییرات بصری را با تکیه بر قابلیتهای Gemini ایجاد کنند.
#GIMP #Gemini #Google #DreamPrompter #OpenSource #AI #ImageEditing #Plugin
🟣لینک مقاله:
https://www.phoronix.com/news/Dream-Prompter-GIMP-Plugin
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
New GIMP Plug-In Integrates Google Gemini AI Image Creation
Separate from yesterday's upstream new GIMP 3.2 development release, open-source developer Josh Ellithorpe announced the creation of a new GIMP plug-in dubbed 'Dream Prompter' for bringing the power of Google's Gemini 2.5 Flash Image Preview model to this…
🔵 عنوان مقاله
bsd-user-4-linux Lets FreeBSD Binaries Run Unmodified On Linux
🟢 خلاصه مقاله:
گزارش سهماهه Q2'2025 پروژه FreeBSD منتشر شده و چند تغییر مهم را برجسته میکند: تلاش «bsd-user-4-linux» برای اجرای باینریهای FreeBSD بدون تغییر روی Linux، تدوین سیاست استفاده از AI/LLM در مشارکتها بهمنظور شفافیت، رعایت مجوزها و حفظ کیفیت کد، و شکلگیری «Sylve» بهعنوان یک پلتفرم وبمحور برای مدیریت یکپارچه سیستمهای FreeBSD. این موارد نشان میدهند تمرکز FreeBSD بر بهبود قابلیت حمل، حکمرانی پروژه و سهولت مدیریت سیستمها ادامه دارد.
#FreeBSD #Linux #bsd_user_4_linux #AI #LLM #OpenSource #Sylve #SysAdmin
🟣لینک مقاله:
https://www.phoronix.com/news/FreeBSD-Q2-2025-Status-Report
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
bsd-user-4-linux Lets FreeBSD Binaries Run Unmodified On Linux
🟢 خلاصه مقاله:
گزارش سهماهه Q2'2025 پروژه FreeBSD منتشر شده و چند تغییر مهم را برجسته میکند: تلاش «bsd-user-4-linux» برای اجرای باینریهای FreeBSD بدون تغییر روی Linux، تدوین سیاست استفاده از AI/LLM در مشارکتها بهمنظور شفافیت، رعایت مجوزها و حفظ کیفیت کد، و شکلگیری «Sylve» بهعنوان یک پلتفرم وبمحور برای مدیریت یکپارچه سیستمهای FreeBSD. این موارد نشان میدهند تمرکز FreeBSD بر بهبود قابلیت حمل، حکمرانی پروژه و سهولت مدیریت سیستمها ادامه دارد.
#FreeBSD #Linux #bsd_user_4_linux #AI #LLM #OpenSource #Sylve #SysAdmin
🟣لینک مقاله:
https://www.phoronix.com/news/FreeBSD-Q2-2025-Status-Report
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
bsd-user-4-linux Lets FreeBSD Binaries Run Unmodified On Linux
The FreeBSD project on Friday published their quarterly status report to highlight all of the interesting changes for Q2'2025
🔵 عنوان مقاله
Intel Releases New LLM Scaler Betas For GenAI On Battlemage GPUs
🟢 خلاصه مقاله:
اینتل با هدف قدرتمندتر کردن GPUهای خود برای بارهای کاری GenAI، پس از انتشار LLM-Scaler 1.0 در قالب Project Battlematrix برای اجرای روان LLMها روی کارتهای Arc (Pro) B-Series، اکنون دو نسخه بتای جدید از LLM Scaler را معرفی کرده است. این نسخههای بتا برای بهبود عملکرد و پایداری روی GPUهای Battlemage عرضه شدهاند و با بهینهسازی هستهها و زمانبندی، کاهش تأخیر و بهبود بهرهوری حافظه، اجرای مدلهای بزرگ را روی سختافزارهای کلاینت و ورکاستیشن آسانتر میکنند. همچنین سازگاری با معماریها و مسیرهای کوانتسازی متنوعتر گسترش یافته تا مدلهای بیشتری در محدودیت حافظه اجرا شوند. تمرکز اینتل بر سادهسازی راهاندازی، ارائه پیکربندیهای مرجع و فراهم کردن مسیر قابل پیشبینی برای مقیاسدهی از نمونههای کوچک تا کاربردهای جدی است. اگرچه این انتشارها در مرحله بتا هستند، اما نشان میدهند اینتل قصد دارد Battlemage را به سکویی توانمند برای استنتاج GenAI تبدیل کند و دسترسی به AI پرکاربرد را روی سختافزار گرافیکی خود گسترش دهد.
#Intel #Battlemage #LLMScaler #GenAI #Arc #ProjectBattlematrix #GPU #AI
🟣لینک مقاله:
https://www.phoronix.com/news/LLM-Scaler-Betas-EO-Q3
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Intel Releases New LLM Scaler Betas For GenAI On Battlemage GPUs
🟢 خلاصه مقاله:
اینتل با هدف قدرتمندتر کردن GPUهای خود برای بارهای کاری GenAI، پس از انتشار LLM-Scaler 1.0 در قالب Project Battlematrix برای اجرای روان LLMها روی کارتهای Arc (Pro) B-Series، اکنون دو نسخه بتای جدید از LLM Scaler را معرفی کرده است. این نسخههای بتا برای بهبود عملکرد و پایداری روی GPUهای Battlemage عرضه شدهاند و با بهینهسازی هستهها و زمانبندی، کاهش تأخیر و بهبود بهرهوری حافظه، اجرای مدلهای بزرگ را روی سختافزارهای کلاینت و ورکاستیشن آسانتر میکنند. همچنین سازگاری با معماریها و مسیرهای کوانتسازی متنوعتر گسترش یافته تا مدلهای بیشتری در محدودیت حافظه اجرا شوند. تمرکز اینتل بر سادهسازی راهاندازی، ارائه پیکربندیهای مرجع و فراهم کردن مسیر قابل پیشبینی برای مقیاسدهی از نمونههای کوچک تا کاربردهای جدی است. اگرچه این انتشارها در مرحله بتا هستند، اما نشان میدهند اینتل قصد دارد Battlemage را به سکویی توانمند برای استنتاج GenAI تبدیل کند و دسترسی به AI پرکاربرد را روی سختافزار گرافیکی خود گسترش دهد.
#Intel #Battlemage #LLMScaler #GenAI #Arc #ProjectBattlematrix #GPU #AI
🟣لینک مقاله:
https://www.phoronix.com/news/LLM-Scaler-Betas-EO-Q3
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Intel Releases New LLM Scaler Betas For GenAI On Battlemage GPUs
Back in August Intel released LLM-Scaler 1.0 as part of Project Battlematrix for help getting generative AI 'GenAI' workloads running on Arc (Pro) B-Series graphics cards
❤1
🔵 عنوان مقاله
Canonical Begins Snap'ing Up Silicon-Optimized AI LLMs For Ubuntu Linux
🟢 خلاصه مقاله:
Canonical با تمرکز تازه بر Snap در Ubuntu Linux میخواهد اجرای محلی LLMها را ساده کند. ایدهی اصلی، عرضهی بستههای «silicon‑optimized» است؛ یعنی مدلها و اجزای اجرای آنها متناسب با سختافزار کاربر (از CPU تا GPU و NPU) آماده میشوند تا با تشخیص خودکار نسخهی مناسب، کارایی بالاتر، تأخیر کمتر و بهرهوری بهتر به دست آید. Snap با ایزولهسازی، وابستگیهای قابل پیشبینی و بهروزرسانی/بازگشت تراکنشی، استقرار امن و پایدار را در لپتاپ، سرور و دستگاههای لبه ممکن میکند. هدف، نصب آسان از Snap Store، اجرای سریع و قابل تکرار، و فراهمکردن زمینه برای استقرار محلی و خصوصی در سازمانها و محیطهای آفلاین است تا Ubuntu به گزینهی پیشفرض برای AI روی دستگاه و در محل تبدیل شود.
#Canonical #Ubuntu #Snap #Linux #AI #LLM #EdgeAI #HardwareAcceleration
🟣لینک مقاله:
https://www.phoronix.com/news/Ubuntu-Snap-Optimized-LLMs
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Canonical Begins Snap'ing Up Silicon-Optimized AI LLMs For Ubuntu Linux
🟢 خلاصه مقاله:
Canonical با تمرکز تازه بر Snap در Ubuntu Linux میخواهد اجرای محلی LLMها را ساده کند. ایدهی اصلی، عرضهی بستههای «silicon‑optimized» است؛ یعنی مدلها و اجزای اجرای آنها متناسب با سختافزار کاربر (از CPU تا GPU و NPU) آماده میشوند تا با تشخیص خودکار نسخهی مناسب، کارایی بالاتر، تأخیر کمتر و بهرهوری بهتر به دست آید. Snap با ایزولهسازی، وابستگیهای قابل پیشبینی و بهروزرسانی/بازگشت تراکنشی، استقرار امن و پایدار را در لپتاپ، سرور و دستگاههای لبه ممکن میکند. هدف، نصب آسان از Snap Store، اجرای سریع و قابل تکرار، و فراهمکردن زمینه برای استقرار محلی و خصوصی در سازمانها و محیطهای آفلاین است تا Ubuntu به گزینهی پیشفرض برای AI روی دستگاه و در محل تبدیل شود.
#Canonical #Ubuntu #Snap #Linux #AI #LLM #EdgeAI #HardwareAcceleration
🟣لینک مقاله:
https://www.phoronix.com/news/Ubuntu-Snap-Optimized-LLMs
➖➖➖➖➖➖➖➖
👑 @Linux_Labdon
Phoronix
Canonical Begins Snap'ing Up Silicon-Optimized AI LLMs For Ubuntu Linux
Canonical's new push for their Snap app packaging/sandboxed format on Ubuntu Linux is for AI large language models (LLMs)