Forwarded from DevTwitter | توییت برنامه نویسی
Forwarded from Mr Python | مستر پایتون (حسین)
🟣 اسمبلی x86 - قسمت 8 : مدل حافظه قطعه بندی (Segmentation) در 8086
در این ویدیو به بررسی مدل حافظه مورد استفاده از ریزپردازنده 8086 به نام قطعه بندی (Segmentation) خواهیم پرداخت .
01:00 مدل حافظه (Memory Model) چیست ؟
03:13 مدل قطعه بندی (Segmentation) چیست ؟
08:10 حافظه 8086
13:36 آدرس های حافظه (منطقی و فیزیکی) در 8086
19:34 الگوریتم تبدیل آدرس منطقی به فیزیکی در قطعه بندی 8086
24:27 نکاتی در مورد قطعه بندی 8086
26:46 مروری بر ثبات های قطعه (Segment Registers) در 8086
Aparat : https://www.aparat.com/v/phvb3j9
Youtube : https://youtu.be/0DWjnkXruUo
🆔 : @MrPythonBlog | BOOST
در این ویدیو به بررسی مدل حافظه مورد استفاده از ریزپردازنده 8086 به نام قطعه بندی (Segmentation) خواهیم پرداخت .
01:00 مدل حافظه (Memory Model) چیست ؟
03:13 مدل قطعه بندی (Segmentation) چیست ؟
08:10 حافظه 8086
13:36 آدرس های حافظه (منطقی و فیزیکی) در 8086
19:34 الگوریتم تبدیل آدرس منطقی به فیزیکی در قطعه بندی 8086
24:27 نکاتی در مورد قطعه بندی 8086
26:46 مروری بر ثبات های قطعه (Segment Registers) در 8086
Aparat : https://www.aparat.com/v/phvb3j9
Youtube : https://youtu.be/0DWjnkXruUo
🆔 : @MrPythonBlog | BOOST
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
لینوس توروالدز نخستین نسخهی کاندیدای انتشار کرنل لینوکس 6.18 را اعلام کرد
انتظار میرود نسخه نهایی سری کرنل لینوکس 6.18 در اواخر نوامبر یا اوایل دسامبر 2025 منتشر شود و احتمال دارد این نسخه به عنوان سری LTS (پشتیبانی بلندمدت) بعدی انتخاب شود.
کاندیدای انتشار لینوکس 6.18
امروز لینوس توروالدز در دسترس بودن عمومی نخستین نسخهی کاندیدای انتشار (RC) از سری کرنل در حال توسعهی لینوکس 6.18 را برای آزمایش اعلام کرد.
امروز دقیقاً دو هفته از انتشار کرنل لینوکس 6.17 میگذرد و پنجرهی ادغام برای نسخه 6.18 باز شده است. این به آن معناست که زمان آن فرا رسیده تا در چند ماه آینده نسخههای RC آزمایش شوند — نخستین نسخه هماکنون از مخزن گیت لینوس توروالدز قابل دانلود است.
برخی از نکات برجسته در لینوکس 6.18 عبارتاند از:
پشتیبانی اولیه از ویژگی «اندازه بلوک بزرگتر از اندازه صفحه» برای سیستم فایل Btrfs
شناسایی ویژگی PTW در سختافزار جدید برای LoongArch KVM
پشتیبانی از اجرای کرنل به عنوان مهمان در هایپروایزر Bhyve سیستمعامل FreeBSD
پشتیبانی از رمزنگاری PSP برای ارتباطات TCP
علاوه بر این، لینوکس 6.18 شامل یک درایور EDAC برای کنترلر حافظه AMD VersalNET است که خطاهای سختافزاری را از بلوکهای مختلف IP در بستر با استفاده از یک نوع انتقال IPC گزارش میدهد. همچنین از دو سیستم روی تراشه (SoC) Alder Lake-S پشتیبانی میکند و یک درایور EDAC برای هستههای ARM Cortex-A72 جهت گزارش خطاهای کش L1 و L2 افزوده شده است.
نویسنده: حسین سیلانی. آموزش بیشتر در:
https://learninghive.ir
انتظار میرود نسخه نهایی سری کرنل لینوکس 6.18 در اواخر نوامبر یا اوایل دسامبر 2025 منتشر شود و احتمال دارد این نسخه به عنوان سری LTS (پشتیبانی بلندمدت) بعدی انتخاب شود.
کاندیدای انتشار لینوکس 6.18
امروز لینوس توروالدز در دسترس بودن عمومی نخستین نسخهی کاندیدای انتشار (RC) از سری کرنل در حال توسعهی لینوکس 6.18 را برای آزمایش اعلام کرد.
امروز دقیقاً دو هفته از انتشار کرنل لینوکس 6.17 میگذرد و پنجرهی ادغام برای نسخه 6.18 باز شده است. این به آن معناست که زمان آن فرا رسیده تا در چند ماه آینده نسخههای RC آزمایش شوند — نخستین نسخه هماکنون از مخزن گیت لینوس توروالدز قابل دانلود است.
برخی از نکات برجسته در لینوکس 6.18 عبارتاند از:
پشتیبانی اولیه از ویژگی «اندازه بلوک بزرگتر از اندازه صفحه» برای سیستم فایل Btrfs
شناسایی ویژگی PTW در سختافزار جدید برای LoongArch KVM
پشتیبانی از اجرای کرنل به عنوان مهمان در هایپروایزر Bhyve سیستمعامل FreeBSD
پشتیبانی از رمزنگاری PSP برای ارتباطات TCP
علاوه بر این، لینوکس 6.18 شامل یک درایور EDAC برای کنترلر حافظه AMD VersalNET است که خطاهای سختافزاری را از بلوکهای مختلف IP در بستر با استفاده از یک نوع انتقال IPC گزارش میدهد. همچنین از دو سیستم روی تراشه (SoC) Alder Lake-S پشتیبانی میکند و یک درایور EDAC برای هستههای ARM Cortex-A72 جهت گزارش خطاهای کش L1 و L2 افزوده شده است.
نویسنده: حسین سیلانی. آموزش بیشتر در:
https://learninghive.ir
Forwarded from DevTwitter | توییت برنامه نویسی
This media is not supported in your browser
VIEW IN TELEGRAM
کمپانی OpenAI توی dev day که چند روز پیش برگزار کرد چند تا ابزار عالی برای دولوپرها معرفی کرد. به نظرم بهترینش chatKit بود. که میتونید باهاش agentic chat بسازید. مثلا یک چت بات همراه با UI بذارید تو وب سایتتنون.نه تنها این، بلکه میتونید کامپوننت های مختلف درست کنید و بجای اینکه فقط جواب ها متن خالی باشه المان های دیگه مثل Card, Button و .. هم توی چت نشون بدید. من تو ویدیوی پایین یکی از مثال هایی که گذاشتند را اجرا کردم. سریع چت بات بالا امد و میشه باهاش صحبت کرد. چیزی که خیلی از بیزینس ها بهش نیاز دارند.
لینکها را میذارم چک کنید. و سعی کنید باهاشون اپ درست کنید.
Link: https://platform.openai.com/docs/guides/chatkit
Github: https://github.com/openai/openai-chatkit-advanced-samples
@DevTwitter | <Mehdi Allahyari/>
لینکها را میذارم چک کنید. و سعی کنید باهاشون اپ درست کنید.
Link: https://platform.openai.com/docs/guides/chatkit
Github: https://github.com/openai/openai-chatkit-advanced-samples
@DevTwitter | <Mehdi Allahyari/>
Forwarded from Laravel News
Elevating SQL Efficiency - Laravel In Practice EP7 https://laravel-news.com/elevating-sql-efficiency-laravel-in-practice-ep7
Laravel News
Elevating SQL Efficiency - Laravel In Practice EP7 - Laravel News
our PHP is doing database work. Loading 10,000 orders into memory to sum them up is like using Excel to count grains of rice. Move those calculations to SQL where they belong - let SUM() and COUNT() do the heavy lifting in milliseconds, not megabytes. This…
Forwarded from GitHub Trending Daily
🔥 New GitHub Trending Repositories 🔥
Found 5 new trending repositories:
1. Clone-Wars by GorvGoyl
📝 100+ open-source clones of popular sites like Airbnb, Amazon, Instagram, Netflix, Tiktok, Spotify, W...
💻 Sponsor | ⭐ 30,038 | 🌟 Today: 151
🔗 Link
2. happy-llm by datawhalechina
📝 📚 从零开始的大语言模型原理与实践教程
💻 Jupyter Notebook | ⭐ 19,341 | 🌟 Today: 180
🔗 Link
3. wireguard-fpga by chili-chips-ba
📝 Full-throttle, wire-speed hardware implementation of Wireguard VPN, using low-cost Artix7 FPGA with ...
💻 Verilog | ⭐ 943 | 🌟 Today: 197
🔗 Link
4. MaxKB by 1Panel-dev
📝 🔥 MaxKB is an open-source platform for building enterprise-grade agents. MaxKB 是强大易用的开源企业级智能体平台。
💻 Python | ⭐ 18,564 | 🌟 Today: 12
🔗 Link
5. modded-nanogpt by KellerJordan
📝 NanoGPT (124M) in 3 minutes
💻 Python | ⭐ 3,243 | 🌟 Today: 44
🔗 Link
🔘 @github_trending_daily
Found 5 new trending repositories:
1. Clone-Wars by GorvGoyl
📝 100+ open-source clones of popular sites like Airbnb, Amazon, Instagram, Netflix, Tiktok, Spotify, W...
💻 Sponsor | ⭐ 30,038 | 🌟 Today: 151
🔗 Link
2. happy-llm by datawhalechina
📝 📚 从零开始的大语言模型原理与实践教程
💻 Jupyter Notebook | ⭐ 19,341 | 🌟 Today: 180
🔗 Link
3. wireguard-fpga by chili-chips-ba
📝 Full-throttle, wire-speed hardware implementation of Wireguard VPN, using low-cost Artix7 FPGA with ...
💻 Verilog | ⭐ 943 | 🌟 Today: 197
🔗 Link
4. MaxKB by 1Panel-dev
📝 🔥 MaxKB is an open-source platform for building enterprise-grade agents. MaxKB 是强大易用的开源企业级智能体平台。
💻 Python | ⭐ 18,564 | 🌟 Today: 12
🔗 Link
5. modded-nanogpt by KellerJordan
📝 NanoGPT (124M) in 3 minutes
💻 Python | ⭐ 3,243 | 🌟 Today: 44
🔗 Link
🔘 @github_trending_daily
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
این ویدیو خیلی باحال نحوه کارکردن Binary code و memory رو توضیح میده
https://youtu.be/11Hnld1r84o?si=yT2pRumCIfJAhxPv
https://youtu.be/11Hnld1r84o?si=yT2pRumCIfJAhxPv
YouTube
How Computer Memory Works? Simple Explanation | Digital Binary ASCII codes
How Computer Memory Works? Simple Explanation | Digital Binary ASCII codes
Have you ever wondered how your phone stores every photo and song you own using just two numbers? This video breaks down the mind-blowing secret of computer memory in the simplest…
Have you ever wondered how your phone stores every photo and song you own using just two numbers? This video breaks down the mind-blowing secret of computer memory in the simplest…
Forwarded from محتوای آزاد سهراب (Sohrab)
دوستان با تجربه در دیسکورد، پیشنهاداتتون برای فعال کردن یک سرور دیسکوردی که چندساله داره خاک میخوره چیه؟
#موقت ولی مهم
#موقت ولی مهم
Forwarded from کانال اطلاعرسانی توزیع پارچ
معرفی دستورات مفید پوسته
این تاپیک ایجاد شده که با مشارکت دوستان به صورت روزانه یک دستور مفید از پوسته لینوکس رو معرفی کنیم.
https://forum.parchlinux.com/t/topic/765
#کافه_پارچ
@ParchLinux
این تاپیک ایجاد شده که با مشارکت دوستان به صورت روزانه یک دستور مفید از پوسته لینوکس رو معرفی کنیم.
https://forum.parchlinux.com/t/topic/765
#کافه_پارچ
@ParchLinux
Parch Linux
دستورات مفید پوسته
خب این تاپیک ایجاد شده که داخلش دستورات مفید پوسته رو با توضیحات کوتاه و به همراه مثال معرفی کنیم :) برای شروع من از xargs میگم. دستور: xargs برای اجرای یک دستور با آرگومانهایی که از ورودی استاندارد یا خروجی دستور دیگر گرفته میشوند استفاده میشود؛ مخصوصاً…
Forwarded from Laravel News
PHP 8.5 Introduces a New URI Extension https://laravel-news.com/php-85-introduces-a-new-uri-extension
Laravel News
PHP 8.5 Introduces a New URI Extension - Laravel News
PHP 8.5 introduces a new standards-compliant URI parser for both RFC 3986 and the WHATWG URL standards. Learn how you can use PHP's built-in URI standards to generate safe, compliant URLs.
Forwarded from Reza Jafari
مدل یاد گرفته یا فقط دادههارو حفظ کرده؟ داستان Overfitting در یادگیری ماشین
تا حالا برات پیش اومده یه مدل بسازی که روی دادههای آموزشی فوقالعاده عمل کنه، ولی وقتی با دادهی جدید امتحانش میکنی، کلاً خراب کنه؟ این دقیقاً همون چیزیه که بهش میگن Overfitting. یعنی مدل بهجای اینکه الگوهای واقعی دادههارو یاد بگیره، جزئیات و نویزهای خاص دادههای آموزشی رو حفظ کرده. مثل وقتی که یکی برای امتحان فقط جواب سؤالها رو حفظ میکنه، نه خود درس رو یاد میگیره. طبیعیه که توی سؤالهای جدید گیر میکنه.
این اتفاق معمولاً وقتی میافته که مدل خیلی پیچیدهست یا دادههایی که داری کم و تکراریان. یه مفهومی هست به اسم bias-variance tradeoff که خلاصهش اینه: اگه مدل زیادی ساده باشه، چیزای مهم رو از دست میده (bias زیاد میشه) و اگه زیادی پیچیده باشه، بهجای یاد گرفتن، شروع میکنه به “حفظ کردن” دادهها (variance زیاد میشه).
نشونههای Overfitting معمولاً قابل تشخیصن. مثلاً وقتی دقت مدل روی دادههای آموزشی خیلی بالاست ولی روی دادههای اعتبارسنجی پایین میاد، یا وقتی خطای آموزش (training loss) داره کم میشه ولی خطای اعتبارسنجی (validation loss) دیگه بهتر نمیشه یا حتی بدتر میشه، باید بدونی یه جای کار میلنگه. مخصوصاً اگه مدل روی دادههای جدید افت عملکرد شدیدی داشته باشه، یعنی بهجای یادگیری، فقط دادهها رو حفظ کرده.
اما خبر خوب اینه که میتونی تا حد زیادی جلوش رو بگیری. یکی از بهترین کارها استفاده از cross-validationه؛ یعنی دادههارو به چند قسمت تقسیم میکنی و مدل رو چند بار روی ترکیبهای مختلف آموزش میدی تا فقط روی یه بخش خاص از دادهها قفل نکنه. سادهتر کردن مدل هم همیشه مفیده. مدلهای خیلی پیچیده معمولاً بیشتر دچار Overfitting میشن.
روشهایی مثل Regularization (مثلاً L1 یا L2) هم کمک زیادی میکنن. این روشها یه جور جریمه برای وزنهای بزرگ مدل اضافه میکنن تا مدل نتونه زیادی به یه ویژگی خاص وابسته بشه. اگه با شبکههای عصبی کار میکنی، Dropout یکی از روشهاییه که خیلی جواب میده. با Dropout بعضی از نورونها بهصورت تصادفی در حین آموزش غیرفعال میشن تا مدل وابسته به یه مسیر خاص نشه.
یه تکنیک دیگه که معمولاً مؤثره، Early Stopping هست. یعنی وقتی دیدی عملکرد مدل روی دادههای اعتبارسنجی دیگه بهتر نمیشه، آموزش رو همونجا متوقف کنی. اینطوری مدل قبل از اینکه شروع کنه به حفظ کردن جزئیات بیربط، متوقف میشه. اگه دادههات محدوده، Data Augmentation خیلی به کارت میاد. مثلاً توی دادههای تصویری میتونی با چرخوندن، بریدن یا تغییر روشنایی تصویر، دادههای بیشتری بسازی تا مدل با تنوع بیشتری روبهرو بشه.
یه نکتهی مهم دیگه هم انتخاب ویژگیهاست (Feature Selection). حذف ویژگیهای اضافی و پرنویز باعث میشه مدل تمرکزش رو روی چیزای مهمتر بذاره. گاهی هم میتونی از روشهایی مثل PCA برای کاهش ابعاد داده استفاده کنی تا ورودیها خلاصهتر بشن.
در پروژههای بزرگتر معمولاً از ترکیب چند مدل (Ensemble Methods) مثل Bagging یا Boosting استفاده میکنن. این کار باعث میشه ضعف یه مدل با قوت مدلهای دیگه جبران بشه و نتیجهی نهایی پایدارتر بشه.
در نهایت، همیشه یادت باشه هدف از ساخت مدل یادگیری ماشین این نیست که فقط روی دادههای آموزش دقت بالایی داشته باشه، بلکه باید بتونه در دنیای واقعی هم خوب عمل کنه. اگه دیدی دقت مدل خیلی غیرواقعی بالاست، یه بار دیگه نگاهش کن. شاید مدل بهجای یاد گرفتن، فقط داره دادههارو از بر میکنه.
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🌐 لینک ارتباط با اهورا
@reza_jafari_ai
تا حالا برات پیش اومده یه مدل بسازی که روی دادههای آموزشی فوقالعاده عمل کنه، ولی وقتی با دادهی جدید امتحانش میکنی، کلاً خراب کنه؟ این دقیقاً همون چیزیه که بهش میگن Overfitting. یعنی مدل بهجای اینکه الگوهای واقعی دادههارو یاد بگیره، جزئیات و نویزهای خاص دادههای آموزشی رو حفظ کرده. مثل وقتی که یکی برای امتحان فقط جواب سؤالها رو حفظ میکنه، نه خود درس رو یاد میگیره. طبیعیه که توی سؤالهای جدید گیر میکنه.
این اتفاق معمولاً وقتی میافته که مدل خیلی پیچیدهست یا دادههایی که داری کم و تکراریان. یه مفهومی هست به اسم bias-variance tradeoff که خلاصهش اینه: اگه مدل زیادی ساده باشه، چیزای مهم رو از دست میده (bias زیاد میشه) و اگه زیادی پیچیده باشه، بهجای یاد گرفتن، شروع میکنه به “حفظ کردن” دادهها (variance زیاد میشه).
نشونههای Overfitting معمولاً قابل تشخیصن. مثلاً وقتی دقت مدل روی دادههای آموزشی خیلی بالاست ولی روی دادههای اعتبارسنجی پایین میاد، یا وقتی خطای آموزش (training loss) داره کم میشه ولی خطای اعتبارسنجی (validation loss) دیگه بهتر نمیشه یا حتی بدتر میشه، باید بدونی یه جای کار میلنگه. مخصوصاً اگه مدل روی دادههای جدید افت عملکرد شدیدی داشته باشه، یعنی بهجای یادگیری، فقط دادهها رو حفظ کرده.
اما خبر خوب اینه که میتونی تا حد زیادی جلوش رو بگیری. یکی از بهترین کارها استفاده از cross-validationه؛ یعنی دادههارو به چند قسمت تقسیم میکنی و مدل رو چند بار روی ترکیبهای مختلف آموزش میدی تا فقط روی یه بخش خاص از دادهها قفل نکنه. سادهتر کردن مدل هم همیشه مفیده. مدلهای خیلی پیچیده معمولاً بیشتر دچار Overfitting میشن.
روشهایی مثل Regularization (مثلاً L1 یا L2) هم کمک زیادی میکنن. این روشها یه جور جریمه برای وزنهای بزرگ مدل اضافه میکنن تا مدل نتونه زیادی به یه ویژگی خاص وابسته بشه. اگه با شبکههای عصبی کار میکنی، Dropout یکی از روشهاییه که خیلی جواب میده. با Dropout بعضی از نورونها بهصورت تصادفی در حین آموزش غیرفعال میشن تا مدل وابسته به یه مسیر خاص نشه.
یه تکنیک دیگه که معمولاً مؤثره، Early Stopping هست. یعنی وقتی دیدی عملکرد مدل روی دادههای اعتبارسنجی دیگه بهتر نمیشه، آموزش رو همونجا متوقف کنی. اینطوری مدل قبل از اینکه شروع کنه به حفظ کردن جزئیات بیربط، متوقف میشه. اگه دادههات محدوده، Data Augmentation خیلی به کارت میاد. مثلاً توی دادههای تصویری میتونی با چرخوندن، بریدن یا تغییر روشنایی تصویر، دادههای بیشتری بسازی تا مدل با تنوع بیشتری روبهرو بشه.
یه نکتهی مهم دیگه هم انتخاب ویژگیهاست (Feature Selection). حذف ویژگیهای اضافی و پرنویز باعث میشه مدل تمرکزش رو روی چیزای مهمتر بذاره. گاهی هم میتونی از روشهایی مثل PCA برای کاهش ابعاد داده استفاده کنی تا ورودیها خلاصهتر بشن.
در پروژههای بزرگتر معمولاً از ترکیب چند مدل (Ensemble Methods) مثل Bagging یا Boosting استفاده میکنن. این کار باعث میشه ضعف یه مدل با قوت مدلهای دیگه جبران بشه و نتیجهی نهایی پایدارتر بشه.
در نهایت، همیشه یادت باشه هدف از ساخت مدل یادگیری ماشین این نیست که فقط روی دادههای آموزش دقت بالایی داشته باشه، بلکه باید بتونه در دنیای واقعی هم خوب عمل کنه. اگه دیدی دقت مدل خیلی غیرواقعی بالاست، یه بار دیگه نگاهش کن. شاید مدل بهجای یاد گرفتن، فقط داره دادههارو از بر میکنه.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DevTwitter | توییت برنامه نویسی
قبلا WebSocket رو nest.js کار کرده بودم
از روی کنجکاوی خواستم WebSocket این سری روی express.jsرو پیادهسازی کنم، حاصلش شد یه مینی پروژه با Express.js, TypeScript و MongoDB
یه تجربه جالب برای درک بهتر ارتباط real-time
https://github.com/OmidRezazadeh/chat-app-express.js
@DevTwitter | <0miD/>
از روی کنجکاوی خواستم WebSocket این سری روی express.jsرو پیادهسازی کنم، حاصلش شد یه مینی پروژه با Express.js, TypeScript و MongoDB
یه تجربه جالب برای درک بهتر ارتباط real-time
https://github.com/OmidRezazadeh/chat-app-express.js
@DevTwitter | <0miD/>
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
برای فعالیت در حوزه ai حتما نیازه ریاضی بلد باشید یا حداقل علاقه داشته باشید
چون که اگه شما بخواید بفهمید یه الگوریتم یا یه مدل دقیقا چیکار داره میکنه نیاز دارید بفهمید فرمولش داره چیکارمیکنه ( یا حتی اگه بخواید یه الگوریتم طراحی کنید)
پس برای علاقه مندان حتماً پیشنهاد میکنم دانش ریاضیتون رو بالا ببرید حالا یا با کمک منابع و کتاب های سطح اینترنت یا هوش مصنوعی
موفق باشید❤️
چون که اگه شما بخواید بفهمید یه الگوریتم یا یه مدل دقیقا چیکار داره میکنه نیاز دارید بفهمید فرمولش داره چیکارمیکنه ( یا حتی اگه بخواید یه الگوریتم طراحی کنید)
پس برای علاقه مندان حتماً پیشنهاد میکنم دانش ریاضیتون رو بالا ببرید حالا یا با کمک منابع و کتاب های سطح اینترنت یا هوش مصنوعی
موفق باشید❤️
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
در اینده سعی میکنم لیستی از کتاب ها و منابع مناسب رو بهتون معرفی کنم
Forwarded from LinNews (Benyamin)
مقایسه FSR 4 در کارتگرافیکهای پشتیبانی نشده و سری 9000 که بهطور رسمی پشتیبانی میشود
#AMD #FSR4 #RDNA #GPU
مقایسه کیفیت تصویر
به ما بپیوندید :
@LinNews | @LinAcademy
#AMD #FSR4 #RDNA #GPU
مقایسه کیفیت تصویر
کیفیت تصویر FSR 4 در کارتهای قدیمیتر، نسبت به سری RX 9000 با پشتیبانی رسمی، کمی پایینتر است اما همچنان از FSR 3.1 بهتر دیده میشود. البته تفاوتها به خود بازی نیز بستگی دارند اما بهطور کلی تصویر در RDNA 2 و RDNA 3 پایداری کمتر و سو سو زدن بیشتری دارد.مقایسه عملکرد
در زمینه عملکرد، FSR 4 در کارتگرافیکهای قدیمی حدود ۹ تا ۱۳ درصد عملکرد پایین تری نسبت به FSR 3 دارد، درحالیکه این کاهش عملکرد نسبت به FSR 3 در کارتگرافیک RX 9060 XT تنها ۳ تا ۵ درصد است. حتی RX 9060 XT گاهی با حدود ۱۷ درصد عملکرد بهتر در FSR 4 نسخه FSR 3.1 را شکست دهد.منبع خبر
به ما بپیوندید :
@LinNews | @LinAcademy
Forwarded from محتوای آزاد سهراب (Sohrab)
ورود با گیتهاب و گوگل که خطا داشتن دوباره رو چک کنید و بهم بگید، دیسکورد هم همینطور.
سرور رو عوض کردم و force https فروم رو روشن کردم.
#موقت
سرور رو عوض کردم و force https فروم رو روشن کردم.
#موقت
Forwarded from Python BackendHub (Mani)
سلام به همه همراهان
من اکانت گیت هابم بسته شده, بدون اینکه دلیل رو بهم ایمیل کنند یا بگن. و این واقعا برام عجیب بود. تیکت ساختم که پییگری بشه ولی برام خیلی مهمه که بتونم اکانتمو برگردونم چون پروژه اوپن سورس داشتم روش که روزانه هزار دانلود میخورد و داکیومنتش رو گیت هاب هاست میشد :(
خیلی خوشحال میشم اگه این پست لینکدین رو repost کنید تا بیشتر دیده بشه 🙏
@PyBackendHub
من اکانت گیت هابم بسته شده, بدون اینکه دلیل رو بهم ایمیل کنند یا بگن. و این واقعا برام عجیب بود. تیکت ساختم که پییگری بشه ولی برام خیلی مهمه که بتونم اکانتمو برگردونم چون پروژه اوپن سورس داشتم روش که روزانه هزار دانلود میخورد و داکیومنتش رو گیت هاب هاست میشد :(
خیلی خوشحال میشم اگه این پست لینکدین رو repost کنید تا بیشتر دیده بشه 🙏
@PyBackendHub
Linkedin
Today my GitHub account was disabled out of the blue—no warning, no email, no explanation :/.
I have already opened ticket but…
I have already opened ticket but…
Today my GitHub account was disabled out of the blue—no warning, no email, no explanation :/.
I have already opened ticket but I found it surprising that my account was banned like that. I maintain open-source projects, and this puts my work on hold and could…
I have already opened ticket but I found it surprising that my account was banned like that. I maintain open-source projects, and this puts my work on hold and could…
Forwarded from DevTwitter | توییت برنامه نویسی
از بین پرسنل LTT که از تیم جدا/اخراج شدن، Jake از همهشون بهتره. زمانی که اونجا بود هم آدم تاثیرگذاری بود.
کانال جدید یوتوبش از دو هفته پیش کلاً ۴ تا ویدئو داره و خب لوح 100K رو هم در همین دو هفته گرفته (الان بیشتر از 185K مشترک)
https://www.youtube.com/@jakkuh_t
@DevTwitter | <Hamed/>
کانال جدید یوتوبش از دو هفته پیش کلاً ۴ تا ویدئو داره و خب لوح 100K رو هم در همین دو هفته گرفته (الان بیشتر از 185K مشترک)
https://www.youtube.com/@jakkuh_t
@DevTwitter | <Hamed/>
Forwarded from Python BackendHub (Mani)
ظاهرا پست لینکدین جواب داد. تو ردیت همه نوشته بودن ۲-۳ هفته طول میکشه جواب بدن بررسی کنند. جالبه تیکتی که باز کردم هنوز جوابی نگرفته. تازه sponsorship گیتهابو فعال کردن برام که بتونم پروژه هام اسپانسر بگیرن و پول بگیرم از این طریق. :))
@PyBackendHub
@PyBackendHub