Forwarded from IRCF | اینترنت آزاد برای همه
نسخه جدید از #فیلترشکن رایگان #دیفیکس حالا از طریق گوگلپلی و اپاستور برای گوشیهای #اندروید و #آیفون در دسترس قرار گرفته.
مهمترین بروزرسانی این نسخه اضافهشدن هسته ایکسری برای بهبود اتصال کاربران بوده، اما علاوه بر اون، بروزرسانی API به نسخه ۳، بازنویسی انیمیشنها برای بهبود سرعت و عملکرد برنامه، نمایش بهتر لاگها و تغییرات عمده در هسته #DXcore بهجهت افزایش پایداری، از دیگر تغییرات تازهی #Defyx هستن.
همچنین قراره در آپدیتهای بعدی علاوه بر رفع مشکلات موجود، ویژگی جدیدی به نام #ترجیحات اضافه بشه، که این امکان رو میده تا رفتار هستهی برنامه رو متناسب با نیازها و وضعیت اتصال اینترنتی خودتون تنظیم کنین.
1️⃣ play.google.com/store/apps/details?id=de.unboundtech.defyxvpn
2️⃣ apps.apple.com/us/app/defyx/id6746811872
🔍 ircf.space
@ircfspace
مهمترین بروزرسانی این نسخه اضافهشدن هسته ایکسری برای بهبود اتصال کاربران بوده، اما علاوه بر اون، بروزرسانی API به نسخه ۳، بازنویسی انیمیشنها برای بهبود سرعت و عملکرد برنامه، نمایش بهتر لاگها و تغییرات عمده در هسته #DXcore بهجهت افزایش پایداری، از دیگر تغییرات تازهی #Defyx هستن.
همچنین قراره در آپدیتهای بعدی علاوه بر رفع مشکلات موجود، ویژگی جدیدی به نام #ترجیحات اضافه بشه، که این امکان رو میده تا رفتار هستهی برنامه رو متناسب با نیازها و وضعیت اتصال اینترنتی خودتون تنظیم کنین.
1️⃣ play.google.com/store/apps/details?id=de.unboundtech.defyxvpn
2️⃣ apps.apple.com/us/app/defyx/id6746811872
🔍 ircf.space
@ircfspace
Forwarded from DevTwitter | توییت برنامه نویسی
#php
با یک دکمه, سرعت خروجی سایت با لاراول از 38ms به 8ms تغییر کرد,
و میزان مصرف رم در هر درخواست از 11mb به 0.26mb تغییر کرد
دکمه فعال سازی opcache در بخش تنظمات php سیپنل نسخه 8.4
میدونستم خوبه ولی این حجم از تغییر رو انتظار نداشتم
@DevTwitter | <Masoud Derakhshi/>
با یک دکمه, سرعت خروجی سایت با لاراول از 38ms به 8ms تغییر کرد,
و میزان مصرف رم در هر درخواست از 11mb به 0.26mb تغییر کرد
دکمه فعال سازی opcache در بخش تنظمات php سیپنل نسخه 8.4
میدونستم خوبه ولی این حجم از تغییر رو انتظار نداشتم
@DevTwitter | <Masoud Derakhshi/>
👍1
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
This media is not supported in your browser
VIEW IN TELEGRAM
🔶 بالاخره پروژه مرن استک تسک پایر به پایان رسید.
نسخه اولیه منتشر شد.
پروزه بر پایه سلف هاست است.
@TheRaymondDev
نسخه اولیه منتشر شد.
پروزه بر پایه سلف هاست است.
@TheRaymondDev
Forwarded from Reza Jafari
نگاهی بر مقاله جدید OpenAI ، چرا مدلهای زبانی دست از توهم برنمیدارن؟
مقاله جدید OpenAI توجه زیادی رو جلب کرده چون به ریشه اصلی پدیده hallucination در LLMها میپردازه و حتی راهحلی برای کاهش اون ارائه میده. Hallucination به معنای تولید خروجیهایی هست که ظاهراً معتبر و منطقی به نظر میرسن اما در واقع غلط هستن. این مسئله باعث کاهش اعتماد کاربران به مدلها میشه، چون وقتی یه مدل با اطمینان کامل چیزی رو اشتباه میگه، دیگه سخت میشه به جوابهای درستش هم اعتماد کرد. نکته مهمی که مقاله روی اون تأکید میکنه اینه که hallucinationها «بگ» یا خطاهای غیرمنتظره نیستن، بلکه بخشی طبیعی از فرآیند آموزش و ارزیابی مدلها هستن.
در مرحله pretraining، مدلها زبان رو از روی دادههای عظیم یاد میگیرن. این دادهها بهطور طبیعی پر از اشتباهات، ناقص بودنها و نیمهحقیقتها هستن. اما نکته کلیدیتر اینجاست: حتی اگر دادهها کاملاً بینقص و بدون خطا هم باشن (که در عمل غیرممکنه)، باز هم هدف آموزشی و معیارهایی مثل cross-entropy loss باعث میشن مدلها اشتباه کنن. دلیلش اینه که مدلها برای تولید همیشه مجبور به انتخاب یه پاسخ هستن و آموزش اونها طوری طراحی شده که به جای گفتن «نمیدونم» باید حتماً جواب بدن. این ساختار باعث میشه hallucinationها بهصورت آماری اجتنابناپذیر باشن. مقاله یادآوری میکنه که تولید یک پاسخ درست بسیار سختتر از تشخیص درستی یا نادرستی یک پاسخ آمادهست. چون تعداد جوابهای غلط بینهایت زیاده و مدل باید از بین همه اونها اجتناب کنه. برای همین hallucination مثل ویژگی ذاتی مدلهای زبانی فعلی عمل میکنه، نه یه استثناء.
یکی از مثالهای واضح، دادههای مربوط به تاریخ تولد افراد هست. اگر در دادههای آموزشی یک تاریخ تولد فقط یک بار ظاهر بشه، مدل احتمالاً نمیتونه اون رو درست به خاطر بسپره. پس وقتی بعداً ازش سؤال میشه، به جای «نمیدونم»، معمولاً یه تاریخ مشخص اما اشتباه رو با اعتمادبهنفس جواب میده. در واقع، تخمین مقاله اینه که اگر ۲۰٪ از دادههای مربوط به تولدها فقط یک بار در آموزش ظاهر شده باشن، همون مقدار hallucination روی این دسته از اطلاعات ناگزیر خواهد بود.
اما مشکل فقط به pretraining محدود نمیشه. در مرحله post-training که شامل روشهایی مثل RLHF یا DPO هست، تلاش میشه تا hallucination کاهش پیدا کنه. با این حال، این مرحله هم مشکل رو به طور کامل حل نمیکنه. دلیلش برمیگرده به شیوه ارزیابی مدلها. بیشتر benchmarkهای مهم مثل MMLU، GPQA، SWE-bench یا HLE از متریکهای binary accuracy استفاده میکنن. توی این متریکها، جواب درست یک امتیاز داره، جواب غلط صفر، و «نمیدونم» هم صفر. بنابراین مدلها هیچ پاداشی برای ابراز عدم اطمینان نمیگیرن. این سیستم باعث میشه بهترین استراتژی برای مدل «بلوف زدن» باشه، یعنی حتی وقتی مطمئن نیستن، با اعتمادبهنفس یه جواب مشخص بدن. درست مثل دانشآموزی که توی آزمون چندگزینهای وقتی مطمئن نیست، حدس میزنه چون حداقل شانس گرفتن امتیاز وجود داره، اما اگر خالی بذاره مطمئناً صفر میگیره.
مقاله به یه نکته جالب هم اشاره میکنه: hallucinationها معمولاً خیلی خاص و با جزئیات هستن. مثلاً به جای گفتن «پاییز»، مدل میگه «۳۰ سپتامبر»، حتی اگر اشتباه باشه. این به خاطر همون ساختار ارزیابی هست که مدلها رو به سمت جوابهای مشخص و مطمئن سوق میده، نه پاسخهای کلیتر یا «نمیدونم».
راهحل پیشنهادی مقاله به جای طراحی تستهای جدید، تغییر در mainstream evaluationهاست. نویسندهها پیشنهاد میکنن سیستم امتیازدهی اصلاح بشه به طوری که مدل برای «جواب ندادن» یا abstention تنبیه نشه. مثلاً: +۱ برای جواب درست، ۰ برای «نمیدونم»، و -۱ برای جواب غلط. اینطوری مدلها یاد میگیرن فقط وقتی جواب بدن که از یه آستانه مشخص (مثلاً ۷۵٪) مطمئنتر باشن. این روش که بهش behavioral calibration میگن، باعث میشه مدلها رفتار صادقانهتری داشته باشن و یاد بگیرن بین جواب دادن یا جواب ندادن بر اساس سطح اعتماد تصمیم بگیرن.
جالب اینجاست که همین حالا هم نشونههایی از این تغییر در نسل جدید مدلها دیده میشه. مثلاً بعضی گزارشها از GPT-5 نشون میده که وقتی مطمئن نیست، مستقیماً میگه «نمیدونم» و توضیح میده چرا نمیتونه جواب دقیق بده. این رفتار باعث شد حتی چهرههایی مثل Elon Musk هم از اون تحسین کنن. در واقع، چنین پاسخی به مراتب بهتر و قابلاعتمادتر از یک hallucination پرجزئیاته.
1/2
@reza_jafari_ai
مقاله جدید OpenAI توجه زیادی رو جلب کرده چون به ریشه اصلی پدیده hallucination در LLMها میپردازه و حتی راهحلی برای کاهش اون ارائه میده. Hallucination به معنای تولید خروجیهایی هست که ظاهراً معتبر و منطقی به نظر میرسن اما در واقع غلط هستن. این مسئله باعث کاهش اعتماد کاربران به مدلها میشه، چون وقتی یه مدل با اطمینان کامل چیزی رو اشتباه میگه، دیگه سخت میشه به جوابهای درستش هم اعتماد کرد. نکته مهمی که مقاله روی اون تأکید میکنه اینه که hallucinationها «بگ» یا خطاهای غیرمنتظره نیستن، بلکه بخشی طبیعی از فرآیند آموزش و ارزیابی مدلها هستن.
در مرحله pretraining، مدلها زبان رو از روی دادههای عظیم یاد میگیرن. این دادهها بهطور طبیعی پر از اشتباهات، ناقص بودنها و نیمهحقیقتها هستن. اما نکته کلیدیتر اینجاست: حتی اگر دادهها کاملاً بینقص و بدون خطا هم باشن (که در عمل غیرممکنه)، باز هم هدف آموزشی و معیارهایی مثل cross-entropy loss باعث میشن مدلها اشتباه کنن. دلیلش اینه که مدلها برای تولید همیشه مجبور به انتخاب یه پاسخ هستن و آموزش اونها طوری طراحی شده که به جای گفتن «نمیدونم» باید حتماً جواب بدن. این ساختار باعث میشه hallucinationها بهصورت آماری اجتنابناپذیر باشن. مقاله یادآوری میکنه که تولید یک پاسخ درست بسیار سختتر از تشخیص درستی یا نادرستی یک پاسخ آمادهست. چون تعداد جوابهای غلط بینهایت زیاده و مدل باید از بین همه اونها اجتناب کنه. برای همین hallucination مثل ویژگی ذاتی مدلهای زبانی فعلی عمل میکنه، نه یه استثناء.
یکی از مثالهای واضح، دادههای مربوط به تاریخ تولد افراد هست. اگر در دادههای آموزشی یک تاریخ تولد فقط یک بار ظاهر بشه، مدل احتمالاً نمیتونه اون رو درست به خاطر بسپره. پس وقتی بعداً ازش سؤال میشه، به جای «نمیدونم»، معمولاً یه تاریخ مشخص اما اشتباه رو با اعتمادبهنفس جواب میده. در واقع، تخمین مقاله اینه که اگر ۲۰٪ از دادههای مربوط به تولدها فقط یک بار در آموزش ظاهر شده باشن، همون مقدار hallucination روی این دسته از اطلاعات ناگزیر خواهد بود.
اما مشکل فقط به pretraining محدود نمیشه. در مرحله post-training که شامل روشهایی مثل RLHF یا DPO هست، تلاش میشه تا hallucination کاهش پیدا کنه. با این حال، این مرحله هم مشکل رو به طور کامل حل نمیکنه. دلیلش برمیگرده به شیوه ارزیابی مدلها. بیشتر benchmarkهای مهم مثل MMLU، GPQA، SWE-bench یا HLE از متریکهای binary accuracy استفاده میکنن. توی این متریکها، جواب درست یک امتیاز داره، جواب غلط صفر، و «نمیدونم» هم صفر. بنابراین مدلها هیچ پاداشی برای ابراز عدم اطمینان نمیگیرن. این سیستم باعث میشه بهترین استراتژی برای مدل «بلوف زدن» باشه، یعنی حتی وقتی مطمئن نیستن، با اعتمادبهنفس یه جواب مشخص بدن. درست مثل دانشآموزی که توی آزمون چندگزینهای وقتی مطمئن نیست، حدس میزنه چون حداقل شانس گرفتن امتیاز وجود داره، اما اگر خالی بذاره مطمئناً صفر میگیره.
مقاله به یه نکته جالب هم اشاره میکنه: hallucinationها معمولاً خیلی خاص و با جزئیات هستن. مثلاً به جای گفتن «پاییز»، مدل میگه «۳۰ سپتامبر»، حتی اگر اشتباه باشه. این به خاطر همون ساختار ارزیابی هست که مدلها رو به سمت جوابهای مشخص و مطمئن سوق میده، نه پاسخهای کلیتر یا «نمیدونم».
راهحل پیشنهادی مقاله به جای طراحی تستهای جدید، تغییر در mainstream evaluationهاست. نویسندهها پیشنهاد میکنن سیستم امتیازدهی اصلاح بشه به طوری که مدل برای «جواب ندادن» یا abstention تنبیه نشه. مثلاً: +۱ برای جواب درست، ۰ برای «نمیدونم»، و -۱ برای جواب غلط. اینطوری مدلها یاد میگیرن فقط وقتی جواب بدن که از یه آستانه مشخص (مثلاً ۷۵٪) مطمئنتر باشن. این روش که بهش behavioral calibration میگن، باعث میشه مدلها رفتار صادقانهتری داشته باشن و یاد بگیرن بین جواب دادن یا جواب ندادن بر اساس سطح اعتماد تصمیم بگیرن.
جالب اینجاست که همین حالا هم نشونههایی از این تغییر در نسل جدید مدلها دیده میشه. مثلاً بعضی گزارشها از GPT-5 نشون میده که وقتی مطمئن نیست، مستقیماً میگه «نمیدونم» و توضیح میده چرا نمیتونه جواب دقیق بده. این رفتار باعث شد حتی چهرههایی مثل Elon Musk هم از اون تحسین کنن. در واقع، چنین پاسخی به مراتب بهتر و قابلاعتمادتر از یک hallucination پرجزئیاته.
1/2
@reza_jafari_ai
Forwarded from Reza Jafari
نتیجه نهایی مقاله روشنه: hallucinationها از ساختار آماری pretraining سرچشمه میگیرن و با post-training و سیستمهای ارزیابی فعلی زنده میمونن چون این سیستمها «بلوف زدن» رو تشویق میکنن. اما اگر معیارهای ارزیابی و فرآیند یادگیری تقویتی اصلاح بشن، میشه به مدلهایی رسید که وقتی مطمئن نیستن، شفاف میگن «نمیدونم» و فقط زمانی جواب میدن که واقعاً به پاسخ خودشون اعتماد دارن. این تغییر میتونه اعتماد به هوش مصنوعی رو به شکل قابلتوجهی افزایش بده و راه رو برای استفاده گستردهتر از مدلهای زبانی هموار کنه.
2/2
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🛍 کد تخفیف ۱۰ درصدی محصولات اهورا برای اعضای کانال
🌐 لینک وبسایت اهورا
@reza_jafari_ai
2/2
AHURA5@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DevTwitter | توییت برنامه نویسی
This media is not supported in your browser
VIEW IN TELEGRAM
اخیرا طی تسکی که توی دوره آزمایشی ام دارم میگذرونم باید یه مدل سه بعدی رو روی نقشه load میکردم و یه سری کارا روش انجام میدادم.
تجربه هایی که این تسک برام داشت .
کار کردن با THREE js برای نور پردازی و ایجاد بستر برای مدل ۳ بعدی
اضافه کردن مدل GLTF/GLB
کار کردن با پکیج turf برای bearing و محاسبه فواصل
https://github.com/MahdiKgz/THREE_map
@DevTwitter | <Mahdi Khoshghadam zadeh/>
تجربه هایی که این تسک برام داشت .
کار کردن با THREE js برای نور پردازی و ایجاد بستر برای مدل ۳ بعدی
اضافه کردن مدل GLTF/GLB
کار کردن با پکیج turf برای bearing و محاسبه فواصل
https://github.com/MahdiKgz/THREE_map
@DevTwitter | <Mahdi Khoshghadam zadeh/>
Forwarded from tiivik️
یک منبع ارزشمند برای همه متخصصان #امنیت_سایبری و هر کسی که علاقه مند به به روز ماندن در مورد آخرین تهدیدات سایبری و خطرات دیجیتال است، مجموعه ای جامع از تجزیه و تحلیل تهدید و...
🆔@tiivik
🆔@tiivik
Forwarded from Linuxor ?
کد WebAssembly (WASM) به صورت مستقیم توسط انسان خیلی سخت قابل خوندنه، چون یه باینری فشرده است این یه کامپایلر + زبان برنامهنویسی شبیه تایپاسکریپت برای تولید WebAssembly هستش
www.assemblyscript.org
@Linuxor
www.assemblyscript.org
@Linuxor
Forwarded from Linuxor ?
این یه چیت شیت به قول خودشون VIP برای ماشین لرنینگ CS 229 از دانشگاه استنفورده که توش مفاهیم کلیدی و مهم دوره یادگیری ماشین و فرضیات، فرمولها، الگوریتمها، نکات مهم، روابط بین مفاهیم و پیشنیازها ها رو جمع کرده یجا؛ ورژن فارسی هم داره
github.com/afshinea/stanford-cs-229-machine-learning
@Linuxor
github.com/afshinea/stanford-cs-229-machine-learning
@Linuxor
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
کتاب فارسی 1001 مثال عملی پایتون، منتشر شد.
1001 Practical Python Examples
https://t.iss.one/linuxtnt/4516
1001 Practical Python Examples
https://t.iss.one/linuxtnt/4516
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 مستندات تسک پایر نوشتم و لوگو هم طراحی کردم.
https://github.com/Rayiumir/TaskPire
هم اکنون شرکت ها و فریلنسر برای مدیریت تسک ها می توانند از تسک پایر استفاده کنن.
برای نصب نیازمند سرور مجازی است.
@TheRaymondDev
https://github.com/Rayiumir/TaskPire
هم اکنون شرکت ها و فریلنسر برای مدیریت تسک ها می توانند از تسک پایر استفاده کنن.
برای نصب نیازمند سرور مجازی است.
@TheRaymondDev
GitHub
GitHub - TaskPire/TaskPire: Task management tool
Task management tool. Contribute to TaskPire/TaskPire development by creating an account on GitHub.
Forwarded from Linuxor ?
Forwarded from Reza Jafari
راهحل؟
حد تعریف کنید.
برای من اینطوری بوده که مشخص کردم ۳/۴ از روزم رو باید عمل کنم و ۱/۴ از روزم رو به یادگیری اختصاص بدم.
و اینکه عمل کردن و پیاده سازی رو جدا از یادگیری ندونید، شما فکر میکنید موضوعی رو بلدید تا اینکه مجبور میشید اون رو پیاده کنید، اون وقتی که پیاده میکنید فرایند یادگیریتون تکمیل میشه.
@reza_jafari_ai
حد تعریف کنید.
برای من اینطوری بوده که مشخص کردم ۳/۴ از روزم رو باید عمل کنم و ۱/۴ از روزم رو به یادگیری اختصاص بدم.
و اینکه عمل کردن و پیاده سازی رو جدا از یادگیری ندونید، شما فکر میکنید موضوعی رو بلدید تا اینکه مجبور میشید اون رو پیاده کنید، اون وقتی که پیاده میکنید فرایند یادگیریتون تکمیل میشه.
@reza_jafari_ai
Forwarded from Gopher Academy
🔵 عنوان مقاله
'GoLand Can Do That?' Ten Secret Superpowers You Might Not Know
🟢 خلاصه مقاله:
** خلاصه فارسی: این مجموعه با عنوان «GoLand میتواند این کار را بکند؟ ده توانایی مخفی که شاید ندانید» بر ویژگیهای کمترشناختهشدهی GoLand تمرکز دارد که بهرهوری برنامهنویسان Go را بالا میبرد. در ادامه، جان آرندل با استفاده از مسئلهی «فیلسوفان غذاخور» چالشهای همزمانی در Go—مانند بنبست، گرسنگی و شرایط رقابتی—را بهصورت مفهومی و عملی بررسی میکند. همچنین آنیس سواعد بهصورت انتقادی تجربهی مهاجرت از Docker به Podman را مرور میکند و مزایا و ملاحظات این تغییر را از منظر کارکرد، سازگاری و جریان کار توضیح میدهد. در مجموع، این مطالب—with مشارکت جان آرندل، آنیس سواعد و دومینیک شیمانسکی—میکوشند میان مهارت در ابزار IDE، درک عمیق همزمانی، و انتخاب آگاهانه ابزارهای کانتینری پیوند برقرار کنند.
🟣لینک مقاله:
https://golangweekly.com/link/174073/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
'GoLand Can Do That?' Ten Secret Superpowers You Might Not Know
🟢 خلاصه مقاله:
** خلاصه فارسی: این مجموعه با عنوان «GoLand میتواند این کار را بکند؟ ده توانایی مخفی که شاید ندانید» بر ویژگیهای کمترشناختهشدهی GoLand تمرکز دارد که بهرهوری برنامهنویسان Go را بالا میبرد. در ادامه، جان آرندل با استفاده از مسئلهی «فیلسوفان غذاخور» چالشهای همزمانی در Go—مانند بنبست، گرسنگی و شرایط رقابتی—را بهصورت مفهومی و عملی بررسی میکند. همچنین آنیس سواعد بهصورت انتقادی تجربهی مهاجرت از Docker به Podman را مرور میکند و مزایا و ملاحظات این تغییر را از منظر کارکرد، سازگاری و جریان کار توضیح میدهد. در مجموع، این مطالب—with مشارکت جان آرندل، آنیس سواعد و دومینیک شیمانسکی—میکوشند میان مهارت در ابزار IDE، درک عمیق همزمانی، و انتخاب آگاهانه ابزارهای کانتینری پیوند برقرار کنند.
🟣لینک مقاله:
https://golangweekly.com/link/174073/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Forwarded from کانال مهرداد لینوکس
🔥 نسخه VirtualBox 7.2.2 با دو ویژگی KVM APIs و آداپتور 82583V منتشر شد
✅ماژول KVM (Kernel-based Virtual Machine) ی در کرنل لینوکسه که اجازه میده پردازندهی سیستم (Intel VT-x یا AMD-V) مستقیماً برای اجرای ماشین مجازی استفاده بشه.
📄 نرم افزار VirtualBox به طور سنتی هایپروایزر خودش رو داشت (ring-0, VT-x driver و ...).
✨ حالا با پشتیبانی از KVM APIs، VirtualBox میتونه مستقیماً از زیرساخت کرنل لینوکس (نسخه 6.16 به بالا) استفاده کنه به جای این که همهچیز رو خودش پیادهسازی کنه.
📄 در VirtualBox هر ماشین مجازی یک کارت شبکه مجازی (NIC emulation) داره که برای مهمان مثل یه کارت واقعی دیده میشه.
مدل e1000 یکی از emulationهای پرکاربرده (Intel PRO/1000).
✨ حالا مدل 82583V اضافه شده که یک نسخه جدیدتر از سری e1000 هست.
امکانات سختافزاری بیشتر مثل پشتیبانی بهتر از MSI (Message Signaled Interrupts) یا بهینهسازیهای شبکهای ،تست نرمافزارهایی که نیاز به کارت شبکه خاص دارند
سطح پست : #عمومی
@MehrdadLinuxchannel
#Linux #لینوکس
#Utility
✅ماژول KVM (Kernel-based Virtual Machine) ی در کرنل لینوکسه که اجازه میده پردازندهی سیستم (Intel VT-x یا AMD-V) مستقیماً برای اجرای ماشین مجازی استفاده بشه.
📄 نرم افزار VirtualBox به طور سنتی هایپروایزر خودش رو داشت (ring-0, VT-x driver و ...).
✨ حالا با پشتیبانی از KVM APIs، VirtualBox میتونه مستقیماً از زیرساخت کرنل لینوکس (نسخه 6.16 به بالا) استفاده کنه به جای این که همهچیز رو خودش پیادهسازی کنه.
📄 در VirtualBox هر ماشین مجازی یک کارت شبکه مجازی (NIC emulation) داره که برای مهمان مثل یه کارت واقعی دیده میشه.
مدل e1000 یکی از emulationهای پرکاربرده (Intel PRO/1000).
✨ حالا مدل 82583V اضافه شده که یک نسخه جدیدتر از سری e1000 هست.
امکانات سختافزاری بیشتر مثل پشتیبانی بهتر از MSI (Message Signaled Interrupts) یا بهینهسازیهای شبکهای ،تست نرمافزارهایی که نیاز به کارت شبکه خاص دارند
سطح پست : #عمومی
@MehrdadLinuxchannel
#Linux #لینوکس
#Utility
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
⭐️یادش بخیر:
🔹دیسک نرمافزاری مربوط به AT&T UNIX System V است.
🔹نسخه مشخصشده روی این CD: Version 2.1 از Release 4 میباشد.
🔹این همان UNIX System V Release 4 (SVR4) است که توسط AT&T توسعه یافته بود و یکی از نسخههای مهم و تاریخی سیستمعامل یونیکس به شمار میرود.این نسخه UNIX System V Release 4 (SVR4) در سال ۱۹۸۹ توسط AT&T به همراه Sun Microsystems منتشر شد. این نسخه در واقع بهبودیافتهی SVR4 اصلی (۱۹۸۹) بود و بیشتر روی پایداری، رفع باگها و پشتیبانی از سختافزارهای جدیدتر تمرکز داشت.
این نسخه یک نقطه عطف بود چون برای اولین بار چند شاخهی مختلف یونیکس را یکپارچه کرد:
System V (نسخههای قبلی AT&T)
BSD (ویژگیهایی مثل sockets و job control)
SunOS
Xenix (مایکروسافت)
🔹اما SVR4 تلاش کرد یک استاندارد واحد برای UNIX بسازد و بعدها پایه بسیاری از سیستمهای تجاری و متنباز (مثل Solaris، UnixWare و حتی تأثیر بر Linux) شد.
🔹دیسک نرمافزاری مربوط به AT&T UNIX System V است.
🔹نسخه مشخصشده روی این CD: Version 2.1 از Release 4 میباشد.
🔹این همان UNIX System V Release 4 (SVR4) است که توسط AT&T توسعه یافته بود و یکی از نسخههای مهم و تاریخی سیستمعامل یونیکس به شمار میرود.این نسخه UNIX System V Release 4 (SVR4) در سال ۱۹۸۹ توسط AT&T به همراه Sun Microsystems منتشر شد. این نسخه در واقع بهبودیافتهی SVR4 اصلی (۱۹۸۹) بود و بیشتر روی پایداری، رفع باگها و پشتیبانی از سختافزارهای جدیدتر تمرکز داشت.
این نسخه یک نقطه عطف بود چون برای اولین بار چند شاخهی مختلف یونیکس را یکپارچه کرد:
System V (نسخههای قبلی AT&T)
BSD (ویژگیهایی مثل sockets و job control)
SunOS
Xenix (مایکروسافت)
🔹اما SVR4 تلاش کرد یک استاندارد واحد برای UNIX بسازد و بعدها پایه بسیاری از سیستمهای تجاری و متنباز (مثل Solaris، UnixWare و حتی تأثیر بر Linux) شد.