it's 1940's and you're listening to vintage jazz on a cozy rainy…
olivercassis_
یه موزیک اوردم خوراک کد زدنه
❤2
یه روشی که موقع کار و مطالعه باعث شده تمرکزم ۱۰ برابر بشه اینه که یه کاغذ کنارم میزارم و هروقت میخوام یه کار غیر ضروری بکنم یا فکرم جایی میره روش مینوسم Next time.
واقعا کمکم کرده و منی که ۵ دقیقه نمیتونستم پشت کد یا کتاب بشینم چندین ساعت همینجوری به کارام میرسم
امتحان کنید 👍
بعد یه مدت مغزتون خودش کار اون کاغذ رو انجام میده (;
واقعا کمکم کرده و منی که ۵ دقیقه نمیتونستم پشت کد یا کتاب بشینم چندین ساعت همینجوری به کارام میرسم
امتحان کنید 👍
بعد یه مدت مغزتون خودش کار اون کاغذ رو انجام میده (;
👍13❤4
برام سوال شد پیف پاف تاریخش بگذره خوبه یا بد؟
#random
#random
🤣21
Forwarded from Linuxor ?
دلیل قطعی بزرگ اینترنت (AWS) مشخص شد: یه شرط رقابتی پنهان (latent race condition) توی سیستم مدیریت خودکار پایگاه داده DynamoDB باعث این اتفاق شده.
اول بریم ببینیم شرط رقابتی چیه؟ یه شرط رقابتی زمانی رخ میده که دو یا چند فرآیند بهطور همزمان به یه منبع مشترک دسترسی داشته باشند در نتیجه ترتیب اجرای اونها تعیینکننده نتیجه نهایی هستش، حالا بریم سراغ شرط رقابتی پنهان: شرط رقابتی پنهان مثل یه بمب ساعتی هستش، چون مشکل همیشه ظاهر نمیشه و فقط در شرایط خاصی که ترتیب دقیق اجرای فرآیندها اتفاق بیفتد، رخ میده و تشخیصش بسیار سخت میشه.
توی این قطعی اخیر، دو برنامه مستقل در حال بهروزرسانی همزمان رکوردهای شبکهای بودن و همین باعث شد ورودیهای کلیدی حذف بشن و بهطور زنجیرهای بسیاری از خدمات AWS دچار اختلال بشن. این قطعی بسیاری از وبسایتها و خدمات آنلاین سراسر جهان رو تحت تأثیر قرار داد و کلی از پلتفرما از کار افتادن.
@Linuxor
اول بریم ببینیم شرط رقابتی چیه؟ یه شرط رقابتی زمانی رخ میده که دو یا چند فرآیند بهطور همزمان به یه منبع مشترک دسترسی داشته باشند در نتیجه ترتیب اجرای اونها تعیینکننده نتیجه نهایی هستش، حالا بریم سراغ شرط رقابتی پنهان: شرط رقابتی پنهان مثل یه بمب ساعتی هستش، چون مشکل همیشه ظاهر نمیشه و فقط در شرایط خاصی که ترتیب دقیق اجرای فرآیندها اتفاق بیفتد، رخ میده و تشخیصش بسیار سخت میشه.
توی این قطعی اخیر، دو برنامه مستقل در حال بهروزرسانی همزمان رکوردهای شبکهای بودن و همین باعث شد ورودیهای کلیدی حذف بشن و بهطور زنجیرهای بسیاری از خدمات AWS دچار اختلال بشن. این قطعی بسیاری از وبسایتها و خدمات آنلاین سراسر جهان رو تحت تأثیر قرار داد و کلی از پلتفرما از کار افتادن.
@Linuxor
❤1
Linuxor ?
دلیل قطعی بزرگ اینترنت (AWS) مشخص شد: یه شرط رقابتی پنهان (latent race condition) توی سیستم مدیریت خودکار پایگاه داده DynamoDB باعث این اتفاق شده. اول بریم ببینیم شرط رقابتی چیه؟ یه شرط رقابتی زمانی رخ میده که دو یا چند فرآیند بهطور همزمان به یه منبع مشترک…
حتی aws هم race condition خورد😂
🤣11
Ninja Learn | نینجا لرن
مغزم نمیمغزه برای پست
نظرتون چیه تجربیاتو درمورد پروژه ای که به تازگی داشتم؟
👍14
Random Forest یا همون غول پایدار یادگیری ماشین
داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقههای Kaggle و پروژههای واقعی هست
نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.
اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درختهای تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از دادهها (Bootstrap) آموزش میبینه
تو هر گره، فقط یه تعداد تصادفی از ویژگیها (features) بررسی میشه
خروجی نهایی با رأیگیری (طبقهبندی) یا میانگین (رگرسیون) ترکیب میشه
نتیجه؟ یه مدل قوی که Variance درختهای تک رو کم میکنه، بدون اینکه Bias زیاد بشه.
چطور کار میکنه؟ (۳ گام ساده داره)
۱. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی میسازیم.
تقریباً 63.2% دادهها تو هر درخت هستن (بقیه میشن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368
۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقهبندی: √p ویژگی (p = کل ویژگیها)
رگرسیون: p/3 یا √p
این کار باعث میشه درختها همبستگی کمی داشته باشن
چرا اینقدر خوبه؟
دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) میده
با داده گمشده کار میکنه
نیازی به نرمالسازی نداره
اهمیت ویژگی چطور حساب میشه؟
با کاهش میانگین ناخالصی (مثل Gini) در گرههایی که از اون ویژگی استفاده شده.
روش دقیقترش: Permutation Importance
ویژگی رو به هم میریزیم و افت دقت رو اندازه میگیریم.
کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیشبینی قیمت خانه
و...
نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."
*منبع: Breiman, L. (2001). Random Forests*
➖➖➖➖➖➖➖➖➖➖
داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقههای Kaggle و پروژههای واقعی هست
نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.
اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درختهای تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از دادهها (Bootstrap) آموزش میبینه
تو هر گره، فقط یه تعداد تصادفی از ویژگیها (features) بررسی میشه
خروجی نهایی با رأیگیری (طبقهبندی) یا میانگین (رگرسیون) ترکیب میشه
نتیجه؟ یه مدل قوی که Variance درختهای تک رو کم میکنه، بدون اینکه Bias زیاد بشه.
چطور کار میکنه؟ (۳ گام ساده داره)
۱. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی میسازیم.
تقریباً 63.2% دادهها تو هر درخت هستن (بقیه میشن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368
۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقهبندی: √p ویژگی (p = کل ویژگیها)
رگرسیون: p/3 یا √p
این کار باعث میشه درختها همبستگی کمی داشته باشن
چرا اینقدر خوبه؟
دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) میده
با داده گمشده کار میکنه
نیازی به نرمالسازی نداره
اهمیت ویژگی چطور حساب میشه؟
با کاهش میانگین ناخالصی (مثل Gini) در گرههایی که از اون ویژگی استفاده شده.
روش دقیقترش: Permutation Importance
ویژگی رو به هم میریزیم و افت دقت رو اندازه میگیریم.
کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیشبینی قیمت خانه
و...
نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."
*منبع: Breiman, L. (2001). Random Forests*
#️⃣ #ai #programming
➖➖➖➖➖➖➖➖➖➖
🥷🏻 CHANNEL | GROUP
❤6