Ninja Learn | نینجا لرن
1.26K subscribers
105 photos
41 videos
12 files
326 links
یادگیری برنامه نویسی به سبک نینجا 🥷
اینجا چیزایی یاد میگیری که فقط نینجاهای وب‌ بلدن 🤫

📄 Send me post: https://t.iss.one/NoronChat_bot?start=sec-fdggghgebe

👥 ɢʀᴏᴜᴘ: https://t.iss.one/+td1EcO_YfSphNTlk
Download Telegram
it's 1940's and you're listening to vintage jazz on a cozy rainy…
olivercassis_
یه موزیک اوردم خوراک کد زدنه
2
یه روشی که موقع کار و مطالعه باعث شده تمرکزم ۱۰ برابر بشه اینه که یه کاغذ کنارم میزارم و هروقت میخوام یه کار غیر ضروری بکنم یا فکرم جایی میره روش مینوسم Next time.
واقعا کمکم کرده و منی که ۵ دقیقه نمیتونستم پشت کد یا کتاب بشینم چندین ساعت همینجوری به کارام میرسم
امتحان کنید 👍
بعد یه مدت مغزتون خودش کار اون کاغذ رو انجام میده (;
👍134
برام سوال شد پیف پاف تاریخش بگذره خوبه یا بد؟
#random
🤣21
Forwarded from Linuxor ?
دلیل قطعی بزرگ اینترنت (AWS) مشخص شد: یه شرط رقابتی پنهان (latent race condition) توی سیستم مدیریت خودکار پایگاه داده DynamoDB باعث این اتفاق شده.

اول بریم ببینیم شرط رقابتی چیه؟ یه شرط رقابتی زمانی رخ می‌ده که دو یا چند فرآیند به‌طور همزمان به یه منبع مشترک دسترسی داشته باشند در نتیجه ترتیب اجرای اون‌ها تعیین‌کننده نتیجه نهایی هستش، حالا بریم سراغ شرط رقابتی پنهان: شرط رقابتی پنهان مثل یه بمب ساعتی هستش، چون مشکل همیشه ظاهر نمی‌شه و فقط در شرایط خاصی که ترتیب دقیق اجرای فرآیندها اتفاق بیفتد، رخ می‌ده و تشخیصش بسیار سخت می‌شه.

توی این قطعی اخیر، دو برنامه مستقل در حال به‌روزرسانی همزمان رکوردهای شبکه‌ای بودن و همین باعث شد ورودی‌های کلیدی حذف بشن و به‌طور زنجیره‌ای بسیاری از خدمات AWS دچار اختلال بشن. این قطعی بسیاری از وب‌سایت‌ها و خدمات آنلاین سراسر جهان رو تحت تأثیر قرار داد و کلی از پلتفرما از کار افتادن.

@Linuxor
1
مغزم نمیمغزه برای پست
8💔1
Ninja Learn | نینجا لرن
مغزم نمیمغزه برای پست
نظرتون چیه تجربیاتو درمورد پروژه ای که به تازگی داشتم؟
👍14
Random Forest یا همون غول پایدار یادگیری ماشین

داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقه‌های Kaggle و پروژه‌های واقعی هست

نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.

اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درخت‌های تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از داده‌ها (Bootstrap) آموزش می‌بینه

تو هر گره، فقط یه تعداد تصادفی از ویژگی‌ها (features) بررسی می‌شه

خروجی نهایی با رأی‌گیری (طبقه‌بندی) یا میانگین (رگرسیون) ترکیب می‌شه

نتیجه؟ یه مدل قوی که Variance درخت‌های تک رو کم می‌کنه، بدون اینکه Bias زیاد بشه.

چطور کار می‌کنه؟ (۳ گام ساده داره)

۱‏. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی می‌سازیم.
تقریباً 63.2% داده‌ها تو هر درخت هستن (بقیه می‌شن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368

۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقه‌بندی: √p ویژگی (p = کل ویژگی‌ها)

رگرسیون: p/3 یا √p

این کار باعث می‌شه درخت‌ها همبستگی کمی داشته باشن

چرا اینقدر خوبه؟

دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) می‌ده
با داده گمشده کار می‌کنه
نیازی به نرمال‌سازی نداره

اهمیت ویژگی چطور حساب می‌شه؟
با کاهش میانگین ناخالصی (مثل Gini) در گره‌هایی که از اون ویژگی استفاده شده.
روش دقیق‌ترش: Permutation Importance
ویژگی رو به هم می‌ریزیم و افت دقت رو اندازه می‌گیریم.

کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیش‌بینی قیمت خانه
و...

نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."

*منبع: Breiman, L. (2001). Random Forests*

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
6