Ninja Learn | نینجا لرن
1.27K subscribers
105 photos
41 videos
12 files
326 links
یادگیری برنامه نویسی به سبک نینجا 🥷
اینجا چیزایی یاد میگیری که فقط نینجاهای وب‌ بلدن 🤫

📄 Send me post: https://t.iss.one/NoronChat_bot?start=sec-fdggghgebe

👥 ɢʀᴏᴜᴘ: https://t.iss.one/+td1EcO_YfSphNTlk
Download Telegram
یکی از چالش‌های رایج بین فعالان حوزه‌ی هوش مصنوعی اینه که نمی‌دونن برای آموزش مدلشون باید از چه الگوریتمی استفاده کنن
آیا باید سراغ Classification برن؟ یا Regression؟ یا شاید Clustering؟ 🤔

خوشبختانه، کتابخونه‌ی قدرتمند Scikit-learn (sklearn) توی مستندات رسمیش یه فلوچارت خیلی کاربردی ارائه داده که با دنبال کردنش می‌تونید دقیقاً بفهمید کدوم الگوریتم مناسب نوع داده و هدف پروژه‌تونه.

لینک

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
👍63🤣1
📘 کتاب: How to Prove It – نوشته‌ی Daniel J. Velleman

این کتاب یکی از بهترین منابع برای یادگیری منطق ریاضی و روش‌های اثباته. برخلاف بیشتر کتاب‌های دانشگاهی، How to Prove It از پایه شروع می‌کنه و قدم‌به‌قدم یاد می‌ده چطور از یک گزاره ساده به یک استدلال کامل برسی.

مطالبش شامل منطق گزاره‌ای، کوانتورها، مجموعه‌ها، توابع، روابط و روش‌های مختلف اثبات مثل اثبات مستقیم، خلف و استقراست.
نویسنده با مثال‌های زیاد نشون می‌ده چطور باید “فکر کردن ریاضیاتی” رو تمرین کنی مهارتی که توی برنامه‌نویسی، طراحی الگوریتم و تحلیل مسائل پیچیده واقعاً حیاتی‌ه.

📖 این کتاب برای هرکسی مناسبه که می‌خواد منطق پشت ریاضیات و اثبات‌ها رو عمیق‌تر درک کنه، مخصوصاً دانشجوهای ریاضی و علوم کامپیوتر و برنامه‌نویس‌هایی که دنبال تفکر دقیق‌تر و تحلیلی‌ترن.

پی دی اف کتاب

#️⃣ #math #book #programming

 
🥷🏻 CHANNEL | GROUP
4
How to Prove It A Structured Approach (Daniel J. Velleman).pdf
8.1 MB
اینم کتاب

#️⃣ #math #book #programming

 
🥷🏻 CHANNEL | GROUP
4
Random Forest یا همون غول پایدار یادگیری ماشین

داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقه‌های Kaggle و پروژه‌های واقعی هست

نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.

اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درخت‌های تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از داده‌ها (Bootstrap) آموزش می‌بینه

تو هر گره، فقط یه تعداد تصادفی از ویژگی‌ها (features) بررسی می‌شه

خروجی نهایی با رأی‌گیری (طبقه‌بندی) یا میانگین (رگرسیون) ترکیب می‌شه

نتیجه؟ یه مدل قوی که Variance درخت‌های تک رو کم می‌کنه، بدون اینکه Bias زیاد بشه.

چطور کار می‌کنه؟ (۳ گام ساده داره)

۱‏. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی می‌سازیم.
تقریباً 63.2% داده‌ها تو هر درخت هستن (بقیه می‌شن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368

۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقه‌بندی: √p ویژگی (p = کل ویژگی‌ها)

رگرسیون: p/3 یا √p

این کار باعث می‌شه درخت‌ها همبستگی کمی داشته باشن

چرا اینقدر خوبه؟

دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) می‌ده
با داده گمشده کار می‌کنه
نیازی به نرمال‌سازی نداره

اهمیت ویژگی چطور حساب می‌شه؟
با کاهش میانگین ناخالصی (مثل Gini) در گره‌هایی که از اون ویژگی استفاده شده.
روش دقیق‌ترش: Permutation Importance
ویژگی رو به هم می‌ریزیم و افت دقت رو اندازه می‌گیریم.

کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیش‌بینی قیمت خانه
و...

نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."

*منبع: Breiman, L. (2001). Random Forests*

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
6