Ninja Learn | نینجا لرن
1.25K subscribers
105 photos
41 videos
12 files
326 links
یادگیری برنامه نویسی به سبک نینجا 🥷
اینجا چیزایی یاد میگیری که فقط نینجاهای وب‌ بلدن 🤫

📄 Send me post: https://t.iss.one/NoronChat_bot?start=sec-fdggghgebe

👥 ɢʀᴏᴜᴘ: https://t.iss.one/+td1EcO_YfSphNTlk
Download Telegram
OSRM ماشین مسیریابی متن‌باز برای دنیای واقعی 🌍

اگه تو حوزه توسعه اپلیکیشن‌های نقشه، مسیریابی یا لجستیک کار می‌کنین، حتماً اسم
OSRM (Open Source Routing Machine) رو شنیدین. این ابزار یه موتور مسیریابی قدرتمند و متن‌بازه که بر اساس داده‌های OpenStreetMap کار می‌کنه و می‌تونه مسیریابی سریع و دقیق رو برای اپ‌های موبایل، وب یا حتی سیستم‌های بزرگ فراهم کنه.(به تازگی توی یکی از پروژه هام استفادش کردم و عالی بود)
تو این پست قراره یه نگاه تقریباً کامل به OSRM بندازیم.

🧠 اول از همه OSRM چیه؟

OSRM مخفف Open Source Routing Machine، یه موتور مسیریابی متن‌بازه که با
‏ C++ نوشته شده و برای محاسبه کوتاه‌ترین مسیرها تو شبکه‌های جاده‌ای طراحی شده. این ابزار از داده‌های OpenStreetMap (OSM) استفاده می‌کنه – یه نقشه متن‌باز جهانی که توسط جامعه ساخته می‌شه – و می‌تونه مسیریابی برای ماشین، دوچرخه، پیاده یا حتی وسایل نقلیه خاص رو انجام بده.

پروژه OSRM از سال ۲۰۱۰ توسط Dennis Luxen شروع شد و حالا توسط جامعه‌ای از توسعه‌دهنده‌ها (از جمله تیم Mapbox) نگهداری می‌شه. هدف اصلیش؟ ارائه مسیریابی سریع، دقیق و قابل سفارشی‌سازی بدون وابستگی به سرویس‌های تجاری مثل Google Maps.
‏OSRM نه‌تنها مسیریابی ساده انجام می‌ده، بلکه قابلیت‌هایی مثل map matching (مطابقت مسیر با جاده) و حل مسئله TSP رو هم داره.

📚 چطور کار می‌کنه؟

‏OSRM دو بخش اصلی داره:
پیش‌پردازش (Preprocessing) و سرویس‌دهی (Serving).

1⃣ پیش‌پردازش:
آماده‌سازی داده‌ها 🛠️
داده‌های OSM (فایل‌های .osm.pbf) رو می‌گیره و به یه گراف بهینه‌شده تبدیل می‌کنه.

از الگوریتم‌های پیشرفته‌ای مثل Contraction Hierarchies (CH) یا Multi-Level Dijkstra (MLD) استفاده می‌کنه. CH برای ماتریس‌های فاصله بزرگ عالیه، و MLD (پیشنهادی برای بیشتر موارد) تعادل خوبی بین سرعت و دقت برقرار می‌کنه.

مراحل پیش‌پردازش:
Extract:
داده‌های OSM رو به گراف خام تبدیل می‌کنه.

Partition/Customize:
گراف رو بهینه می‌کنه (مثل ساخت ایندکس‌ها برای سرعت).

Contract:
برای CH، گراف رو فشرده می‌کنه تا جستجو سریع‌تر بشه.

2⃣ سرویس‌دهی محاسبه مسیر 🗺️
سرور HTTP/JSON ارائه می‌ده که می‌تونین ازش برای محاسبه مسیر، تخمین زمان، یا حتی تولید tileهای نقشه با metadata مسیریابی استفاده کنین.

🚀 ویژگی‌های کلیدی OSRM


1⃣ الگوریتم‌های مسیریابی پیشرفته 🧮

Contraction Hierarchies (CH):
برای ماتریس‌های فاصله بزرگ (مثل محاسبه فاصله بین ۱۰۰۰ نقطه) عالیه. سرعت محاسبه رو به میلی‌ثانیه می‌رسونه.

Multi-Level Dijkstra (MLD):
تعادل خوبی بین دقت و سرعت داره و برای مسیریابی روزمره پیشنهاد می‌شه.

Map Matching:
مسیرهای GPS نویزی (مثل داده‌های موبایل) رو با جاده‌های واقعی مطابقت می‌ده – عالی برای اپ‌های ناوبری.

2⃣ پروفایل‌های سفارشی 🚗🚲
می‌تونین پروفایل‌های مختلف بسازین:
‏car (ماشین)، bike (دوچرخه)، foot (پیاده) یا حتی وسایل نقلیه سنگین.
هر پروفایل قوانین خاص خودش رو داره (مثل اجتناب از بزرگراه‌ها برای دوچرخه).

3⃣ تولید Tileهای نقشه 🏗️
‏OSRM می‌تونه Mapbox Vector Tiles با metadata مسیریابی تولید کنه، که برای اپ‌های موبایل (مثل Mapbox GL) عالیه.

4⃣ حل مسئله فروشنده دوره‌گرد (TSP) 🛒
برای محاسبه بهینه مسیر بازدید از چند نقطه (مثل تحویل کالا) استفاده می‌شه.
مثال: محاسبه ماتریس فاصله بین ۱۰ انبار.

5⃣ ادغام آسون با Docker و API 🐳
‏Docker images آماده برای سریع راه‌اندازی (ghcr.io/project-osrm/osrm-backend).
‏ API ساده JSON/HTTP که با هر زبانی (پایتون، JS، Go) کار می‌کنه.


جمع‌بندی

OSRM یه موتور مسیریابی متن‌باز قدرتمنده که با الگوریتم‌های پیشرفته مثل MLD و CH، مسیریابی سریع و دقیق رو برای اپ‌های واقعی فراهم می‌کنه. از محاسبه مسیرهای ساده گرفته تا map matching و تولید tileها، این ابزار برای توسعه‌دهنده‌های نقشه و لجستیک یه گنجینه‌ست.

#️⃣ #geo #programming #osrm

 
🥷🏻 CHANNEL | GROUP
🔥63
یکی از چالش‌های رایج بین فعالان حوزه‌ی هوش مصنوعی اینه که نمی‌دونن برای آموزش مدلشون باید از چه الگوریتمی استفاده کنن
آیا باید سراغ Classification برن؟ یا Regression؟ یا شاید Clustering؟ 🤔

خوشبختانه، کتابخونه‌ی قدرتمند Scikit-learn (sklearn) توی مستندات رسمیش یه فلوچارت خیلی کاربردی ارائه داده که با دنبال کردنش می‌تونید دقیقاً بفهمید کدوم الگوریتم مناسب نوع داده و هدف پروژه‌تونه.

لینک

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
👍63🤣1
📘 کتاب: How to Prove It – نوشته‌ی Daniel J. Velleman

این کتاب یکی از بهترین منابع برای یادگیری منطق ریاضی و روش‌های اثباته. برخلاف بیشتر کتاب‌های دانشگاهی، How to Prove It از پایه شروع می‌کنه و قدم‌به‌قدم یاد می‌ده چطور از یک گزاره ساده به یک استدلال کامل برسی.

مطالبش شامل منطق گزاره‌ای، کوانتورها، مجموعه‌ها، توابع، روابط و روش‌های مختلف اثبات مثل اثبات مستقیم، خلف و استقراست.
نویسنده با مثال‌های زیاد نشون می‌ده چطور باید “فکر کردن ریاضیاتی” رو تمرین کنی مهارتی که توی برنامه‌نویسی، طراحی الگوریتم و تحلیل مسائل پیچیده واقعاً حیاتی‌ه.

📖 این کتاب برای هرکسی مناسبه که می‌خواد منطق پشت ریاضیات و اثبات‌ها رو عمیق‌تر درک کنه، مخصوصاً دانشجوهای ریاضی و علوم کامپیوتر و برنامه‌نویس‌هایی که دنبال تفکر دقیق‌تر و تحلیلی‌ترن.

پی دی اف کتاب

#️⃣ #math #book #programming

 
🥷🏻 CHANNEL | GROUP
4
How to Prove It A Structured Approach (Daniel J. Velleman).pdf
8.1 MB
اینم کتاب

#️⃣ #math #book #programming

 
🥷🏻 CHANNEL | GROUP
4
Random Forest یا همون غول پایدار یادگیری ماشین

داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقه‌های Kaggle و پروژه‌های واقعی هست

نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.

اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درخت‌های تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از داده‌ها (Bootstrap) آموزش می‌بینه

تو هر گره، فقط یه تعداد تصادفی از ویژگی‌ها (features) بررسی می‌شه

خروجی نهایی با رأی‌گیری (طبقه‌بندی) یا میانگین (رگرسیون) ترکیب می‌شه

نتیجه؟ یه مدل قوی که Variance درخت‌های تک رو کم می‌کنه، بدون اینکه Bias زیاد بشه.

چطور کار می‌کنه؟ (۳ گام ساده داره)

۱‏. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی می‌سازیم.
تقریباً 63.2% داده‌ها تو هر درخت هستن (بقیه می‌شن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368

۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقه‌بندی: √p ویژگی (p = کل ویژگی‌ها)

رگرسیون: p/3 یا √p

این کار باعث می‌شه درخت‌ها همبستگی کمی داشته باشن

چرا اینقدر خوبه؟

دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) می‌ده
با داده گمشده کار می‌کنه
نیازی به نرمال‌سازی نداره

اهمیت ویژگی چطور حساب می‌شه؟
با کاهش میانگین ناخالصی (مثل Gini) در گره‌هایی که از اون ویژگی استفاده شده.
روش دقیق‌ترش: Permutation Importance
ویژگی رو به هم می‌ریزیم و افت دقت رو اندازه می‌گیریم.

کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیش‌بینی قیمت خانه
و...

نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."

*منبع: Breiman, L. (2001). Random Forests*

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
8