آموزش دیتاساینس و ماشین‌لرنینگ
1.9K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
👨‍🏫 روش‌های LPO و LOOCV در اعتبار سنجی متقابل

🔵 Leave-P-Out Cross-Validation (LPOCV)

در روش LPO، از مجموعه داده‌ای با N نمونه، P نمونه به صورت تصادفی حذف می‌شن و مدل روی N-P نمونه باقی‌مونده آموزش داده می‌شه و عملکرد مدل روی P نمونه حذف‌شده ارزیابی می‌شه.

🔵این روش برای داده‌هایی با تعداد نمونه‌های کم مناسبه، چون تعداد ترکیبات ممکن برای انتخاب P نمونه می‌تونه بسیار زیاد و محاسباتش سنگین باشه. مزیت اصلی LPO دقت بالا توی ارزیابی مدله، چون تمام ترکیبات ممکن نمونه‌ها بررسی می‌شن.

🔵یه مثال ساده برای LPO

فرض کنین مجموعه داده‌ای داریم با 5 نمونه (N=5) که عددهای 1 تا 5 رو نشون می‌ده. می‌خوایم LPO رو با P=2 انجام بدیم.

1. انتخاب ترکیبات P نمونه برای تست: باید همه ترکیبات ممکن 2 نمونه‌ای از 5 نمونه رو برای تست انتخاب کنیم. این ترکیبات عبارتند از: (1,2)، (1,3)، (1,4)، (1,5)، (2,3)، (2,4)، (2,5)، (3,4)، (3,5) و (4,5). پس 10 ترکیب داریم.

2. آموزش و تست مدل برای هر ترکیب: برای هر ترکیب، ما دو نمونه رو برای تست کنار می‌گذاریم و مدل رو روی 3 نمونه باقی‌مانده آموزش می‌دهیم. بعد عملکرد مدل رو روی دو نمونه حذف شده تست می‌کنیم.

- مثلاً برای ترکیب (1,2)، مدل روی نمونه‌های 3، 4، و 5 آموزش داده می‌شه و بعد عملکردش روی نمونه‌های 1 و 2 ارزیابی می‌شه.

3. محاسبه عملکرد کلی مدل: در نهایت، میانگین عملکرد مدل روی همه ترکیبات به عنوان ارزیابی کلی از دقت مدل در نظر گرفته می‌شه.

🔵 Leave-One-Out Cross-Validation (LOOCV)

روش LOOCV حالت خاصیه از LPO که در اون P برابره با 1. در نتیجه توی هر دور از اعتبارسنجی، فقط یک نمونه حذف میشه و مدل روی N-1 نمونه باقی‌مانده آموزش می‌بیند.

🔵روش LOOCV روش اطمینان می‌ده که هر نمونه دقیقاً یک بار به عنوان داده تست استفاده می‌شه و برای مجموعه داده‌های کوچیک مناسبه.
مزیت این روش اینکه نیاز به تصمیم‌گیری در مورد تعداد فولدها نداره و از داده‌ها به بهترین شکل استفاده می‌کنه. اما توی مجموعه داده‌های بزرگ بسیار زمان‌بره و گاهی اوقات می‌تونه به بیش‌برازش منجر شه، مخصوصا اگه مدل پیچیده باشه.

🔵بیایین همون مثال قبلی رو برای LOOCV تغییر بدیم

1. انتخاب تک تک نمونه‌ها برای تست: توی LOOCV، ما هر نمونه رو به نوبت به عنوان داده تست انتخاب می‌کنیم. بنابراین، پنج ترکیب داریم که هر کدوم شامل یه نمونه برای تست و 4 نمونه دیگه برای آموزشن. این ترکیبات عبارتند از: نمونه 1 برای تست و بقیه برای آموزش، نمونه 2 برای تست و بقیه برای آموزش، و همینطور تا نمونه 5.

2. آموزش و تست مدل برای هر ترکیب: برای هر ترکیب، ما یک نمونه رو برای تست کنار می‌گذاریم و مدل رو روی 4 نمونه باقی‌مانده آموزش می‌دیم. بعد عملکرد مدل رو روی نمونه حذف شده تست می‌کنیم.

مثلاً برای ترکیب اول، مدل روی نمونه‌های 2، 3، 4، و 5 آموزش داده می‌شن و عملکردش روی نمونه 1 ارزیابی می‌شه.
این فرایند برای هر کذوم از 5 ترکیب تکرار می‌شن.

3. محاسبه عملکرد کلی مدل: در نهایت، میانگین عملکرد مدل روی تمام ترکیبات به عنوان ارزیابی کلی از دقت مدل در نظر گرفته می‌شه.

#Machine_Learning
#Cross_Validation

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌62👨‍💻1
💡کاربرد اعتبارسنجی متقاطع در Random Search و Grid Search

اعتبار سنجی متقابل برای ارزیابی عملکرد مدل با استفاده از ترکیب‌های مختلف از پارامترها استفاده میشه. این کار می‌تونه با استفاده از Grid Search یا Random Search ترکیب شه.

برای مثال میشه از Grid Search برای پیدا کردن بهترین ترکیب از پارامترهای مدل استفاده کرد، بعد از Cross Validation برای ارزیابی عملکرد مدل روی ترکیب‌های مختلف پارامترها استفاده کرد.

#Machine_Learning
#Cross_Validation

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌6👍1👨‍💻1
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵تعریف و انواع اعتبارسنجی متقابل
👉🔗 https://t.iss.one/data_ml/117

🔵k-fold Cross-Validation
👉🔗 https://t.iss.one/data_ml/120

🔵Stratified Cross-Validation
👉🔗 https://t.iss.one/data_ml/123

🔵Time-series Cross-Validation
👉🔗 https://t.iss.one/data_ml/126

🔵بررسی اعتبارسنجی متقابل در sklearn
👉🔗 https://t.iss.one/data_ml/129

🔵روش‌های LPO و LOOCV در اعتبار سنجی متقابل
👉🔗 https://t.iss.one/data_ml/131

🔺 کوئیز

🔵کوئیز شماره ۳۳: اعتبارسنجی و بیش‌برازش
👉🔗 https://t.iss.one/data_ml/118

🔵کوئیز شماره ۳۴: مقدار k در k-fold Cross-Validation
👉🔗 https://t.iss.one/data_ml/121

🔵کوئیز شماره ۳۵: ارزیابی نتایج Stratified Cross-Validation
👉🔗 https://t.iss.one/data_ml/124

🔵کوئیز شماره ۳۶: Fixed Time Window Cross-Validation
👉🔗 https://t.iss.one/data_ml/127

🔵کوئیز شماره ۳۷: cross_val_predict توی sklearn
👉🔗 https://t.iss.one/data_ml/130

🔵کوئیز شماره ۳۸: مقدار P توی LPOCV
👉🔗 https://t.iss.one/data_ml/132

🔺 نکته

🔵معایب Cross Validation
👉🔗 https://t.iss.one/data_ml/119

🔵تفاوت بین cross_val_score و KFold
👉🔗 https://t.iss.one/data_ml/122

🔵مزیت و عیب Stratified Cross-Validation
👉🔗 https://t.iss.one/data_ml/125

🔵اعتبارسنجی متقابل و یادگیری باناظر و بدون ناظر
👉🔗 https://t.iss.one/data_ml/128

🔵کاربرد اعتبارسنجی متقاطع در Random Search و Grid Search
👉🔗 https://t.iss.one/data_ml/133

#Weekend
#Machine_Learning
#Cross_Validation

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👏1
🟡 وبینار رایگان بررسی ماشین لرنینگ برای هر موضوع

توی هر حوزه‌ای برای استفاده از مفاهیم تئوری، نیاز به تعریف مسئله، انجام تمرین علمی و پروژه کاربردی هست. توی این وبینار بررسی می‌کنیم که چه مسائلی امکان تعریف در قالب تسک و اجرا با استفاده از ماشین لرنینگ رو دارن.

🔺 سرفصل‌ها

🔵معرفی تسک‌های قابل اجرا با ماشین لرنینگ
🔵معرفی مدلهای کلاسیک برای هر تسک
🔵معرفی معماری‌های شبکه عصبی مصنوعی برای هر تسک
🔵روش‌های ارزیابی عملکرد مدل ماشین لرنینگ‌
🔵بررسی به روزترین روش‌های ماشین لرنینگ‌
🔵نحوه و ترتیب یادگیری مدلهای معرفی شده

📆 یکشنبه، ۱۷ دی ساعت ۱۹

🟢 رایگان ثبت‌نام کنین:‌
👉📎 https://ctdrs.ir/cr15198

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2👨‍💻1
👩‍🎓 برنامه آموزشی هفته: بیز ساده یا Naive Bayes

🟠شنبه: تعریف و انواع بیز ساده

🔵یک‌شنبه: برنولی و چند جمله ای

🟢دوشنبه: Gaussian

🔴سه‌شنبه: هایپر پارامترها

🟠چهارشنبه: کاربردها و مزایا

🔵پنج‌شنبه: بررسی مثال واقعی

🟢جمعه: جمع بندی

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
9👌2👨‍💻1
👨‍🏫 تعریف و انواع بیز ساده

الگوریتم بیز ساده یه روش طبقه‌بندی مبتنی به اصل بیز هست و توی مواردی که مجموعه داده‌ها بزرگه، کاربرد داره. الگوریتم Naive Bayes فرض می‌کنه ویژگی‌های مختلف توی داده‌ها مستقل از هم دیگه هستن و توی دسته‌ی یادگیری با ناظر قرار داره.

🔵 اصل بیز

قبل از بررسی الگوریتم بیز ساده، باید با اصل بیز آشنا شیم. اصل بیز رابطه‌ای ریاضیه که احتمال وقوع یه رویداد رو بر اساس دانش قبلی از شرایط مرتبط با اون رویداد تعیین می‌کنه. فرمول اصل بیز رو داخل تصویر می‌تونین ببینین.

🔵 انواع الگوریتم بیز ساده

🔵بیز ساده گاوسی (Gaussian Naive Bayes)
توی این مدل فرض می‌شه که ویژگی‌ها دارای توزیع نرمال (گاوسی) هستن. این روش در مواقعی که ویژگی‌ها ویژگی‌های پیوسته هستن، مثل قد یا وزن، کاربرد داره.

🔵بیز ساده چندجمله‌ای (Multinomial Naive Bayes)
این الگوریتم برای متغیرهای گسسته مثل شمارش کلمات در متن به کار می‌ره و توی طبقه‌بندی متن و تحلیل احساسات بسیار محبوبه.

🔵بیز ساده برنولی (Bernoulli Naive Bayes)
مناسب برای ویژگی‌های دودویی (مثلا حضور یا عدم حضور یک ویژگی در یک نمونه). این الگوریتم در مواردی که ویژگی‌ها به صورت "بودن" یا "نبودن" هستن، مفیده.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍3👌3
💡دوتا مدل هستن که فقط برای تسک‌های Classification کاربرد دارن: بیز ساده (Naive Bayes) و لجستیک رگرسیون (Logistic Regression)

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74👨‍💻1
👨‍🏫 Multinomial & Bernoulli Naive Bayes

🔵توزیع برنولی برای محاسبه احتمالات گسسته استفاده می‌شه و موفقیت یا شکست رو حساب می‌کنه. متغیر تصادفی توی این نوع ۰ یا ۱ هست و احتمال وقوع به صورت p یا (1-p) مشخص می‌شه. الگوریتم Bernoulli Naïve Bayes بیشتر برای تشخیص اسپم، طبقه‌بندی متن، تحلیل احساسات و تعیین وجود یا عدم وجود یک کلمه توی متن به کار می‌ره.

مزایای Bernoulli Naïve Bayes شامل سادگی، کارآمدی و دقت بالا توی مجموعه داده‌های کوچیکه. این الگوریتم به خوبی برای طبقه‌بندی متن کار می‌کنه، اما چون فرض استقلال ویژگی‌ها رو داره، ممکنه نتایج نامناسبی تولید کنه و برای مسائل چند کلاسه مناسب نیست. همچنین اگه توی کلاس‌بندی داده‌ها عدم تعادل وجود داشته باشه، دقت کلی مدل کاهش پیدا می‌کنه.

🔵بیز ساده چندجمله‌ای (Multinomial Naïve Bayes) برای طبقه‌بندی متن‌ها استفاده می‌شه، جایی که باید با داده‌های گسسته مثل شمارش کلمات توی اسناد سروکار داشته باشیم.

مزایای استفاده از Multinomial Naïve Bayes عبارتند از کارآمدی، پیاده‌سازی ساده، مقاومت در برابر ویژگی‌های غیرمرتبط و نتایج قابل تفسیر. این الگوریتم گزینه‌ای عملی برای وظایف طبقه‌بندی متن مثل تشخیص هرزنامه، تحلیل احساسات و دسته‌بندی اسناده، جایی که ویژگی‌ها اغلب بر اساس شمارش کلمات هستن.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72👌1👨‍💻1
کوئیز شماره ۳۹: توی کدوم مدل احتمال P(x_i|y) بر اساس تعداد دفعات وقوع ویژگی (x_i) توی کلاس y محاسبه می‌شه؟
Anonymous Quiz
59%
Bernoulli Naive Bayes
41%
Multinomial Naive Bayes
👍52😎2👌1
💡مقایسه انواع روش‌های Naive Bayes

🟢برای مطالعه بیشتر درباره این الگوریتم کلیک کنین:

👉🔗 https://ctdrs.ir/ds0030

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
6👌4👨‍💻1
👨‍🏫 Gaussian Naive Bayes

بیز ساده Gaussian یه روش دسته‌بندی مبتنی بر احتماله که فرض می‌کنه توزیع ویژگی‌ها توی داده‌ها به صورت نرماله. این به این معنیه که هر ویژگی داده‌های آموزشی توسط میانگین و واریانسش توصیف می‌شه.

برای هر کلاس، میانگین و واریانس هر ویژگی محاسبه می‌شه. بعد، با استفاده از این پارامترها، احتمال تعلق یک نمونه جدید به هر کلاس تعیین می‌شه. این احتمالات با استفاده از تابع چگالی احتمال نرمال محاسبه می‌شن.

برای درک بهتر، فرض کنین می‌خوایم بر اساس ویژگی‌هایی مثل قد و وزن، افراد رو به گروه‌های ورزشی مختلف طبقه‌بندی کنیم. اول باید میانگین و واریانس قد و وزن توی هر گروه ورزشی رو محاسبه کنیم. در ادامه برای طبقه‌بندی یک نفر جدید، احتمال تعلقش به هر گروه بر اساس ویژگی‌هایش محاسبه می‌شه.

یکی از مزایای اصلی بیز ساده Gaussian سادگی و کارآمدیش در مواجهه با داده‌های پیوسته‌ست. اما مثل بقیه مدل‌های بیز ساده، این روش هم فرض می‌کنه که ویژگی‌ها مستقل از هم هستن، که در بسیاری از مثال‌های دنیای واقعی کاربرد نداره. همچنین، عملکردش در مواجهه با داده‌هایی که توزیع نرمال ندارن، ممکنه کاهش پیدا کنه.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌62👍1👨‍💻1
کوئیز شماره ۴۰: کدوم گزینه یه پارامتر GaussianNB توی کتابخانه Scikit-Learn هست؟
Anonymous Quiz
34%
priors
18%
max_features
36%
n_estimators
11%
learning_rate
😎72🤔2👍1
👨‍🏫 چطور می‌تونیم عملکرد الگوریتم بیز ساده رو بهبود بدیم؟

بعضی از روش‌های متداول برای بهبود عملکرد طبقه‌بندی توی بیز ساده کاربردی نیستن. در ادامه روش‌های موثر برای این الگوریتم رو بررسی می‌کنیم.

🔵حذف ویژگی‌های مرتبط: ویژگی‌های بسیار مرتبط توی مدل دوبار شمارش می‌شن. شمارش دوباره منجر به محاسبه بیش از حد اهمیت این ویژگی‌ها می‌شه و در نتیجه، عملکرد بیز ساده کاهش پیدا می‌کنه.

🔵استفاده از احتمالات لگاریتمی: ضرب اعداد بسیار کوچک، به اعداد کوچکتر منجر می‌شه. برای جلوگیری از کار با اعداد بسیار کوچک، می‌تونیم توی فضای لگاریتم احتمالات کار کنیم.

🔵رفع مشکل احتمالات صفر: اگه داده‌های آموزشی توزیع متفاوتی نسبت به مجموعه تست داشته باشن، عملکرد بیز ساده ضعیف میشه. برای حل این مشکل، میشه از تکنیک Smoothing استفاده کرد.

🔵 آموزش مجدد مدل: آموزش مجدد مدل با داده‌های جدید به شناسایی تغییرات یا انحرافات توی داده‌ها کمک می‌کنه و اطمینان می‌ده که عملکرد مدل با گذشت زمان کاهش پیدا نمی‌کنه.

🔵موازی‌سازی محاسبات احتمال: با توجه به فرض استقلال، احتمالات هر ویژگی به صورت مستقل محاسبه می‌شن. این کار به سرعت بخشیدن به محاسبات و مدیریت راحت‌تر دیتاست‌های بزرگ کمک می‌کنه.

🔵استفاده در دیتاست‌های کوچک: بیز ساده، به دلیل سادگی تابع فرضیه، برای آموزش نیاز به داده کمتری داره و کمتر با مشکل بیش‌برازش (overfitting) مواجه می‌شه.

🔵روش‌های ترکیبی (Ensemble Methods): اگرچه یادگیری ترکیبی عملکرد رو افزایش می‌ده، اما استفاده از بیز ساده توی روش‌های ترکیبی به دلیل واریانس پایین این مدل، خیلی مفید نیست.

🔵 استفاده به عنوان مدل تولیدی: بیز ساده، یه مدل مولده و میشه ازش برای ایجاد دیتاست‌های جدید بر اساس توزیع احتمالی داده‌های موجود استفاده کرد.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71👨‍💻1
💡مقایسه بیز ساده با لجستیک رگرسیون برای حل مسائل Classification

🔵بیز ساده بر اساس فرض استقلال بین ویژگی‌ها عمل می‌کنه، که این فرض توی خیلی از مسائل دنیای واقعی صادق نیست. بنابراین، اگه این فرض‌ توی یک مسئله برآورده نشه، مدل رگرسیون لجستیک کمتر دچار سوگیری میشه. در نتیجه زمانی که مقدار زیادی داده آموزشی موجوده، رگرسیون لجستیک عملکرد بهتری نسبت به بیز ساده داره.

🔵پیچیدگی زمانی بیز ساده از مرتبه O(log n) هست، در حالی که رگرسیون لجستیک پیچیدگی زمانی از مرتبه O(n) داره. بنابراین، برای n تعداد ویژگی‌، بیز ساده سریع‌تر همگرا میشه. در مواردی که مجموعه داده آموزشی کوچیکه، بیز ساده عملکرد بهتری نسبت به لجستیک رگرسیون داره.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8👌21👨‍💻1
👨‍🏫 کاربردها و مزایای Naive Bayes

🔵 کاربردهای نایو بیز

🔵طبقه‌بندی متن و پردازش زبان طبیعی

نایو بیز به طور گسترده‌ توی طبقه‌بندی متن مثل تشخیص ایمیل‌ اسپم و تجزیه و تحلیل احساسات محتوای شبکه‌های اجتماعی استفاده می‌شه. این روش به دلیل توانایی‌اش توی کار با ویژگی‌های متنی که اکثرا بسیار بزرگ و پراکنده هستن، محبوبه.

🔵تشخیص بیماری‌ها و تصمیم‌گیری‌های پزشکی

توی حوزه پزشکی، نایو بیز می‌تونه برای تشخیص بیماری‌ها و کمک به تصمیم‌گیری‌های بالینی استفاده شه. این مدل با در نظر گرفتن ویژگی‌های مختلف بیمار، پیش‌بینی‌های دقیقی ارائه می‌ده.

🔵سیستم‌های توصیه‌گر

نایو بیز توی ساخت سیستم‌های توصیه‌گر برای پیشنهاد محصولات یا خدمات به کاربران بر اساس علایق و رفتارهای گذشته‌شون به کار می‌ره. سرعت و کارایی بالا و سادگی مدل از دلایل دیگه استفاده نایو بیز توی سیستم‌های توصیه‌گره.

🔵 مزایای نایو بیز

🔵سادگی و سرعت بالا

یکی از بزرگ‌ترین مزایای نایو بیز، سادگی و سرعت آموزش و پیش‌بینیش هست. این مدل به راحتی قابل پیاده‌سازیه و به منابع کمتری نسبت به سایر مدل‌های پیچیده‌تر نیاز داره.

🔵کارایی خوب با داده‌های بزرگ

نایو بیز توی مواجهه با مجموعه‌های داده‌ی بزرگ و دارای ابعاد بالا عملکرد خوبی داره. این قابلیتش اونو را برای کاربردهایی مثل طبقه‌بندی متن و تجزیه و تحلیل داده‌های بزرگ مفید می‌کنه.

🔵مقاومت در برابر داده‌های گم‌شده

نایو بیز می‌تونه توی شرایطی که بخشی از داده‌ها گم شده یا ناقصه، همچنان عملکرد خوبی داشته باشه. این ویژگی اونو برای کاربردهای دنیای واقعی که اغلب با داده‌های ناکامل مواجه هستیم، ایده‌آل می‌کنه.

🔵انعطاف‌پذیری

نایو بیز به خوبی می‌تونه با تغییرات توی مجموعه داده‌ها سازگار شه. این انعطاف‌پذیری به محققان و مهندسان اجازه می‌ده که مدل‌ها رو به سرعت به‌روزرسانی کنن.

🔵نیاز کم به داده‌های آموزشی، توانایی مدیریت داده‌های پیوسته و گسسته، مقیاس‌پذیری و عدم حساسیت به ویژگی‌های نامربوط از بقیه مزایای این الگوریتم هستن و نایو بیز رو گزینه‌ای قدرتمند و انعطاف‌پذیر برای حل مسائل مختلف می‌کنن.

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61👌1👨‍💻1
کوئیز شماره ۴۲: چطور میشه توضیح داد که نایو بیز تا چه حد در برابر ویژگی‌های نامربوط مقاومه و این موضوع چه تأثیری روی عملکرد کلیش داره؟
Anonymous Quiz
28%
مقاومت کامل، بدون تأثیر منفی بر دقت
44%
مقاومت متوسط، با کاهش جزئی در دقت
14%
حساسیت بالا، با کاهش قابل توجه در دقت
14%
حساسیت نسبی، با تغییرات پیچیده در عملکرد
😎6👌21
💡تفاوت بین طبقه‌بندی کننده‌های مولد و تشخیص دهنده چیه؟ نمونه‌هایی از هرکدوم، کدوم الگوریتم‌ها میشن؟

🔵طبقه‌بندی‌کننده‌های مولد (Generative Classifier) به صورت صریح توزیع واقعی هر کلاس رو مدل می‌کنن. این مدل توزیع احتمال مشترک رو که به صورت P(x, y) = P(y) * P(x|y) هست، یاد می‌گیره. هر دو P(y) و P(x|y) رو میشه از داده‌ها با محاسبه فراوانی کلاس‌ها به دست آورد. بعضی از نمونه‌های مدل‌های مولد عبارتند از:
- نایو بیز
- شبکه‌های بیزی
- میدان‌های تصادفی مارکوف

🔵طبقه‌بندی‌کننده‌های تشخیص دهنده (Discriminative Classifier) مرز تصمیم بین کلاس‌ها رو با یادگیری توزیع احتمال شرطی P(y|x) از مجموعه داده‌ها مدل می‌کنن. بعضی از نمونه‌های این نوع طبقه‌بندی کننده‌ها عبارتند از:
- رگرسیون لجستیک
- ماشین بردار پشتیبان
- شبکه‌های عصبی سنتی
- KNN

#Machine_Learning
#Naive_Bayes

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌81👍1👨‍💻1