آموزش دیتاساینس و ماشین‌لرنینگ
1.89K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
کوییز شماره ۸۰: کدوم یک از گزینه‌های زیر تکنیک صحیحی برای کشف ناهنجاری‌های مبتنی بر تراکم داده‌ها نیست؟
Anonymous Quiz
38%
K-nearest neighbor
40%
Isolation Forest
21%
K-means cluster analysis
😎43🤔2
💡مزایا و معایب روش‌های تشخیص ناهنجاری

🔵 روش‌های آماری

🔵مزایا: سادگی و قابل فهم بودن؛ کارایی در داده‌های کوچک.
🔵معایب: محدودیت در مواجهه با داده‌های پیچیده؛ حساسیت به تنظیمات پارامتر.

🔵 روش‌های مبتنی بر فاصله

🔵مزایا: انعطاف‌پذیری؛ سادگی پیاده‌سازی.
🔵معایب: هزینه محاسباتی بالا برای داده‌های بزرگ؛ حساسیت به انتخاب تعداد همسایگان (K).

🔵 روش‌های مبتنی بر چگالی

🔵مزایا: کارآمد در داده‌های با توزیع‌های مختلف؛ عدم نیاز به تعیین تعداد خوشه‌ها.
🔵معایب: پیچیدگی در تنظیم پارامترها؛ چالش‌ها در داده‌های بسیار بزرگ.

🔵 شبکه‌های عصبی و یادگیری عمیق

🔵مزایا: قابلیت کشف ویژگی‌های پیچیده و غیرخطی؛ انعطاف‌پذیری و قابلیت تعمیم.
🔵معایب: نیاز به حجم زیادی از داده برای آموزش؛ پیچیدگی محاسباتی و زمان آموزش طولانی.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍4👌3
👨‍🎓 بررسی iForest با جزئیات

یکی از روش‌های موثر در تشخیص ناهنجاری، استفاده از الگوریتم iForest یا جنگل ایزوله است. iForest که مخفف Isolation Forest هست، یک الگوریتم مبتنی بر درخت تصمیم برای تشخیص ناهنجاریه.

این روش به جای تمرکز روی ساختن فهرستی از داده‌های عادی، سعی در ایزوله کردن نمونه‌های ناهنجار داره. این کار با ساختن چندین درخت ایزوله و محاسبه‌ی میزان طول مسیر ایزوله برای هر نمونه انجام می‌شه. نمونه‌هایی که زودتر ایزوله می‌شن، احتمال دارن که ناهنجار باشن.

🔵 نحوه کار iForest

الگوریتم iForest با ایجاد یک جنگل از درختان ایزوله کار می‌کنه. هر درخت در این جنگل با استفاده از یک زیرمجموعه‌ی تصادفی از داده‌ها ساخته می‌شه.

در هر گره از درخت، یک ویژگی به صورت تصادفی انتخاب میشه و یک مقدار شکاف (split value) هم به صورت تصادفی تعیین می‌شه تا داده‌ها رو به دو زیر مجموعه تقسیم کنه. این فرآیند تا رسیدن به ایزوله کردن نمونه‌ها یا رسیدن به عمق مشخصی از درخت ادامه داره.

🔵 مزایای iForest

🔵الگوریتم iForest به دلیل نیاز کم به محاسبه و پیچیدگی زمانی خطی، برای داده‌های بزرگ بسیار کارآمده.

🔵نسبت به بقیه الگوریتم‌های تشخیص ناهنجاری، iForest نیاز به تنظیم کمتری از پارامترها داره.

🔵این الگوریتم می‌تونه انواع مختلفی از ناهنجاری‌ها رو بدون توجه به نوع توزیع داده‌ها تشخیص بده.

🔵 چالش‌ها و محدودیت‌ها

🔵با وجود اینکه iForest نیاز به تنظیم کمتری از پارامترها داره، اما انتخاب تعداد درخت‌ها و عمق درخت روی عملکردش تأثیر داره.

🔵در صورتی که ناهنجاری‌ها بسیار نزدیک به داده‌های عادی باشن، تشخیص‌شون سخت می‌شه.

🔵 کاربردها

الگوریتم iForest در زمینه‌های مختلفی مثل تشخیص تقلب، سیستم‌های توصیه‌گر، نظارت به سلامت شبکه، و تشخیص نقص در تولید استفاده می‌شه. همچنین کارایی بالا و نیاز کمی به منابع محاسباتی داره.

🔵 مهم‌ترین پارامترهای کد iForest

تعداد درخت‌ها (n_estimators) روی دقت تشخیص ناهنجاری‌ها و عمق درخت (max_depth) روی قابلیت جداسازی ناهنجاری‌ها و تعادل بین زمان اجرا و دقت تاثیر گذاره.

همچنین contamination برای تعیین سطح آستانه‌ای که بر اساسش نمونه‌ها به عنوان ناهنجار شناسایی می‌شن اهمیت داره.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3👌2
💡 قطعه کد الگوریتم iForest

کد زیر مدلی از الگوریتم Isolation Forest رو برای تشخیص ناهنجاری‌ها در یک دیتاست مصنوعی آموزش می‌ده.

- n_samples: تعداد نمونه‌هایی که توسط make_blobs ایجاد می‌شن که در اینجا 300 نمونه در نظر گرفته شده.

- centers: تعداد مراکزی که داده‌های مصنوعی براساس اونها تولید می‌شن که در این مثال تنها یک مرکز وجود داره.

- cluster_std: انحراف معیاری که کنترل می‌کنه داده‌ها چقدر دور مرکز پخش شن. عدد کوچکتر باعث می‌شه داده‌ها نزدیک‌تر به هم و کمتر پراکنده باشن.

- np.random.uniform: برای ایجاد ناهنجاری‌ها، از توزیع یکنواخت بین مقادیر 6- و 6 استفاده می‌کنه. تعداد این ناهنجاری‌ها 20 تاست که در 2 بعد تولید می‌شن.

- n_estimators: تعداد درخت‌هایی که در جنگل ایزوله (iForest) استفاده می‌شن.

- contamination: پارامتری که نشون می‌ده چند درصد از داده‌ها رو میشه به عنوان ناهنجار در نظر گرفت.


import numpy as np
from sklearn.ensemble import IsolationForest
from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt

X, _ = make_blobs(n_samples=300, centers=1, cluster_std=0.60, random_state=42)

X = np.concatenate([X, np.random.uniform(low=-6, high=6, size=(20, 2))])


clf = IsolationForest(n_estimators=100, contamination=0.1, random_state=42)
clf.fit(X)
y_pred = clf.predict(X)
print(y_pred)

plt.scatter(X[:, 0], X[:, 1], c=y_pred, cmap='Paired')
plt.title("Isolation Forest Anomaly Detection")
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.show()


🖼 تصویر پست، خروجی قطعه کد می‌باشد.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌42👍1🔥1
👨‍🎓 بررسی LOF با جزئیات

الگوریتم LOF (Local Outlier Factor) برای شناسایی داده‌های ناهنجار در مجموعه داده‌های بزرگ و پیچیده طراحی شده. LOF بر اساس مفهوم فاصله محلی (Local) بین نقاط کار می‌کنه.

این روش با مقایسه میزان جمعیت اطراف یک نقطه با همسایه‌هاش، نقاط غیرعادی رو پیدا می‌کنه. اگه یک نقطه خیلی کم‌جمعیت‌تر از همسایه‌هاش باشه، به عنوان نقطه‌ای غیرعادی مشخص می‌شه.

🔵 چند مفهوم مهم در LOF

🔵تراکم محلی مشخص می‌کنه که اطراف یک نقطه چقدر شلوغ یا خلوته. این تراکم رو با نگاه کردن به فاصله بین یک نقطه و نقاط دیگه‌ای که نزدیکش هستن، می‌سنجیم.

🔵فرض کنید می‌خوایم بدونیم که اطراف یک نقطه خاص چقدر تراکم وجود داره. برای این کار، به k تا از نزدیک‌ترین همسایه‌هاش نگاه می‌کنیم. این k تا نقطه کمک می‌کنن تا درک بهتری از تراکم داشته باشیم.

🔵فاکتور ناهنجاری یک عدده که مشخص می‌کنه یک نقطه چقدر با بقیه نقاط اطرافش فرق داره. هر چقدر این عدد بزرگتر باشه، یعنی نقطه مدنظر خیلی با همسایه‌هاش فرق داره و احتمال ناهنجار بودن بالا می‌ره.

🔵 نحوه کار LOF

۱. محاسبه فاصله برای هر نقطه: در مرحله اول برای هر نقطه در داده‌ها، فاصله‌ تا k همسایه‌ی نزدیکش محاسبه می‌شه.

۲. محاسبه تراکم محلی: با استفاده از فاصله‌های محاسبه شده، تراکم محلی برای هر نقطه و همسایه‌هاش محاسبه می‌شه.

۳. محاسبه فاکتور ناهنجاری: برای هر نقطه، نسبت تراکم محلی به میانگین تراکم محلی همسایه‌هاش به عنوان فاکتور ناهنجاری محاسبه می‌شه.

🔵 نکات تکمیلی

🔵انتخاب k: انتخاب تعداد همسایگان k یک پارامتر کلیدی در LOF هست. انتخاب بیش از حد کوچک یا بزرگ k به تشخیص نادرست ناهنجاری‌ها منجر میشه.

🔵بهینه‌سازی محاسباتی: با توجه به نیاز به محاسبه فاصله‌ها و تراکم‌ها برای تعداد زیادی نقطه، بهینه‌سازی‌ محاسباتی با استفاده از مثلا KD-Tree به کاهش پیچیدگی زمانی کمک می‌کنه.

🔵مقابله با داده‌های چند بُعدی: در داده‌های با بُعد بالا، فاصله‌ی بین نقاط می‌تونه گمراه‌کننده باشه (Curse of Dimensionality). استفاده از روش‌های کاهش بُعد قبل از پیاده سازی LOF می‌تونه مفید باشه.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
💡 قطعه کد الگوریتم LOF

کد زیر مدلی از الگوریتم LOF رو برای تشخیص ناهنجاری‌ها در یک دیتاست مصنوعی آموزش می‌ده.


- n_neighbors: تعداد همسایگان برای محاسبه تراکم محلیه. تعداد بیشتر این مورد در داده‌های با تراکم متغیر، دقت تشخیص ناهنجاری رو بهبود میده.

- algorithm: الگوریتم برای محاسبه فاصله‌هاست و auto به طور خودکار الگوریتم بهینه رو بر اساس داده‌ها انتخاب می‌کنه.

- leaf_size: این پارامتر در الگوریتم‌های مبتنی بر درخت تاثیر داره و روی سرعت ساخت درخت و پرس‌وجوها تاثیر داره.

- metric: معیار فاصله برای محاسبه فاصله‌هاست. در اینجا، فاصله مینکوفسکی با p=2 که همون فاصله اقلیدسیه، استفاده شده.

- contamination: نسبت تقریبی ناهنجاری‌ها در داده‌هاست. این مقدار کمک می‌کنه تا مدل تعداد نقاط ناهنجاری مورد انتظار رو تخمین بزنه.

- novelty: این پارامتر تعیین می‌کنه که آیا مدل باید برای تشخیص ناهنجاری‌ها در داده‌های جدید استفاده شه یا نه.

- n_jobs: این پارامتر تعیین می‌کنه که آیا باید از همه پردازنده‌ها برای محاسبات استفاده کرد یا نه. با تنظیمش به منفی 1 ، تمام هسته‌های پردازنده موجود استفاده میشن، که سرعت محاسبات رو افزایش می‌ده.

from sklearn.datasets import make_blobs
import numpy as np
import matplotlib.pyplot as plt
from sklearn.neighbors import LocalOutlierFactor

X, _ = make_blobs(n_samples=200, centers=3, cluster_std=0.50, random_state=42)
X_outliers = np.random.uniform(low=-10, high=10, size=(15, 2))
X = np.r_[X, X_outliers]

lof = LocalOutlierFactor(n_neighbors=35, algorithm='auto', leaf_size=30, metric='minkowski', p=2, metric_params=None, contamination=0.1, novelty=False, n_jobs=-1)
y_pred = lof.fit_predict(X)
scores = lof.negative_outlier_factor_

plt.scatter(X[:, 0], X[:, 1], color='k', s=3., label='Data points')
plt.scatter(X[y_pred == -1][:, 0], X[y_pred == -1][:, 1], edgecolor='r', facecolor='none', s=100, label='Predicted outliers')
plt.axis('tight')
plt.legend(loc='upper left')
plt.show()


🖼 تصویر پست، خروجی قطعه کد می‌باشد.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3👌2
👨‍🎓 شبکه‌های عصبی برای تشخیص ناهنجاری

شبکه‌های عصبی دارای توانایی بالایی برای یادگیری پیچیدگی‌ها و الگوهای داده‌ها هستن تا بتونن تفاوت‌های ظریف و غیرمعمولی که نشون‌دهنده ناهنجاری هستن رو تشخیص بدن.

🔵 مفهوم شبکه‌های عصبی

شبکه‌های عصبی الهام گرفته از سیستم عصبی انسانن و از واحدهای پردازشی‌ای شناخته شده به نام به نورون‌ها تشکیل شدن. این نورون‌ها در لایه‌های مختلف قرار می‌گیرن: لایه ورودی، لایه(های) پنهان، و لایه خروجی.

🔵 شبکه‌های عصبی در تشخیص ناهنجاری

ناهنجاری‌ها معمولاً به دو دسته تقسیم می‌شن: نقاط دورافتاده (Outliers) که در داده‌های نمونه وجود دارن و الگوهای ناهنجار که در دنباله‌های زمانی یا سری‌های داده‌ای پدید میان.

شبکه‌های عصبی به دلیل توانایی‌های برجسته در یادگیری ویژگی‌های سطح بالا از داده‌ها از طریق ساختارهای لایه‌ای پیچیده و توانایی پردازش غیرخطی، برای تشخیص ناهنجاری‌ها بسیار مؤثر هستن.

🔵شبکه‌های عصبی پیشرو (Feedforward Neural Networks)

این نوع شبکه‌ها از ساده‌ترین انواع شبکه‌های عصبی هستن که در اونها اطلاعات فقط در یک جهت از ورودی به خروجی حرکت می‌کنه. برای تشخیص ناهنجاری، میشه از شبکه‌های عصبی پیشرو استفاده کرد تا الگوهای معمولی رو یاد بگیرن و بعد داده‌های جدید که با این الگوهای یادگرفته‌شده تطابق ندارن رو به عنوان ناهنجاری شناسایی کنن.

🔵شبکه‌های عصبی کانولوشنی (Convolutional Neural Networks - CNNs)

شبکه‌های عصبی کانولوشنی بیشتر برای پردازش تصویر و ویدئو استفاده می‌شن و برای تشخیص ناهنجاری در داده‌های تصویری کاربرد دارن. CNN‌ها امکان یادگیری ویژگی‌های سطح بالا از تصاویر رو دارن و می‌تونن تفاوت‌های ریزی که ممکنه نشون‌دهنده ناهنجاری باشن رو تشخیص بدن.

🔵شبکه‌های عصبی بازگشتی (Recurrent Neural Networks - RNNs)

برای داده‌های سری زمانی یا هر نوع داده‌ای که ترتیب زمانی اهمیت داره، شبکه‌های عصبی بازگشتی مناسبن. RNN‌ها می‌تونن وابستگی‌های طولانی‌مدت رو در داده‌ها یاد بگیرن و برای تشخیص ناهنجاری‌هایی که در طول زمان رخ می‌دن، موثرن.

🔵شبکه‌های عصبی خودرمزنگار (Autoencoders)

خودرمزنگارها نوعی شبکه عصبی هستن که برای کاهش بعد داده‌ها و یادگیری نمایش‌های کم بعد از داده‌ها کاربرد دارن. در تشخیص ناهنجاری، Autoencodersها می‌تونن به یادگیری نمایش داده‌های معمولی و بازسازی‌شون بپردازن. داده‌هایی که به خوبی بازسازی نمی‌شن، احتمال ناهنجار بودن دارن.

🔵 تکنیک‌های پیشرفته در تشخیص ناهنجاری توسط NNs

🔵شبکه‌های متخاصم مولد (Generative Adversarial Networks, GANs)

الگوریتم GAN‌ می‌تونه برای ایجاد نمونه‌های داده‌ای شبیه به داده‌های اصلی آموزش داده شه و بعد برای شناسایی نمونه‌هایی که توسط مدل مولد قابل تولید نیستن به عنوان ناهنجاری استفاده شه. این روش برای تشخیص ناهنجاری‌هایی که کمتر رخ می‌دن، مفیده.

🔵یادگیری عمیق تقویتی (Deep Reinforcement Learning)

با استفاده از اصول یادگیری تقویتی، مدل‌ها در محیط‌های پویا برای شناسایی ناهنجاری‌ها به صورت دینامیک (یادگیری مداوم و تطبیق‌پذیری مدل‌های یادگیری ماشین با داده‌های جدید و تغییرات. مدل‌ها در این رویکرد، به طور پیوسته خودشون رو بر اساس بازخورد و اطلاعات تازه به‌روزرسانی می‌کنن و بهبود می‌دن.) آموزش ببینن. این روش برای سیستم‌هایی که به صورت Real-Time کار می‌کنن، مثل سیستم‌های نظارتی و امنیتی، کاربرد داره.

🔵 چالش‌ها و راهکارها

یکی از بزرگ‌ترین چالش‌ها در استفاده از شبکه‌های عصبی برای تشخیص ناهنجاری، تعادل بین حساسیت (Sensitivity) و ویژگی (Specificity) هست. یک شبکه بیش از حد حساس ممکنه نرخ بالایی از هشدارهای کاذب ایجاد کنه، در حالی که یک شبکه کم حساسیت ناهنجاری‌های مهم رو نادیده می‌گیره.

راهکارهایی مثل تنظیم دقیق پارامترها، استفاده از داده‌های آموزشی با کیفیت بالا و رویکردهای یادگیری تقویتی به بهبود عملکرد شبکه‌های عصبی در تشخیص ناهنجاری کمک می‌کنن.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌41
💡نقش یادگیری فعال (Active Learning) در زمینه تشخیص ناهنجاری چطور می‌تونه باشه؟

یادگیری فعال در تشخیص ناهنجاری به مدل اجازه می‌ده تا برای بهبود عملکردش، داده‌هایی رو که از نظر اطلاعاتی مفیدن، به صورت انتخابی جمع‌آوری یا برچسب‌گذاری کنه. این رویکرد به کاهش نیاز به برچسب‌های دستی و بهبود کشف ناهنجاری‌ها کمک می‌کنه.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌3👏2
👨‍🎓 کاربرد تشخیص ناهنجاری در دنیای واقعی

تشخیص ناهنجاری کاربردهای متنوعی در صنایع مختلف داره. بیایین به کاربردهاش در چند حوزه مهم نگاهی بندازیم.

🔵 مالی

🔵تشخیص تقلب کارت اعتباری: شناسایی تراکنش‌های غیرمعمول که احتمالاً تقلبی هستن.
🔵معاملات الگوریتمی: شناسایی معاملات یا شرایط بازار که عملکرد غیرعادی دارن.

🔵 فناوری اطلاعات و امنیت

🔵تشخیص نفوذ: تشخیص دسترسی‌های احتمالاً غیرمجاز یا فعالیت‌های مخرب در شبکه.
🔵نظارت بر سلامت سیستم: شناسایی بالقوه مشکلات سخت‌افزاری یا نرم‌افزاری با تشخیص انحرافات در معیارهای سیستم.

🔵 بهداشت و درمان

🔵تشخیص تقلب پزشکی: کمک به شناسایی ادعاهای بیمه‌ای تقلبی در بهداشت و درمان.
🔵نظارت بر بیمار: هشدار به متخصصان بهداشت در مورد انحرافات در نشانه‌های حیاتی یا رفتار بیمار.

🔵 بازاریابی

🔵تشخیص تقلب در تبلیغات: شناسایی و حذف تعاملات تبلیغاتی که توسط ربات‌ها ایجاد شدن.
🔵تحلیل رفتار مشتری: تعیین اقدامات غیرعادی که ممکنه نشون‌دهنده تقلب یا فعالیت غیر واقعی باشن.

🔵 کاربردهای صنعتی

🔵کنترل کیفیت تولید: تشخیص محصولات معیوب در خطوط تولید.
🔵نگهداری پیشگیرانه: کمک به شناسایی تجهیزاتی که احتمالاً دچار نقص می‌شن یا نیاز به توجه فوری دارن تا از خاموشی‌های برنامه‌ریزی نشده جلوگیری شه.

🔵 مخابرات

🔵تحلیل ترافیک شبکه: تشخیص نوسانات غیرعادی یا افت‌های داده که نشون‌دهنده مشکلات فنی یا حملات احتمالی هستن.

🔵 جغرافیا و نظارت بر محیط زیست

🔵نظارت مکانی: شناسایی ناهنجاری‌ها در تصاویر ماهواره‌ای یا داده‌های جغرافیایی. میشه از تشخیص ناهنجاری برای تشخیص فعالیت‌های غیرقانونی مثل معدن‌کاری غیرمجاز، قطع درختان یا گسترش شهرنشینی به صورت غیرقانونی استفاده کرد.

🔵 حمل و نقل

🔵نگهداری بزرگراه مبتنی بر ناهنجاری: تشخیص ناهنجاری‌هایی مثل چاله‌ها و گزارش‌شون برای تعمیر.

🔵 پردازش متن و گفتار

🔵تشخیص سرقت ادبی: شناسایی قطعات متنی که احتمالاً کپی شدن.
🔵فیلتر کردن هرزنامه: تشخیص الگوها یا محتویات غیرعادی در ایمیل‌ها یا پیام‌ها.

این کاربردها نشون‌دهنده تنوع و اهمیت بالای تشخیص ناهنجاری در تأمین امنیت و بهینه‌سازی عملیات در صنایع مختلفه. با پیشرفت فناوری و تجزیه و تحلیل داده‌ها، میشه انتظار داشت که کاربرد تشخیص ناهنجاری همچنان در حال گسترش باشه و به شکل‌گیری سیستم‌های هوشمندتر و ایمن‌تر کمک کنه.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👌3
🧑‍🎓 مروری کامل بر تشخیص ناهنجاری در یادگیری ماشین

در این بلاگ، به طور جامع به بررسی و تحلیل تشخیص ناهنجاری در یادگیری ماشین پرداخته شده و می‌تونه منبع کاملی برای یادگیری این موضوع باشه.

🟢برای مطالعه بیشتر کلیک کنین:
👉📎 ctdrs.ir/ds0231

🟡ازتون دعوت می‌کنیم تا سوالات و نظرات‌تون رو در این بلاگ به اشتراک بگذارین تا ما فرصت پاسخگویی بهشون رو داشته باشیم.

#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏32
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵هدف از تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/279

🔵انواع روش‌های تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/283

🔵بررسی iForest با جزئیات
👉🔗 https://t.iss.one/data_ml/286

🔵بررسی LOF با جزئیات
👉🔗 https://t.iss.one/data_ml/289

🔵شبکه‌های عصبی برای تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/292

🔵کاربرد تشخیص ناهنجاری در دنیای واقعی
👉🔗 https://t.iss.one/data_ml/295

🔺 کوئیز

🔵کوییز شماره ۷۹: انواع ناهنجاری‌
👉🔗 https://t.iss.one/data_ml/281

🔵کوییز شماره ۸۰: تکنیک برای کشف ناهنجاری‌های مبتنی بر تراکم
👉🔗 https://t.iss.one/data_ml/284

🔵کوییز شماره ۸۱: محدودیت در استفاده از Isolation Forest
👉🔗 https://t.iss.one/data_ml/287

🔵کوییز شماره ۸۲: مفهوم فاصله قابل دسترسی در LOF
👉🔗 https://t.iss.one/data_ml/290

🔵کوییز شماره ۸۳: GANs در تشخیص ناهنجاری‌
👉🔗 https://t.iss.one/data_ml/293

🔵کوییز شماره ۸۴: کاربرد تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/296

🔺 نکته

🔵تفاوت تشخیص ناهنجاری با حذف نویز
👉🔗 https://t.iss.one/data_ml/282

🔵مزایا و معایب روش‌های تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/285

🔵قطعه کد الگوریتم iForest
👉🔗 https://t.iss.one/data_ml/288

🔵قطعه کد الگوریتم LOF
👉🔗 https://t.iss.one/data_ml/291

🔵نقش Active Learning در تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/294

🔵بلاگ تشخیص ناهنجاری
👉🔗 https://t.iss.one/data_ml/297

#Weekend
#Machine_Learning
#Anomaly_Detection

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2👏2
👩‍🎓 برنامه آموزشی هفته: سیستم‌های توصیه‌گر یا Recommender systems

🟠شنبه: اهداف و کاربرد

🔵یک‌شنبه: معرفی انواع

🟢دوشنبه: سیستم‌های توصیه‌گر مبتنی بر محتوا

🔴سه‌شنبه: سیستم‌های توصیه‌گر مبتنی بر فیلترینگ

🟠چهارشنبه: سیستم‌های توصیه‌گر مبتنی بر یادگیری عمیق

🔵پنج‌شنبه: یادگیری تقویتی

🟢جمعه: جمع بندی

#Machine_Learning
#Recommender_Systems

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥31
🔰 وبینار "ماشین لرنینگ در MBA"

- ماشین لرنینگ چیست؟
- تفاوت ماشین لرنینگ و هوش مصنوعی
- تفاوت ماشین لرنینگ و آنالیز داده
- ماشین لرنینگ در مارکتینگ
- ماشین لرنینگ در مالی
- ماشین لرنینگ در زنجیره تامین
- ماشین لرنینگ در منابع انسانی
- ماشین لرنینگ در توسعه محصول
- نحوه ترکیب ماشین لرنینگ با mba
- اپلای دانشگاهی و شغلی
- پرسش و پاسخ

👤 ارائه کننده: رضا شکرزاد
- کارشناس ارشد علم داده از دانشگاه رادبود با سابقه مهندسی ماشین لرنینگ در شرکت هنکل

🗓 دوشنبه، ۱۴ اسفند ۱۴۰۲
ساعت ۲۰
🖥 آنلاین در اتاق مجازی انجمن علمی

⁉️ حضور در این برنامه در صورت ثبت‌نام برای عموم آزاد است.
🔗 فرم ثبت نام
 
🔔 افزودن به تقویم گوگل

پشتیبانی

▫️▫️▫️▫️

⚪️ انجمن علمی دانشجویی مدیریت دانشگاه صنعتی شریف

تلگرام | اینستاگرام | لینکدین | یوتیوب | آپارات | نشریه
👍62🔥1
👨‍🎓 اهداف و کاربردهای سیستم‌های توصیه‌گر

سیستم‌های توصیه‌گر (Recommender Systems) یکی از مهم‌ترین و پرکاربردترین تکنولوژی‌ها در حوزه یادگیری ماشین هستن.

هدف اصلی از طراحی و پیاده‌سازی این سیستم‌ها، ارائه توصیه‌های سفارشی و مرتبط به کاربران بر اساس ترجیحات، رفتار و الگوهای قبلی‌شونه.

🔵 اهداف سیستم‌های توصیه‌گر

🔵افزایش رضایت کاربران: یکی از اصلی‌ترین اهداف سیستم‌های توصیه‌گر، افزایش رضایت کاربران با ارائه توصیه‌های شخصی‌سازی شده است.

با توجه به تنوع زیاد محتوا و محصولات موجود در فضای آنلاین، کاربران ممکنه در پیدا کردن آیتم‌هایی که بهشون علاقه‌دارن، دچار سردرگمی شن.

سیستم‌های توصیه‌گر با تجزیه و تحلیل داده‌های رفتاری کاربران و شناسایی الگوها و علایق‌شون، توصیه‌هایی مرتبط و مفید ارائه می‌دن تا تجربه کاربری بهبود پیدا کنه.

🔵افزایش فروش و درآمدزایی: سیستم‌های توصیه‌گر از طریق ارائه توصیه‌های شخصی‌سازی شده می‌تونن به عنوان یک ابزار بازاریابی قدرتمند عمل کنن که مستقیما روی تصمیمات خرید کاربران تأثیر می‌گذاره.

🔵کاهش اثر فراوانی اطلاعات: با افزایش حجم اطلاعات موجود در اینترنت، کاربران مشکل اضافه‌بار اطلاعاتی (Information Overload) مواجه می‌شن و فرآیند تصمیم‌گیری براشون سخت میشه.

سیستم‌های توصیه‌گر با فیلتر کردن اطلاعات و ارائه محتوای مرتبط و مفید به کاربران، به کاهش اثر فراوانی اطلاعات کمک می‌کنن. در نتیجه باعث انتخاب مؤثرتر از بین گزینه‌های موجود و صرفه جویی در زمان میشن.

🔵تقویت ارتباط با مشتری: این سیستم‌ها با ارائه توصیه‌های شخصی‌سازی شده، به تقویت ارتباط بین کسب‌وکارها و مشتریان کمک می‌کنن. این کار باعث افزایش تکرار خرید و توصیه محصولات یا خدمات توسط کاربران به دیگران میشه.

🔵بهینه‌سازی موجودی و مدیریت زنجیره تأمین: در بخش‌هایی مثل خرده‌فروشی، سیستم‌های توصیه‌گر با پیش‌بینی میزان تقاضا برای محصولات و بررسی رفتار خرید کاربران، به کسب‌وکارها در مدیریت موجودی‌شون به بهینه‌ترین شکل ممکن کمک می‌کنن.

🔵 کاربردهای سیستم‌های توصیه‌گر

🔵تجارت الکترونیک: در وب‌سایت‌های فروشگاهی، سیستم‌های توصیه‌گر با تحلیل رفتار خرید و ترجیحات کاربران، محصولات مرتبط یا مکمل رو بهشون پیشنهاد می‌دن.

🔵سرویس‌های استریم موسیقی و ویدئو: پلتفرم‌هایی مثل فیلیمو، رادیو جوان و YouTube از سیستم‌های توصیه‌گر برای ارائه محتوای سفارشی استفاده می‌کنن. با توجه به تاریخچه مشاهده یا گوش دادن کاربران، این سیستم‌ها محتوای جدیدی رو که احتمال داره بهش علاقه داشته باشن، پیشنهاد می‌ده.

🔵شبکه‌های اجتماعی: سیستم‌های توصیه‌گر در شبکه‌های اجتماعی برای پیشنهاد دوستان، صفحات، گروه‌ها و محتوایی که کاربران ممکنه دوست داشته باشن، استفاده می‌شن. این کار به افزایش تعامل و ایجاد ارتباطات معنادار کمک می‌کنه.

🔵سیستم‌های آموزشی آنلاین: پلتفرم‌های آموزشی مثل کورسرا از سیستم‌های توصیه‌گر برای پیشنهاد دوره‌ها، ویدئوهای آموزشی و منابع مطالعاتی بر اساس علاقه‌مندی‌ها و نیازهای یادگیری کاربران استفاده می‌کنن. در نتیجه بهترین و موثرترین مسیر یادگیری ایجاد میشه.

🔵صنایع مالی و بانکداری: در حوزه مالی، سیستم‌های توصیه‌گر برای ارائه محصولات و خدمات مالی سفارشی مثل وام‌ها، سرمایه‌گذاری‌ها و بیمه‌ها بر اساس وضعیت مالی و نیازهای کاربران کاربرد دارن.

🔵 پیشرفت‌ها و چالش‌ها

پیشرفت‌ها در یادگیری ماشین و داده‌کاوی به بهبود قابلیت‌های سیستم‌های توصیه‌گر کمک کردن. اما چالش‌هایی مثل حفظ حریم خصوصی کاربران، مقابله با محتوای جعلی و تقلبی و ارائه توصیه‌های متنوع و بی‌طرفانه هنوز موضوعات مهمی هستن که باید بهشون توجه شه.

#Machine_Learning
#Recommender_Systems

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👏21🔥1
کوییز شماره ۸۵: کدوم روش در سیستم‌های توصیه‌گر برای مواجهه با چالش شروع سرد (Cold Start) کارآمده؟
Anonymous Quiz
45%
فیلترینگ مبتنی بر محتوا
29%
فیلترینگ همکارانه
26%
تجزیه مقدار منفرد (SVD)
👍5😎31🤔1
💡سوال مصاحبه: اهمیت اتفاقی بودن، نوآوری و تنوع در سیستم‌های توصیه‌گر رو توضیح بدین.

🔵اتفاقی بودن (Serendipity): این ویژگی به توصیه‌های غیرمنتظره ولی مطلوب اشاره داره که کاربر ممکنه از پیش باهاشون آشنا نباشه.

این نوع توصیه‌ها تجربه کاربر رو بهتر می‌کنن و بهش کمک می‌کنن تا محتوای جدید و جذابی رو کشف کنه.

🔵نوآوری (Novelty): نوآوری به توصیه موارد جدید یا ناشناخته برای کاربر اشاره داره، حتی اگه این موارد خارج از الگوهای معمول کاربر باشن.

نوآوری می‌تونه به حفظ علاقه کاربران کمک کنه و اونها رو به استفاده مداوم از سیستم توصیه‌گر تشویق کنه.

🔵تنوع (Diversity): تنوع در توصیه‌ها به این معنی هست که کاربران با گزینه‌های متفاوتی روبرو می‌شن، در نتیجه از خستگی کاربر، ناشی از مشاهده مداوم یک نوع محتوا جلوگیری میشه.

تنوع به کاربران کمک می‌کنه تا دید وسیع‌تری به محتواهای موجود داشته باشن و فرصت‌های بیشتری برای کشف علایق جدید یا توسعه علایق فعلی‌شون پیدا کنن.

بنابراین این سه عنصر به سیستم‌های توصیه‌گر کمک می‌کنن تا تجربه کاربری رو بهبود بخشنن، تعامل کاربران رو افزایش بدن و از تبدیل شدن سیستم به یک حلقه بسته و تکراری جلوگیری کنن.

#Machine_Learning
#Recommender_Systems

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👌2👨‍💻2👍1👏1