هوش مصنوعی اسمارت نکست
3.92K subscribers
1.33K photos
541 videos
140 files
1.71K links
جامع ترین مرکز خدمات و آموزش هوش مصنوعی در کشور🏅
آموزش تخصصی
آموزش و مشاوره هوش مصنوعی برای مدیران
مشاور و مجری پروژه های هوش مصنوعی

آدرس سایت👇
www.iransmartech.com

روابط عمومی ( ادمین )
@smartech_support

آدرس سایت مدیران👇
www.smartnextfactory.ir
Download Telegram
📚الگوریتم های یادگیری ماشین (قسمت بیست و پنجم)

✔️الگوریتم CNN(درس سوم)

طراحی شبکه عصبی کانولوشنال:

🟡ساخت یک شبکه عصبی کانولوشنیک یک شبکه عصبی چند لایه است.
این طراحی متوالیه که به CNN اجازه می ده تا ویژگی های سلسله مراتبی رو یاد بگیره.
در CNN، بعد از لایه‌های گروه‌بندی و لایه‌های پنهان معمولاً لایه‌های کانولوشنی و لایه‌های فعال‌سازی هستن.

🟡پیش پردازش مورد نیاز در یک ConvNet به الگوی مربوط به نورون‌ها در مغز انسان مربوط می‌شه و با سازماندهی قشر بینایی ایجاد شده.

⬅️فرآیند آموزش برای CNN شامل مراحل زیره:

🟡آماده سازی داده ها: تصاویر آموزشی از قبل پردازش شدن تا اطمینان حاصل بشه که همه اون ها در قالب و اندازه یکسان هستن.

🟡تابع ضرر(Loss): از یک تابع ضرر برای اندازه گیری میزان عملکرد CNN در داده های آموزشی استفاده می شه. تابع ضرر معمولاً با گرفتن تفاوت بین برچسب های پیش بینی شده و برچسب های واقعی تصاویر آموزشی محاسبه می شه.

🟡بهینه ساز: یک بهینه ساز برای به روز رسانی وزن های CNN به منظور به حداقل رساندن ضرر استفاده می شه.

🟡پس انتشار: پس انتشار تکنیکیه که برای محاسبه گرادیان  loss با توجه به وزن CNN استفاده می شه. سپس از گرادیان ها برای به روز رسانی وزن های CNN با استفاده از بهینه ساز استفاده می شه.

🟡پس از آموزش، می شه CNN رو در یک مجموعه تست نگه داشته شده، ارزیابی کرد. مجموعه ای از تصاویری که CNN در طول آموزش ندیده، مجموعه آزمایشی رو تشکیل می ده.

🟡 اینکه CNN در مجموعه آزمایشی چقدر خوب عمل می‌کند، پیش‌بینی‌کننده خوبی از عملکرد آن بر روی داده‌های واقعی است.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
📚الگوریتم های یادگیری ماشین (قسمت بیست و ششم)

✔️الگوریتم CNN(درس چهارم)

مزایا:

1️⃣. می تونند در انواع وظایف تشخیص تصویر، مانند طبقه بندی تصویر، تشخیص اشیا و تقسیم بندی تصویر، با دقت خیلی خوب عمل کنند.

2️⃣.‏CNN ها می تونند بسیار کارآمد باشند، به خصوص زمانی که بر روی سخت افزارهای تخصصی مانند GPU پیاده سازی بشند.

3️⃣. نسبتاً در برابر نویز و تغییرات در داده های ورودی مقاوم هستند.

4️⃣.می شه به سادگی با تغییر معماری شبکه با انواع وظایف مختلف سازگار کرد.

معایب :

1️⃣.آموزش پیچیده و دشوار ، به خصوص برای مجموعه داده های بزرگ.

2️⃣.به منابع محاسباتی زیادی برای آموزش و استقرار نیاز  دارند.

3️⃣.برای آموزش به مقدار زیادی داده برچسب دار نیاز دارند.

4️⃣.درک تفسیرها و پیش بینی های خروجی ممکنه دشوار باشه

کارایی یک CNN در وظایف دسته بندی تصاویر رو میشه با استفاده از معیارهای مختلفی ارزیابی کرد.مثل:

🟡درصد دقتی که تصاویر آزمایشی را درست طبقه بندی میکند،درصد درستی که تصاویر آزمایشی مطعلق به یک کلاس خاص پیش‌بینی می‌کنه و در واقع از اکن کلاس هستن.

🟡امتیاز F1 یک میانگین هارمونیک برای دقت و یادآوریه.که معیار خوبی برای ارزیابی عملکرد یک CNN در کلاس هایی هیت که نامتعادلند.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
📚الگوریتم های یادگیری ماشین (قسمت بیست و هفتم)

✔️الگوریتم CNN(درس پنجم)

نمونه کد پایتون
import numpy as np 
import tensorflow as tf
import matplotlib.pyplot as plt
from itertools import product

# set the param
plt.rc('figure', autolayout=True)
plt.rc('image', cmap='magma')

# define the kernel
kernel = tf.constant([[-1, -1, -1],
          [-1, 8, -1],
          [-1, -1, -1],
        ])

# load the image
image = tf.io.read_file('Ganesh.jpg')
image = tf.io.decode_jpeg(image, channels=1)
image = tf.image.resize(image, size=[300, 300])

# plot the image
img = tf.squeeze(image).numpy()
plt.figure(figsize=(5, 5))
plt.imshow(img, cmap='gray')
plt.axis('off')
plt.title('Original Gray Scale image')
plt.show();


# Reformat
image = tf.image.convert_image_dtype(image, dtype=tf.float32)
image = tf.expand_dims(image, axis=0)
kernel = tf.reshape(kernel, [*kernel.shape, 1, 1])
kernel = tf.cast(kernel, dtype=tf.float32)

# convolution layer
conv_fn = tf.nn.conv2d

image_filter = conv_fn(
  input=image,
  filters=kernel,
  strides=1, # or (1, 1)
  padding='SAME',
)

plt.figure(figsize=(15, 5))

# Plot the convolved image
plt.subplot(1, 3, 1)

plt.imshow(
  tf.squeeze(image_filter)
)
plt.axis('off')
plt.title('Convolution')

# activation layer
relu_fn = tf.nn.relu
# Image detection
image_detect = relu_fn(image_filter)

plt.subplot(1, 3, 2)
plt.imshow(
  # Reformat for plotting
  tf.squeeze(image_detect)
)

plt.axis('off')
plt.title('Activation')

# Pooling layer
pool = tf.nn.pool
image_condense = pool(input=image_detect,
              window_shape=(2, 2),
              pooling_type='MAX',
              strides=(2, 2),
              padding='SAME',
              )

plt.subplot(1, 3, 3)
plt.imshow(tf.squeeze(image_condense))
plt.axis('off')
plt.title('Pooling')
plt.show()

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
📚الگوریتم های یادگیری ماشین (قسمت بیست و هشتم)

✔️الگوریتم SVM(درس اول)

‏ماشین بردار پشتیبان (SVM) چیست؟

🔵‏‌‏SVM یک الگوریتم یادگیری ماشین(ML) نظارت شده که برای طبقه‌بندی و رگرسیون استفاده می‌شه. هدف اصلی الگوریتم SVM پیدا کردن hyperplane بهینه در فضای N بُعدیه که بتونه نقاط داده رو در کلاس‌های مختلف در فضای ویژگی جدا بکنه.

🔵هایپرپلن سعی می‌کنه که حاشیه بین نزدیکترین نقاط کلاس‌های مختلف، تا حد امکان بیشترین میزان باشه. بُعد هایپرپلن به تعداد ویژگی‌ها بستگی داره.

🔵 مثلا اگه تعداد ویژگی‌های ورودی 2 باشه،  هایپرپلن فقط یک خطه. یا اگه تعداد ویژگی‌های ورودی سه باشه، پس هایپرپلن به یک صفحه دوبعدی تبدیل می‌شه. تصور وقتی که تعداد ویژگی‌ها از 3 بیشتر باشه دشوار می‌شه.

❗️توجه: SVM و Logistic regression رو اشتباه نگیرید. هر دو الگوریتم سعی می‌کنن بهترین hyperplane رو پیدا کنن، اما تفاوت اصلی اون ها اینه که Logistic regression یک رویکرد احتمالیه در حالی که ماشین بردار پشتیبان مبتنی بر رویکردهای آماری هست.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
📚الگوریتم های یادگیری ماشین (قسمت بیست و نهم)

✔️الگوریتم SVM(درس دوم)

🔴‏بیایید دو متغیر مستقل x1، x2 و یک متغیر وابسته را در نظر بگیریم که یک دایره آبی یا یک دایره قرمز است.

🔴‏از شکل بالا بسیار واضحه که چندین خط وجود داره (هایپرپلن ما در اینجا یک خطه چون ما فقط دو ویژگی ورودی x1، x2 را در نظر می‌گیریم) که نقاط داده ما رو از هم جدا می‌کنن یا بین دایره‌های قرمز و آبی طبقه بندی انجام میشه.بی‌نهایت hyperplane از یک نقطه عبور می‌کنند که دو کلاس رو کاملاً طبقه‌بندی می‌کنه.

🔴الگوریتمSVM برای انتخاب بهترین hyperplane با یافتن ماکزیمم حاشیه hyperplaneها طبقه بندی رو انجام میده که به معنای حداکثر فاصله بین دو کلاس هست.

🔴بسته به تعداد ویژگی‌هایی که دارید، می‌تونید Logistic Regression یا SVM رو انتخاب کنید.SVM زمانی بهترین عملکرد رو داره که مجموعه داده کوچک و پیچیده باشه. معمولاً توصیه می‌شه اول از Logistic Regression استفاده کنید و ببینید عملکردش چه‌جوریه، اگه دقت خوبی نداشت،به سراغ SVM برید.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین


🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51
📚الگوریتم های یادگیری ماشین (قسمت سی ام)

✔️الگوریتم SVM(درس سوم)

انواع الگوریتم های ماشین بردار پشتیبان(SVM):

🟢‏SVM خطی: زمانی استفاده می‌شه که داده‌ها کاملاً به صورت خطی قابل تفکیک باشند.کاملاً خطی قابل تفکیک به این معنیه که نقاط داده رو می‌تونیم با استفاده از یک خط مستقیم (اگر 2 بعدی) به 2 کلاس طبقه‌بندی کنیم.

🟢‏SVM غیر خطی: وقتی داده‌ها به صورت خطی قابل تفکیک نیستند، استفاده می‌شه، یعنی وقتی که نقاط داده رو نمی‌تونیم با استفاده از یک خط مستقیم (اگر 2 بعدی) به 2 کلاس تقسیم کنیم، از تکنیک‌های پیشرفته مانند karnel استفاده می‌کنیم. در دنیای واقعی، ما نقاط داده قابل جداسازی خطی رو پیدا نمی‌کنیم، پس از ترفند karnel برای حل اون ها استفاده می‌کنیم.

⬅️اصطلاحات مورد استفاده در SVM:

‏1.Hyperplane: Hyperplane مرز تصمیم‌گیریه که برای جداسازی نقاط داده کلاس‌های مختلف، در یک فضای ویژگی استفاده می‌شه. در مورد طبقه بندی خطی، معادله هم خطیه یعنی wx+b = 0.

‏2.بردارهای پشتیبان(support vectors): بردارهای پشتیبان نزدیکترین نقاط داده به hyperplane هستند که نقش مهمی در جداسازی و حاشیه دارن.

‏3.حاشیه(Margin): حاشیه فاصله بین بردار پشتیبان و هایپرپلن هست. هدف اصلی الگوریتم ماشین بردار پشتیبان، به حداکثر رساندن حاشیه هست. حاشیه وسیع‌تر نشان دهنده عملکرد بهتر طبقه بندیه. دو نوع حاشیه سخت و حاشیه نرم داریم.

‏4.Kernel: تابع ریاضی که در SVM برای نگاشت نقاط داده ورودی اصلی به فضاهای ویژگی با ابعاد بالا استفاده می‌شه، به طوری که حتی اگه نقاط داده به صورت خطی در ورودی اصلی قابل تفکیک نباشن، می‌تونیم به راحتی hyperplane رو پیدا کنیم.

‏5.حاشیه سخت: hyperplane حداکثر حاشیه یا حاشیه سخت، هایپرپلانیه که به درستی نقاط داده دسته‌های مختلف رو بدون هیچ گونه طبقه‌بندی اشتباه، جدا می‌کنه.

‏6. حاشیه نرم: وقتی داده‌ها کاملاً قابل تفکیک نیستند یا حاوی مقادیر پرت‌اند، SVM از تکنیک حاشیه نرم استفاده می‌کنه. هر نقطه داده دارای یک متغیر Slack هست که توسط فرمول SVM با حاشیه نرم معرفی شده، که الزامات حاشیه سخت رو کاهش می‌ده و امکان طبقه بندی اشتباه یا نقض خاص را فراهم می‌کنه.سازش بین افزایش حاشیه و کاهش تخلفات را کشف می‌کنه.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
📚الگوریتم های یادگیری ماشین (قسمت سی یکم)

✔️الگوریتم SVM(درس چهارم)

‏مزایای SVM:

🟣حافظه‌اش کارآمده چون از زیر مجموعه‌ای از نقاط آموزشی در تابع تصمیم به نام بردارهای پشتیبانی استفاده می‌کنه.
🟣در ابعاد بالا موثرتره.
🟣با کمک ترفند kernel می‌تونیم هر مسئله پیچیده‌ای رو حل کنیم.
🟣 به موارد پرت حساس نیست‌.
🟣می‌تونه به ما در طبقه بندی تصاویر کمک کنه.

معایب SVM:

🟣انتخاب یک kernel خوب آسان نیست.
🟣در یک مجموعه داده بزرگ نتایج خوبی رو نشون نمی دهه.
🟣 فراپارامترهای SVM عبارتند از Cost -C و گاما. تنظیم دقیق این پارامترها چندان آسان نیست.
🟣تجسم تأثیر آنها دشواره.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین


🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
📚الگوریتم های یادگیری ماشین (قسمت سی دوم)

✔️الگوریتم SVM(درس پنجم)

🟣با این الگوریتم میتوان خوش خیم یا بدخیم بودن سرطان رو پیش بینی کرد. استفاده از داده‌ها در مورد بیماران مبتلا به سرطان، به پزشکان کمک میکنه تا موارد بدخیم رو از هم متمایز کنن.

مراحل:

1️⃣.مجموعه داده سرطان سینه رو از sklearn.datasets بارگیری میکنیم.

2️⃣.ویژگی‌های ورودی و متغیرهای هدف رو جدا میکنیم.

3️⃣.طبقه بندی کننده‌های SVM رو با استفاده از kernel RBF می‌سازیم و آموزش میدیم.

4️⃣.نمودار پراکندگی ویژگی‌های ورودی رو رسم میکنیم.

# Load the important packages
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt
from sklearn.inspection import DecisionBoundaryDisplay
from sklearn.svm import SVC

# Load the datasets
cancer = load_breast_cancer()
X = cancer.data[:, :2]
y = cancer.target

#Build the model
svm = SVC(kernel="rbf", gamma=0.5, C=1.0)
# Trained the model
svm.fit(X, y)

# Plot Decision Boundary
DecisionBoundaryDisplay.from_estimator(
        svm,
        X,
        response_method="predict",
        cmap=plt.cm.Spectral,
        alpha=0.8,
        xlabel=cancer.feature_names[0],
        ylabel=cancer.feature_names[1],
    )

# Scatter plot
plt.scatter(X[:, 0], X[:, 1],
            c=y,
            s=20, edgecolors="k")
plt.show()

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
📚الگوریتم های یادگیری ماشین (قسمت سی سوم)

✔️الگوریتم Gradient Boosting(درس اول)

🟢‏انواع مختلفی از الگوریتم‌های تقویتی(boosting) مانند AdaBoost، gradient boosting algorithm و XGboost در یادگیری ماشین(ML) وجود داره.

🟢‏Boosting یکی از انواع روش‌های یادگیری گروهیه که مدل رو به صورت متوالی آموزش می‌ده و هر مدل جدید سعی می‌کنه مدل قبلی رو اصلاح کنه.

🟢الگوریتم افزایش گرادیان(Gradient Boosting) به خاطر سرعت و دقت پیش‌بینی، مخصوصا با مجموعه داده‌های بزرگ و پیچیده، یک الگوریتم تقویتی محبوب برای کارهای طبقه‌بندی(classification) و رگرسیون هست.

‏Gradient Boosting چندین یادگیرنده ضعیف رو ترکیب می‌کنه تا به یادگیرندگان قوی برسه. هر مدل جدید برای به حداقل رسوندن تابع ضرر(loss) (مانند میانگین مربعات خطا یا آنتروپی متقابل مدل قبلی با استفاده از گرادیان نزول)،آموزش داده می‌شه.

🟢 در هر تکرار، گرادیان تابع ضرر رو با توجه به پیش‌بینی‌های مجموعه فعلی محاسبه می‌کنه و بعدش یک مدل ضعیف جدید رو برای به حداقل رسوندن این گرادیان آموزش می‌ده. سپس پیش‌بینی‌های مدل جدید به مجموعه اضافه می‌شند و این فرآیند را تا زمانی که یک معیار توقف برآورده بشه، تکرار می‌کنه.

🟢خطاها نقش مهمی در الگوریتم یادگیری ماشین دارن. عمدتاً دو نوع خطا وجود داره: خطای بایاس و خطای واریانس. الگوریتم Gradient Boosting به ما کمک می‌کنه تا خطای بایاس مدل رو به حداقل برسونیم.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
📚 الگوریتم های یادگیری ماشین (قسمت سیو چهارم )

✔️الگوریتم Gradient Boosting(درس دوم)

🟡‏وقتی که ستون هدف پیوسته است، از Gradient Boosting Regressor استفاده می‌کنیم، و برای مسئله طبقه بندی ، از Gradient Boosting Classifier استفاده می‌کنیم. تنها تفاوت بین این دو "عملکرد ضرر" هست. برای مشکلات رگرسیون، توابع ضرر متفاوتی مثل میانگین مربعات خطا (MSE) و برای طبقه‌بندی، توابع مختلفی مثل log-likelihood خواهیم داشت.
‏Gradient Boosting شامل سه عنصر هست:

1️⃣. تابع ضرر(Loss Function):

🟡تابع ضرر استفاده شده به نوع مشکل بستگی داره.به عنوان مثال، رگرسیون از یک خطای مربع و طبقه‌بندی از ضرر لگاریتمی استفاده می‌کنه.
یکی از مزایای Gradient Boosting  داشتن ،  یک چارچوب به اندازه کافی عمومیه، که می‌تونه از هر تابع ضرر متمایزپذیر استفاده کنه؛و لازم نیست یک الگوریتم تقویت جدید برای هر تابع ضرری که ممکنه بخواد استفاده بشه مشتق شود.

2️⃣. یادگیرنده ضعیف(Weak Learner):

🟡درختان تصمیم به عنوان یادگیرنده ضعیف استفاده می‌شند.به طور خاص از درخت‌های رگرسیون که مقادیر واقعی رو برای تقسیم‌ها و خروجی‌ها با هم جمع می‌کنند، اجازه می‌دند تا خروجی‌های مدل‌های بعدی اضافه بشند و باقی‌مانده‌ها در پیش‌بینی‌ها «تصحیح» بشند.
درختان به شیوه‌ای حریصانه ساخته می‌شند و بهترین نقاط تقسیم رو بر اساس امتیازهای خلوص مانند Gini یا برای به حداقل رساندن ضرر انتخاب می‌کنن.

🟡در ابتدا، از درخت‌های تصمیم بسیار کوتاهی که تنها دارای یک تقسیم‌اند استفاده می‌شد.درختان بزرگتر رو می‌شه به طور کلی با سطوح 4 تا 8 استفاده کرد.

3️⃣. مدل افزودنی(Additive Model):

🟡درخت‌ها یکی یکی اضافه می‌شند و درخت‌های موجود در مدل تغییر نمی‌کنند.
یک روش نزول گرادیان برای به حداقل رساندن تلفات موقع اضافه کردن درختان استفاده می‌شود.

🟡به طور سنتی، گرادیان نزول برای به حداقل رساندن مجموعه‌ای از پارامترها، مثل ضرایب در معادله رگرسیون یا وزن‌ها در یک شبکه عصبی استفاده می‌شه. پس از محاسبه خطا یا ضرر، وزن‌ها به روز می‌شند تا آن خطا به حداقل برسه.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
📚 الگوریتم های یادگیری ماشین (قسمت سیو پنجم )

✔️الگوریتم Gradient Boosting(درس سوم)

🟢‏Gradient boosting ممکنه مشکل بیش از حد برازش(overfit) داشته باشه.
می‌تونه ار روش‌های منظم‌سازی که بخش‌های مختلف الگوریتم رو جریمه و محدود می‌کنن و به طور کلی با کاهش بیش از حد برازش، عملکرد الگوریتم رو بهبود می‌بخشه، استفاده کنه.

چهار تقویت پایه گرادیان

1️⃣. محدودیت های درختی:

🟢مهمه که یادگیرنده‌های ضعیف مهارت داشته باشن اما ضعیف بمونن.چندین راه برای محدود کردن درختان وجود داره.هرچی ایجاد درخت محدودتر باشه، به درخت های بیشتری در مدل نیاز خواهیم داشت، و برعکس، جایی که درختان منفرد محدود کمتری دارن، درختان کمتری مورد نیاز هستن.

2️⃣. به روز رسانی وزن:

🟢پیش بینی‌های هر درخت به ترتیب با هم جمع می‌شند.سهم هر درخت در این مجموع رو می‌شه برای کاهش سرعت یادگیری توسط الگوریتم وزن کرد. این وزن‌دهی را انقباض یا نرخ یادگیری می نامند.

3️⃣. افزایش گرادیان تصادفی:

🟢یک دیدگاه بزرگ در مورد مجموعه‌های خوشه‌ای و جنگل‌های تصادفی به درختان اجازه می‌داد تا با حرص و آز از زیر نمونه‌های مجموعه داده آموزشی ایجاد بشند.

🟢همین مزیت رو می‌شه برای کاهش همبستگی بین درختان در دنباله در مدل‌های تقویت گرادیان استفاده کرد.این تنوع تقویت، تقویت گرادیان تصادفی نامیده می شود.

4️⃣. افزایش گرادیان مجازات:

🟢علاوه بر ساختار درختان پارامتری شده، محدودیت‌های اضافی رو می‌شه اعمال کرد.
درخت‌های تصمیم کلاسیک مانند CART به‌عنوان یادگیرنده ضعیف استفاده نمی‌شوند، در عوض از یک فرم اصلاح‌شده به نام درخت رگرسیون استفاده می‌شه که دارای مقادیر عددی در گره‌های برگ است(که به آن گره‌های پایانی نیز می‌گویند). مقادیر موجود در برگ درختان رو در برخی ادبیات می‌شه وزن نامید.

🟢پس متوجه شدیم که به دلیل استفاده از روش گرادیان نزول برای بهینه‌سازی پارامترهای مدل جدید در تقویت، آن را تقویت گرادیان می‌نامیم. ایده کلیدی  اینه که هر مدل جدیدی که به مجموعه اضافه میشه بر اصلاح اشتباهات مدل های قبلی تمرکز کنه. با به حداقل رساندن مکرر باقیمانده‌ها و بهبود پیش بینی‌ها، مجموعه به تدریج دقت خود را افزایش میده.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
📚 الگوریتم های یادگیری ماشین (قسمت سیو ششم )

✔️ الگوریتم Gradient Boosting(درس چهارم)

🟣مزایایgradient boosting:

• چون یادگیریش گروهیه ، تفسیر و مدیریت داده¬ها آسان تره.

•  نسبت به الگوریتم‌های دیگه دقیق‌تر و با روش‌های پیشرفته مانند خوشه بندی، جنگل تصادفی و درخت تصمیم، نتایج دقیقی بهمون میده.

•  نه تنها از مجموعه داده های عددی ، بلکه برای مدیریت داده های طبقه بندی و گسسته شده نیز کارآمده.

•  یک روش انعطاف‌پذیر که به راحتی مجموعه داده‌های آموزشی رو بررسی می‌کنه.

🟣معایب gradient boosting:

•   حساس به نقاط پرت در یک مجموعه داده است که باعث پیچیدگی حافظه میشه.

•  چون تلاش میکنه  هر خطای گره های قبلی رو حل کنه منجر به برازش بیش از حد مدل می شه.

•  می‌تونند از نظر محاسباتی پرهزینه باشن و زمان بیشتری برای آموزش مدل کامل بر روی پردازنده‌ها نیاز باشه.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53
📚 الگوریتم های یادگیری ماشین (قسمت سیو هفتم )

✔️ الگوریتم Navie Bayes (درس اول)

🟣الگوریتم بیز ساده (Naive Bayes) یکی از ساده‌ترین و محبوب‌ترین روش‌های دسته‌بندی در حوزه یادگیری ماشین هست. اسم "ساده" (Naive) از اینجا میاد که این الگوریتم فرض می‌کنه ویژگی‌های مختلفی که برای تحلیل داریم، از همدیگه مستقل هستن. یعنی هر ویژگی به تنهایی تصمیم می‌گیره و هیچ تأثیری روی بقیه نداره.

🟣 این فرضیه شاید در دنیای واقعی همیشه درست نباشه، اما همین سادگی باعث میشه الگوریتم خیلی سریع و کارآمد باشه.

🟣این روش برای مسائل مختلفی مثل دسته‌بندی ایمیل‌ها (اسپم یا نه اسپم)، تشخیص متن‌ها و دسته‌بندی اخبار استفاده میشه. یکی از دلایل محبوبیت بیز ساده اینه که با وجود سادگی‌اش، توی خیلی از کاربردها نتایج خوبی ارائه میده و به راحتی قابل پیاده‌سازی هست.

🟣الگوریتم بیز ساده روی احتمالات کار می‌کنه، یعنی به کمک محاسبه احتمال اینکه یک داده به یک دسته خاص تعلق داره، تصمیم می‌گیره که اون داده رو در کدوم دسته قرار بده.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین 

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
📚 الگوریتم های یادگیری ماشین (قسمت سیو هشتم )

✔️ الگوریتم Navie Bayes (درس دوم)

🔵الگوریتم بیز ساده بر اساس قانون بیز عمل می‌کنه، که یک فرمول ریاضی برای محاسبه احتمال وقوع یک رویداد با توجه به اطلاعات دیگره. فرمول اون در تصویر بالاست

🔵این فرمول به ما می‌گه که چطور احتمال وقوع یک رویداد (مثل اسپم بودن ایمیل) رو با توجه به داده‌های مرتبط (مثلاً وجود کلمه "رایگان") محاسبه کنیم.

🔵بیز ساده فرض می‌کنه که تمام ویژگی‌های داده‌ها (مثلاً کلمات در ایمیل) مستقل از هم هستن. این سادگی به الگوریتم اجازه می‌ده که به سرعت و با استفاده از داده‌های قبلی، احتمال اینکه یک داده (مثل ایمیل) به یک دسته خاص تعلق داره (مثل اسپم یا غیر اسپم) رو محاسبه کنه.

🔵مثال: اگر یک ایمیل جدید حاوی کلماتی مثل "تخفیف" باشه، بیز ساده احتمال اسپم بودن ایمیل رو با توجه به این کلمات محاسبه می‌کنه و نتیجه می‌ده.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین 

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩5👍3
📚 الگوریتم های یادگیری ماشین (قسمت سیو نهم )

✔️ الگوریتم Navie Bayes (درس سوم)

مراحل کار الگوریتم بیز ساده

الگوریتم بیز ساده برای دسته‌بندی داده‌ها در چند مرحله ساده عمل می‌کنه. این مراحل به صورت زیر هستن:

1️⃣. آموزش مدل (Training):
در مرحله اول، الگوریتم با استفاده از داده‌های آموزشی (که برچسب‌گذاری شده‌اند)، الگوها و احتمالات لازم رو یاد می‌گیره. مثلاً در سیستم فیلتر ایمیل، الگوریتم یاد می‌گیره که کلمات خاصی مثل "رایگان" یا "تخفیف" در ایمیل‌های اسپم بیشتر دیده می‌شون.

2️⃣. محاسبه احتمالات:
وقتی یک داده جدید (مثلاً یک ایمیل جدید) وارد می‌شه، الگوریتم با استفاده از قانون بیز، احتمال تعلق اون داده به هر دسته رو محاسبه می‌کنه. برای هر ویژگی (مثل کلمات در ایمیل)، احتمال اینکه اون ویژگی به یک دسته خاص (مثلاً اسپم) تعلق داره، محاسبه می‌شه.

3️⃣. انتخاب دسته نهایی:
پس از محاسبه احتمالات برای تمام دسته‌ها (مثل اسپم و غیر اسپم)، الگوریتم بیشترین احتمال رو پیدا می‌کنه. داده جدید به دسته‌ای که بالاترین احتمال رو داره، تخصیص داده می‌شه.

4️⃣. ارزیابی و بهبود:
در نهایت، بعد از دسته‌بندی، می‌شه با داده‌های جدید یا خطاهای پیشین، مدل رو به‌روز و بهینه‌سازی کرد تا عملکرد بهتری داشته باشه.

#آموزش   #یادگیری_ماشین  #machine_learning
#الگوریتم_یادگیری_ماشین 

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
6 FREE Books : Data Science using Python

1. Python Data Science Handbook

Publisher: O'Reilly

🔗 HTML: https://jakevdp.github.io/PythonDataScienceHandbook/

🔗 PDF:
https://github.com/terencetachiona/Python-Data-Science-Handbook/blob/master/Python%20Data%20Science%20Handbook%20-%20Jake%20VanderPlas.pdf


2. Python for Data Analysis

Publisher: O'Reilly

🔗 https://wesmckinney.com/book/


3. Data Science Workshop

Publisher: Packt

🔗 https://packtpub.com/free-ebook/the-data-science-workshop-second-edition/9781800566927


4. Elements of Data Science

🔗 https://allendowney.github.io/ElementsOfDataScience/


5. Think Bayes

Publisher: O'Reilly

🔗 https://allendowney.github.io/ThinkBayes2/


6. Think Stats

Publisher: O'Reilly

❯ v3 (HTML)
https://allendowney.github.io/ThinkStats/

❯ v2 (PDF)
https://greenteapress.com/thinkstats2/thinkstats2.pdf


#هوش_مصنوعی  #علم_داد
#DataScience #Machine_Learning

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
بهتره یادگیری ماشین را با ساختن پروژه های دنیای واقعی یاد بگیرید

-این ریپو مجموعه عظیمی از پروژه های یادگیری ماشین برای انجام و تمرین داره


مهارت هاتونو با تمرین عملی بالا ببرید👇


https://github.com/shsarv/Machine-Learning-Projects?tab=readme-ov-file



#یادگیری_ماشین #Machine_Learning

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51
۱۱۵۰ سوال مصاحبه‌های ماشین لرنینگ

https://mkareshk.github.io/ml-interview


#یادگیری_ماشین #Machine_Learning
#interview

🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
MIT's "Machine Learning" lecture notes

PDF: https://introml.mit.edu/_static/spring24/LectureNotes/6_390_lecture_notes_spring24.pdf



#یادگیری_ماشین  #Machine_Learning


🚀شتابدهنده هوش مصنوعی اسمارتک

📱Instagram
🔵Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
‏چیت شیت یادگیری ماشین استنفورد (CS229)
تمام فرمول‌ها و مفاهیم پایه‌ای الگوریتم‌ها رو تو چند صفحه فشرده کردن

➡️https://github.com/afshinea/stanford-cs-229-machine-learning 

#cheat_sheet #Machine_Learning


#یادگیری_ماشین


🔴Instagram
🔵Telegram
2👍1