طراحی شبکه عصبی کانولوشنال:
این طراحی متوالیه که به CNN اجازه می ده تا ویژگی های سلسله مراتبی رو یاد بگیره.
در CNN، بعد از لایههای گروهبندی و لایههای پنهان معمولاً لایههای کانولوشنی و لایههای فعالسازی هستن.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
کارایی یک CNN در وظایف دسته بندی تصاویر رو میشه با استفاده از معیارهای مختلفی ارزیابی کرد.مثل:
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
نمونه کد پایتون
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
from itertools import product
# set the param
plt.rc('figure', autolayout=True)
plt.rc('image', cmap='magma')
# define the kernel
kernel = tf.constant([[-1, -1, -1],
[-1, 8, -1],
[-1, -1, -1],
])
# load the image
image = tf.io.read_file('Ganesh.jpg')
image = tf.io.decode_jpeg(image, channels=1)
image = tf.image.resize(image, size=[300, 300])
# plot the image
img = tf.squeeze(image).numpy()
plt.figure(figsize=(5, 5))
plt.imshow(img, cmap='gray')
plt.axis('off')
plt.title('Original Gray Scale image')
plt.show();
# Reformat
image = tf.image.convert_image_dtype(image, dtype=tf.float32)
image = tf.expand_dims(image, axis=0)
kernel = tf.reshape(kernel, [*kernel.shape, 1, 1])
kernel = tf.cast(kernel, dtype=tf.float32)
# convolution layer
conv_fn = tf.nn.conv2d
image_filter = conv_fn(
input=image,
filters=kernel,
strides=1, # or (1, 1)
padding='SAME',
)
plt.figure(figsize=(15, 5))
# Plot the convolved image
plt.subplot(1, 3, 1)
plt.imshow(
tf.squeeze(image_filter)
)
plt.axis('off')
plt.title('Convolution')
# activation layer
relu_fn = tf.nn.relu
# Image detection
image_detect = relu_fn(image_filter)
plt.subplot(1, 3, 2)
plt.imshow(
# Reformat for plotting
tf.squeeze(image_detect)
)
plt.axis('off')
plt.title('Activation')
# Pooling layer
pool = tf.nn.pool
image_condense = pool(input=image_detect,
window_shape=(2, 2),
pooling_type='MAX',
strides=(2, 2),
padding='SAME',
)
plt.subplot(1, 3, 3)
plt.imshow(tf.squeeze(image_condense))
plt.axis('off')
plt.title('Pooling')
plt.show()
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
ماشین بردار پشتیبان (SVM) چیست؟
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1
انواع الگوریتم های ماشین بردار پشتیبان(SVM):
1.Hyperplane: Hyperplane مرز تصمیمگیریه که برای جداسازی نقاط داده کلاسهای مختلف، در یک فضای ویژگی استفاده میشه. در مورد طبقه بندی خطی، معادله هم خطیه یعنی wx+b = 0.
2.بردارهای پشتیبان(support vectors): بردارهای پشتیبان نزدیکترین نقاط داده به hyperplane هستند که نقش مهمی در جداسازی و حاشیه دارن.
3.حاشیه(Margin): حاشیه فاصله بین بردار پشتیبان و هایپرپلن هست. هدف اصلی الگوریتم ماشین بردار پشتیبان، به حداکثر رساندن حاشیه هست. حاشیه وسیعتر نشان دهنده عملکرد بهتر طبقه بندیه. دو نوع حاشیه سخت و حاشیه نرم داریم.
4.Kernel: تابع ریاضی که در SVM برای نگاشت نقاط داده ورودی اصلی به فضاهای ویژگی با ابعاد بالا استفاده میشه، به طوری که حتی اگه نقاط داده به صورت خطی در ورودی اصلی قابل تفکیک نباشن، میتونیم به راحتی hyperplane رو پیدا کنیم.
5.حاشیه سخت: hyperplane حداکثر حاشیه یا حاشیه سخت، هایپرپلانیه که به درستی نقاط داده دستههای مختلف رو بدون هیچ گونه طبقهبندی اشتباه، جدا میکنه.
6. حاشیه نرم: وقتی دادهها کاملاً قابل تفکیک نیستند یا حاوی مقادیر پرتاند، SVM از تکنیک حاشیه نرم استفاده میکنه. هر نقطه داده دارای یک متغیر Slack هست که توسط فرمول SVM با حاشیه نرم معرفی شده، که الزامات حاشیه سخت رو کاهش میده و امکان طبقه بندی اشتباه یا نقض خاص را فراهم میکنه.سازش بین افزایش حاشیه و کاهش تخلفات را کشف میکنه.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
مزایای SVM:
معایب SVM:
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
مراحل:
# Load the important packages
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt
from sklearn.inspection import DecisionBoundaryDisplay
from sklearn.svm import SVC
# Load the datasets
cancer = load_breast_cancer()
X = cancer.data[:, :2]
y = cancer.target
#Build the model
svm = SVC(kernel="rbf", gamma=0.5, C=1.0)
# Trained the model
svm.fit(X, y)
# Plot Decision Boundary
DecisionBoundaryDisplay.from_estimator(
svm,
X,
response_method="predict",
cmap=plt.cm.Spectral,
alpha=0.8,
xlabel=cancer.feature_names[0],
ylabel=cancer.feature_names[1],
)
# Scatter plot
plt.scatter(X[:, 0], X[:, 1],
c=y,
s=20, edgecolors="k")
plt.show()
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Gradient Boosting چندین یادگیرنده ضعیف رو ترکیب میکنه تا به یادگیرندگان قوی برسه. هر مدل جدید برای به حداقل رسوندن تابع ضرر(loss) (مانند میانگین مربعات خطا یا آنتروپی متقابل مدل قبلی با استفاده از گرادیان نزول)،آموزش داده میشه.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Gradient Boosting شامل سه عنصر هست:
یکی از مزایای Gradient Boosting داشتن ، یک چارچوب به اندازه کافی عمومیه، که میتونه از هر تابع ضرر متمایزپذیر استفاده کنه؛و لازم نیست یک الگوریتم تقویت جدید برای هر تابع ضرری که ممکنه بخواد استفاده بشه مشتق شود.
درختان به شیوهای حریصانه ساخته میشند و بهترین نقاط تقسیم رو بر اساس امتیازهای خلوص مانند Gini یا برای به حداقل رساندن ضرر انتخاب میکنن.
یک روش نزول گرادیان برای به حداقل رساندن تلفات موقع اضافه کردن درختان استفاده میشود.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
🚀شتابدهنده هوش مصنوعی اسمارتک
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
میتونه ار روشهای منظمسازی که بخشهای مختلف الگوریتم رو جریمه و محدود میکنن و به طور کلی با کاهش بیش از حد برازش، عملکرد الگوریتم رو بهبود میبخشه، استفاده کنه.
درختهای تصمیم کلاسیک مانند CART بهعنوان یادگیرنده ضعیف استفاده نمیشوند، در عوض از یک فرم اصلاحشده به نام درخت رگرسیون استفاده میشه که دارای مقادیر عددی در گرههای برگ است(که به آن گرههای پایانی نیز میگویند). مقادیر موجود در برگ درختان رو در برخی ادبیات میشه وزن نامید.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
🚀شتابدهنده هوش مصنوعی اسمارتک
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
• چون یادگیریش گروهیه ، تفسیر و مدیریت داده¬ها آسان تره.
• نسبت به الگوریتمهای دیگه دقیقتر و با روشهای پیشرفته مانند خوشه بندی، جنگل تصادفی و درخت تصمیم، نتایج دقیقی بهمون میده.
• نه تنها از مجموعه داده های عددی ، بلکه برای مدیریت داده های طبقه بندی و گسسته شده نیز کارآمده.
• یک روش انعطافپذیر که به راحتی مجموعه دادههای آموزشی رو بررسی میکنه.
• حساس به نقاط پرت در یک مجموعه داده است که باعث پیچیدگی حافظه میشه.
• چون تلاش میکنه هر خطای گره های قبلی رو حل کنه منجر به برازش بیش از حد مدل می شه.
• میتونند از نظر محاسباتی پرهزینه باشن و زمان بیشتری برای آموزش مدل کامل بر روی پردازندهها نیاز باشه.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
🚀شتابدهنده هوش مصنوعی اسمارتک
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩5👍3
الگوریتم بیز ساده برای دستهبندی دادهها در چند مرحله ساده عمل میکنه. این مراحل به صورت زیر هستن:
در مرحله اول، الگوریتم با استفاده از دادههای آموزشی (که برچسبگذاری شدهاند)، الگوها و احتمالات لازم رو یاد میگیره. مثلاً در سیستم فیلتر ایمیل، الگوریتم یاد میگیره که کلمات خاصی مثل "رایگان" یا "تخفیف" در ایمیلهای اسپم بیشتر دیده میشون.
وقتی یک داده جدید (مثلاً یک ایمیل جدید) وارد میشه، الگوریتم با استفاده از قانون بیز، احتمال تعلق اون داده به هر دسته رو محاسبه میکنه. برای هر ویژگی (مثل کلمات در ایمیل)، احتمال اینکه اون ویژگی به یک دسته خاص (مثلاً اسپم) تعلق داره، محاسبه میشه.
پس از محاسبه احتمالات برای تمام دستهها (مثل اسپم و غیر اسپم)، الگوریتم بیشترین احتمال رو پیدا میکنه. داده جدید به دستهای که بالاترین احتمال رو داره، تخصیص داده میشه.
در نهایت، بعد از دستهبندی، میشه با دادههای جدید یا خطاهای پیشین، مدل رو بهروز و بهینهسازی کرد تا عملکرد بهتری داشته باشه.
#آموزش #یادگیری_ماشین #machine_learning
#الگوریتم_یادگیری_ماشین
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
6 FREE Books : Data Science using Python
1. Python Data Science Handbook
Publisher: O'Reilly
🔗 HTML: https://jakevdp.github.io/PythonDataScienceHandbook/
🔗 PDF:
https://github.com/terencetachiona/Python-Data-Science-Handbook/blob/master/Python%20Data%20Science%20Handbook%20-%20Jake%20VanderPlas.pdf
2. Python for Data Analysis
Publisher: O'Reilly
🔗 https://wesmckinney.com/book/
3. Data Science Workshop
Publisher: Packt
🔗 https://packtpub.com/free-ebook/the-data-science-workshop-second-edition/9781800566927
4. Elements of Data Science
🔗 https://allendowney.github.io/ElementsOfDataScience/
5. Think Bayes
Publisher: O'Reilly
🔗 https://allendowney.github.io/ThinkBayes2/
6. Think Stats
Publisher: O'Reilly
❯ v3 (HTML)
https://allendowney.github.io/ThinkStats/
❯ v2 (PDF)
https://greenteapress.com/thinkstats2/thinkstats2.pdf
#هوش_مصنوعی #علم_داد
#DataScience #Machine_Learning
🚀 شتابدهنده هوش مصنوعی اسمارتک
📱 Instagram
🔵 Telegram
1. Python Data Science Handbook
Publisher: O'Reilly
🔗 HTML: https://jakevdp.github.io/PythonDataScienceHandbook/
🔗 PDF:
https://github.com/terencetachiona/Python-Data-Science-Handbook/blob/master/Python%20Data%20Science%20Handbook%20-%20Jake%20VanderPlas.pdf
2. Python for Data Analysis
Publisher: O'Reilly
🔗 https://wesmckinney.com/book/
3. Data Science Workshop
Publisher: Packt
🔗 https://packtpub.com/free-ebook/the-data-science-workshop-second-edition/9781800566927
4. Elements of Data Science
🔗 https://allendowney.github.io/ElementsOfDataScience/
5. Think Bayes
Publisher: O'Reilly
🔗 https://allendowney.github.io/ThinkBayes2/
6. Think Stats
Publisher: O'Reilly
❯ v3 (HTML)
https://allendowney.github.io/ThinkStats/
❯ v2 (PDF)
https://greenteapress.com/thinkstats2/thinkstats2.pdf
#هوش_مصنوعی #علم_داد
#DataScience #Machine_Learning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
بهتره یادگیری ماشین را با ساختن پروژه های دنیای واقعی یاد بگیرید
-این ریپو مجموعه عظیمی از پروژه های یادگیری ماشین برای انجام و تمرین داره
مهارت هاتونو با تمرین عملی بالا ببرید👇
https://github.com/shsarv/Machine-Learning-Projects?tab=readme-ov-file
#یادگیری_ماشین #Machine_Learning
🚀 شتابدهنده هوش مصنوعی اسمارتک
📱 Instagram
🔵 Telegram
-این ریپو مجموعه عظیمی از پروژه های یادگیری ماشین برای انجام و تمرین داره
مهارت هاتونو با تمرین عملی بالا ببرید👇
https://github.com/shsarv/Machine-Learning-Projects?tab=readme-ov-file
#یادگیری_ماشین #Machine_Learning
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1
۱۱۵۰ سوال مصاحبههای ماشین لرنینگ
https://mkareshk.github.io/ml-interview
#یادگیری_ماشین #Machine_Learning
#interview
🚀 شتابدهنده هوش مصنوعی اسمارتک
📱 Instagram
🔵 Telegram
https://mkareshk.github.io/ml-interview
#یادگیری_ماشین #Machine_Learning
#interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
MIT's "Machine Learning" lecture notes
PDF: https://introml.mit.edu/_static/spring24/LectureNotes/6_390_lecture_notes_spring24.pdf
#یادگیری_ماشین #Machine_Learning
🚀 شتابدهنده هوش مصنوعی اسمارتک
📱 Instagram
🔵 Telegram
PDF: https://introml.mit.edu/_static/spring24/LectureNotes/6_390_lecture_notes_spring24.pdf
#یادگیری_ماشین #Machine_Learning
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
✅چیت شیت یادگیری ماشین استنفورد (CS229)
تمام فرمولها و مفاهیم پایهای الگوریتمها رو تو چند صفحه فشرده کردن
➡️https://github.com/afshinea/stanford-cs-229-machine-learning
#cheat_sheet #Machine_Learning
#یادگیری_ماشین
🔴Instagram
🔵Telegram
تمام فرمولها و مفاهیم پایهای الگوریتمها رو تو چند صفحه فشرده کردن
➡️https://github.com/afshinea/stanford-cs-229-machine-learning
#cheat_sheet #Machine_Learning
#یادگیری_ماشین
🔵Telegram
❤2👍1