آموزش دیتاساینس و ماشین‌لرنینگ
1.89K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
🧑‍🎓 شفافیت در هوش مصنوعی: چرا هوش مصنوعی قابل توصیف یا XAI برای آینده مهمه؟

یادگیری عمیق توضیح‌پذیر یا Explainable AI رویکردهایی برای افزایش شفافیت و فهم‌پذیری مدل‌های یادگیری ماشین ارائه می‌ده تا تصمیمات‌شون قابل درک و قابل اعتماد باشن.

🟢برای مطالعه بیشتر کلیک کنین:
👉📎 https://ctdrs.ir/ds0233

🟡ازتون دعوت می‌کنیم تا سوالات و نظرات‌تون رو در این بلاگ به اشتراک بگذارین تا ما فرصت پاسخگویی بهشون رو داشته باشیم.

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏1👌1
👨‍🎓پیاده‌سازی شبکه‌های عصبی کانولوشنال با PyTorch

کتابخانه PyTorch برپایه Tensorهاست که معادلات چندبعدی رو با سرعت بالا روی سخت‌افزارهای مختلف اجرا می‌کنن. علاوه بر این، PyTorch یک اتوگراد (autograd) قدرتمند برای محاسبه‌ی خودکار گرادیان‌ها ارائه می‌ده که یکی از اجزای مهم در آموزش شبکه‌های عصبیه.

🔵 پیاده‌سازی CNN با PyTorch

برای پیاده‌سازی یک CNN ساده با PyTorch، اول باید ماژول‌های مورد نیاز رو وارد کنیم:

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim


🔵بعد یک کلاس برای شبکه‌ی عصبی تعریف می‌کنیم که از nn.Module ارث‌بری می‌کنه:

class SimpleCNN(nn.Module):
def __init__(self):
super(SimpleCNN, self).__init__()
self.conv1 = nn.Conv2d(1, 20, 5, 1) # پیچشی لایه با 20 کانال خروجی و فیلتر 5x5
self.conv2 = nn.Conv2d(20, 50, 5, 1) # دومین لایه پیچشی
self.fc1 = nn.Linear(4*4*50, 500) # لایه کاملاً متصل با 500 نورون
self.fc2 = nn.Linear(500, 10) # لایه خروجی با 10 نورون برای 10 کلاس

def forward(self, x):
x = F.relu(self.conv1(x))
x = F.max_pool2d(x, 2, 2) # استفاده از Max Pooling
x = F.relu(self.conv2(x))
x = F.max_pool2d(x, 2, 2)
x = x.view(-1, 4*4*50) # تغییر شکل تنسور برای ورودی به لایه کاملاً متصل
x = F.relu(self.fc1(x))
x = self.fc2(x)
return F.log_softmax(x, dim=1)


🔵این کلاس یک شبکه عصبی کانولوشنی ساده رو تعریف می‌کنه که شامل دو لایه کانولوشن، دو لایه pooling و دو لایه کاملاً متصله. هر لایه کانولوشنی با یک تابع فعال‌ساز ReLU دنبال می‌شه. همچنین، برای جلوگیری از overfitting و بهبود دقت شبکه، از لایه‌های Max Pooling استفاده شده.

🔵 آموزش شبکه

برای آموزش شبکه، اول یک نمونه از شبکه‌ی عصبی تعریف شده ایجاد و یک بهینه‌ساز مثل Adam یا SGD تنظیم میشه:

model = SimpleCNN()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)


🔵در ادامه داده‌ها در دسته‌های (batches) مختلف تقسیم میشن و شبکه با استفاده از داده‌های آموزشی آموزش می‌بینه. در هر مرحله، خطا با محاسبه خروجی شبکه با برچسب‌های صحیح مقایسه میشه گرادیان‌ها با استفاده از backpropagation به‌روزرسانی میشن.

for epoch in range(num_epochs):
for batch_idx, (data, target) in enumerate(train_loader):
optimizer.zero_grad() # پاک کردن گرادیان‌های موجود
output = model(data) # محاسبه خروجی شبکه
loss = F.nll_loss(output, target) # محاسبه خطا
loss.backward() # محاسبه گرادیان‌ها
optimizer.step() # به‌روزرسانی وزن‌ها


در این مثال، train_loader یک تابع بارگذاری داده‌ست که داده‌های آموزشی رو در دسته‌هایی با اندازه مشخص فراهم می‌کنه. num_epochs تعداد دفعاتیه که می‌خوایم داده‌های آموزشی رو برای آموزش شبکه عبور بدیم.

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
💡مزایای استفاده از شبکه‌های عصبی کانولوشنی عمیق (Deep CNNs) در مقایسه با CNN‌های کم‌عمق (Shallow CNNs) عبارتند از:

🔵شناسایی ویژگی‌های پیچیده‌تر: لایه‌های اضافی به شبکه این امکان رو می‌دن تا ویژگی‌های پیچیده‌تر و سلسله مراتبی‌تری از داده‌ها رو یاد بگیرن.

🔵دقت بالاتر: CNN‌های عمیق معمولاً دقت بالاتری در مسائل دسته‌بندی دارن.

🔵کلی‌تر بودن و انعطاف‌پذیری: توانایی انطباق و تعمیم به مجموعه‌های داده‌ای که در زمان آموزش دیده نشدن.

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥2👌2
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵ایده پشت شبکه‌های عصبی کانولوشنی
👉🔗 https://t.iss.one/data_ml/346

🔵آشنایی با مفاهیم Filter،stride و padding
👉🔗 https://t.iss.one/data_ml/349

🔵پیاده‌سازی شبکه‌های عصبی کانولوشنال با Keras
👉🔗 https://t.iss.one/data_ml/352

🔵ابعاد و تعداد پارامترها در CNN
👉🔗 https://t.iss.one/data_ml/355

🔵مصورسازی لایه‌های پنهان در CNN
👉🔗 https://t.iss.one/data_ml/358

🔵پیاده‌سازی CNNها با PyTorch
👉🔗 https://t.iss.one/data_ml/362

🔺 کوئیز

🔵کوییز شماره ۹۷: کرنل در CNN
👉🔗 https://t.iss.one/data_ml/347

🔵کوییز شماره ۹۸: پدینگ Same
👉🔗 https://t.iss.one/data_ml/350

🔵کوییز شماره ۹۹: تابع فعال‌ساز مورد استفاده در CNNها
👉🔗 https://t.iss.one/data_ml/353

🔵کوییز شماره ۱۰۰: محاسبه تعداد پارامتر
👉🔗 https://t.iss.one/data_ml/356

🔵کوییز شماره ۱۰۱: مصورسازی فیلترها
👉🔗 https://t.iss.one/data_ml/359

🔵کوییز شماره ۱۰۲: پیاده‌سازی CNN با PyTorch
👉🔗 https://t.iss.one/data_ml/363

🔺 نکته

🔵پادکست شبکه‌ عصبی کانولوشنی
👉🔗 https://t.iss.one/data_ml/348

🔵بلاگ Pooling، Pooling و فیلتر
👉🔗 https://t.iss.one/data_ml/351

🔵تکنیک‌هایی برای کاهش زمان محاسبات در CNN
👉🔗 https://t.iss.one/data_ml/354

🔵اشتراک‌گذاری پارامتر در لایه‌های کانولوشنی
👉🔗 https://t.iss.one/data_ml/357

🔵چرا هوش مصنوعی قابل توصیف یا XAI برای آینده مهمه؟
👉🔗 https://t.iss.one/data_ml/360

🔵تفاوت Deep CNNs و Shallow CNNs
👉🔗 https://t.iss.one/data_ml/364

#Weekend
#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
5👏3👌2👍1
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری LeNet

🔵یک‌شنبه: رقابت ILSVRC

🟢دوشنبه: معماری AlexNet

🔴سه‌شنبه: معماری VGG

🟠چهارشنبه: معماری Inception

🔵پنج‌شنبه: معماری ResNet

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4👏3🔥1
👋 سلام به همگی!

ما فعالیت این کانال رو حدود چهار ماه پیش، با هدف آموزش مباحث ماشین لرنینگ و دیتا ساینس از پایه، شروع کردیم و تا الان با پشت سر گذاشتن ۱۷ هفته آموزشی، مباحث زیر مرور شدن:

🔵پایتون مقدماتی
👉🔗 https://t.iss.one/data_ml/9

🔵پایتون پیشرفته
👉🔗 https://t.iss.one/data_ml/33

🔵رگرسیون (Regression)
👉🔗 https://t.iss.one/data_ml/57

🔵رگرسیون لجستیک (Logistic Regression)
👉🔗 https://t.iss.one/data_ml/76

🔵تکنیک‌های تنظیم یا رگولاریزاسیون (Regularization)
👉🔗 https://t.iss.one/data_ml/96

🔵اعتبارسنجی متقابل یا Cross Validation
👉🔗 https://t.iss.one/data_ml/116

🔵بیز ساده یا Naive Bayes
👉🔗 https://t.iss.one/data_ml/136

🔵الگوریم K نزدیک ترین همسایه یا KNN
👉🔗 https://t.iss.one/data_ml/155

🔵الگوریتم ماشین بردار پشتیبان یا SVM
👉🔗 https://t.iss.one/data_ml/176

🔵الگوریتم درخت تصمیم یا Decision Tree
👉🔗 https://t.iss.one/data_ml/196

🔵الگوریتم جنگل تصادفی یا Random Forest
👉🔗 https://t.iss.one/data_ml/217

🔵الگوریتم Xgboost
👉🔗 https://t.iss.one/data_ml/238

🔵کاهش ابعاد یا Dimensionality Reduction
👉🔗 https://t.iss.one/data_ml/258

🔵تشخیص ناهنجاری یا Anomaly Detection
👉🔗 https://t.iss.one/data_ml/277

🔵سیستم‌های توصیه‌گر یا Recommender systems
👉🔗 https://t.iss.one/data_ml/299

🔵شبکه‌های عصبی مصنوعی یا ANNs
👉🔗 https://t.iss.one/data_ml/320

🔵شبکه‌های عصبی کانولوشنی یا CNNs
👉🔗 https://t.iss.one/data_ml/343

از اینکه پیگیر یادگیری هستین، خوشحالیم و تلاش‌مون رو میکنیم تا به خاطر پیگیری شما، محتوای با کیفیت ارائه بدیم.

فعالیت این کانال از یازدهم فروردین ادامه پیدا می‌کنه. امیدوارم سال جدید پر از سلامتی، شادی، موفقیت و عشق باشه براتون ☺️ پیشاپیش عیدتون مبارک! 🥳🎊🎈

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
20👏4👌3🔥2👍1
🌟پیشاپیش عیدتون مبارک!

سال خوبی رو براتون آرزو می‌کنیم ☺️

🔺 تصویر: Dall-E3

#AI_Generated

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5🔥2
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری LeNet

🔵یک‌شنبه: رقابت ILSVRC

🟢دوشنبه: معماری AlexNet

🔴سه‌شنبه: معماری VGG

🟠چهارشنبه: معماری Inception

🔵پنج‌شنبه: معماری ResNet

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥1
👨‍🎓 معماری LeNet

معماری شبکه‌های عصبی LeNet، که به نام LeNet-5 هم شناخته می‌شه، یکی از اولین شبکه‌های عصبی پیچشی (Convolutional Neural Networks یا CNNs) هست که با موفقیت برای شناسایی اعداد دست‌نویس در دیتاست MNIST استفاده شد. این شبکه توسط یان لیکان (Yann LeCun) و همکارانش در دهه ۹۰ میلادی توسعه یافت.

معماری LeNet-5 شامل لایه‌های پیچشی (Convolutional Layers)، لایه‌های نمونه‌برداری (Subsampling یا Pooling Layers) و لایه‌های کاملاً متصل (Fully Connected Layers) هست. این ساختار به شبکه امکان می‌ده که ویژگی‌های مهم تصاویر رو شناسایی کنه.

🔵 لایه‌های LeNet-5

🔵لایه پیچشی C1: اولین لایه پیچشی که ویژگی‌های ابتدایی تصویر مثل لبه‌ها و گوشه‌ها را شناسایی می‌کنه.

🔵لایه نمونه‌برداری S2: لایه Pooling با کاهش ابعاد داده‌ها، پیچیدگی محاسباتی رو کاهش می‌ده و به مدل کمک می‌کنه تا در برابر تغییر مقیاس و جابجایی تصاویر مقاوم باشه.

🔵لایه پیچشی C3: لایه دیگه کانولوشنی که ویژگی‌های پیچیده‌تری رو نسبت به لایه C1 استخراج می‌کنه.

🔵لایه نمونه‌برداری S4: لایه دوم Pooling که همچنان به کاهش ابعاد داده‌ها و جلوگیری از بیش برازش کمک می‌کنه.

🔵لایه پیچشی C5: لایه سوم پیچشی که مستقیماً قبل از لایه‌های کاملاً متصل قرار داره و به ترکیب ویژگی‌های استخراج شده از لایه‌های قبلی می‌پردازه.

🔵لایه کاملاً متصل F6: لایه‌ای که در اون تمامی نورون‌ها به تمام نورون‌های لایه قبلی متصل هستن. این لایه وظیفه ترکیب نهایی ویژگی‌های استخراج شده برای تصمیم‌گیری نهایی رو بر عهده داره.

🔵لایه خروجی: این لایه با استفاده از تابع فعال‌ساز softmax، احتمالات مربوط به تعلق هر داده به کلاس‌های مختلف رو محاسبه می‌کنه. در مثال پایگاه داده MNIST، این لایه شامل ۱۰ نورونه که هر کدوم نشون‌دهنده یکی از اعداد ۰ تا ۹ هستن.

🔵کاربردها و اهمیت LeNet-5

به عنوان یکی از اولین معماری‌های شبکه‌های عصبی پیچشی، نقش مهمی در توسعه یادگیری عمیق داشته و ایده‌اش در توسعه معماری‌های پیچیده‌تر و پیشرفته‌تری مثل AlexNet، VGG و ResNet کاربرد داشته.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52👨‍💻1
کوییز شماره ۱۰۳: لایه‌های کانولوشنی در معماری LeNet-5 از چه تابع فعال‌سازی استفاده می‌کنن؟ نوع Pooling در این معماری به چه صورته و تعداد پارامترهای قابل آموزش حدوداً چقدرن؟
Anonymous Quiz
43%
ReLU - Max Pooling - 10,000
22%
Sigmoid - Global Max Pooling - 50,000
22%
Tanh - Average Pooling - 60,000
14%
Leaky ReLU - Global Average Pooling - 100,000
👌32👍2
🧑‍🎓 با معماری LeNet-5 و ساختار لایه‌هاش آشنا بشین!

وقتی حرف از شبکه‌های عصبی کانولوشنی می‌شه، لازمه از لی‌نت-۵ یا LeNet-5 که اولین شبکه‌ایه که از backpropagation استفاده کرده‌ هم صحبت کنیم. درواقع می‌شه گفت یادگیری عمیق و شبکه‌های CNN با معرفی این شبکه شکل گرفتن.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0046

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52👏2
👨‍🎓 رقابت ILSVRC

مسابقه ILSVRC (ImageNet Large Scale Visual Recognition Challenge) یکی از معتبرترین رویدادها در حوزه بینایی ماشینه که با هدف ارزیابی پیشرفت‌ در شناسایی اشیاء در مقیاس بزرگ برگزار می‌شه.

🔵این مسابقه بر اساس دیتاست بزرگ و متنوع ImageNet هست که شامل میلیون‌ها تصویره و برای هر تصویر، برچسب‌هایی مشخص کننده دسته‌بندی شیء موجود در اون تصویر وجود داره.

🔵از سال 2010، که اولین دوره ILSVRC برگزار شد، تا سال 2015، دقت سیستم‌های شناسایی به شکل قابل توجهی بهبود پیدا کرد.

🔵در سال 2012، تیمی از دانشگاه تورنتو با استفاده از شبکه عصبی کانولوشنال (CNN) مدلی به نام AlexNet رو توسعه دادن که تحول بزرگی در حوزه یادگیری عمیق و بینایی ماشین ایجاد کرد. این مدل تونست در رقابت‌های ILSVRC عملکرد فوق‌العاده‌ای داشته باشه و استاندارد جدیدی برای سیستم‌های شناسایی تصویر ایجاد کنه.

🔵در سال‌های بعد، با ارائه معماری‌های جدید، پیشرفت‌های چشمگیر جدیدی در این چالش حاصل شد. برای مثال، در سال 2013 مدل ZFNet و در سال 2014 مدل Inception (GoogLeNet) و VGG دستاوردهای بزرگی بودن.

🔵به طور خاص، مدل ResNet در سال 2015 با معماری Residual Networks تونست به پیشرفت‌های بی‌سابقه‌ای در دقت شناسایی برسه. در روزهای آینده با تمام این معماری‌های معروف بیشتر آشنا میشیم.

🔵علاوه بر بهبود مدل‌ها، استفاده از پردازنده‌های گرافیکی (GPU) هم در تسریع فرآیند آموزش شبکه‌های عمیق نقش داشته. از سال 2012 به بعد، استفاده از GPU‌ها به طور گسترده‌ای در ILSVRC گسترش پیدا کرد، که در نتیجه باعث کاهش زمان آموزش و افزایش دقت مدل‌ها شد.

بنابراین، ILSVRC به عنوان یک نقطه عطف در پیشرفت فناوری‌های بینایی ماشین و یادگیری عمیق شناخته می‌شه و تأثیر عمیقی روی پژوهش‌ها و کاربردهای صنعتی در این حوزه‌ها داشته.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63👨‍💻1
کوییز شماره ۱۰۴: کدوم مدل از شبکه‌های عصبی زیر برای اولین بار استفاده از تابع فعال‌ساز ReLU و چند GPU برای آموزش سریع‌تر رو در مسابقه ILSVRC معرفی کرد؟
Anonymous Quiz
7%
ZFNet
18%
VGG-16
66%
AlexNet
9%
ResNet
👍3🔥3🤔1
🧑‍🎓 با رقابت سالانه ILSVRC و برندگانش آشنا شین

رقابت سالانه ILSVRC، یه رقابت در حوزه Computer Vision یا بینایی ماشینه که هدفش بهبود تسک‌های مختلفی مثل تشخیص اشیاست.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0045

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1
👨‍🎓 معماری AlexNet

معماری AlexNet یک شبکه عصبی کانولوشنیه که از لحاظ ساختاری شباهت‌هایی به LeNet داره، اما بسیار عمیق‌تر و پیچیده‌تره. این شبکه شامل ۵ لایه کانولوشنی و چندین لایه کاملاً متصل (fully connected) هست.

این معماری در مسابقه ILSVRC 2012 تونست خطای تشخیص رو در Top-1 error و Top-5 error به طور چشمگیری کاهش بده و این پیشرفت قابل توجهی در حوزه پردازش تصویر بود.

🔵 ساختار AlexNet

🔵لایه‌های کانولوشنی: در AlexNet، پنج لایه کانولوشنی وجود داره. فیلترهای کانولوشنی در لایه‌های اولیه بزرگ‌تر هستن (۱۱x۱۱) و در لایه‌های بعدی کوچکتر می‌شن.

🔵تابع فعالساز ReLU: بر خلاف شبکه‌های قدیمی‌تر که از توابع Sigmoid یا Tanh استفاده می‌کردن، AlexNet از تابع فعالساز ReLU برای افزایش سرعت همگرایی استفاده می‌کنه.

🔵لایه‌های Pooling: معماری AlexNet به طور خاص از مکانیزم Overlapping Pooling استفاده می‌کند که نوعی از Max Pooling حساب می‌شه. در Overlapping Pooling پنجره‌های pooling تا حدودی روی هم قرار می‌گیرن و این کار باعث کاهش خطای شبکه می‌شه.

🔵لایه‌های Fully Connected: در انتهای شبکه، سه لایه کاملاً متصل وجود داره که وظیفه تصمیم‌گیری نهایی رو بر عهده دارن.

🔵Dropout:
برای جلوگیری از بیش‌برازش، لایه‌های dropout قبل از لایه‌های fully connected قرار داده شدن که با احتمال 0.5، در هر دور بعضی از نورون‌ها غیر فعال میشن.

🔵Local Response Normalization (LRN):
این ویژگی که در بین لایه‌های کانولوشنی قرار گرفته، به نرمال‌سازی پاسخ‌های محلی کمک می‌کنه و باعث افزایش عملکرد شبکه می‌شه.

🔵 آموزش و بهینه‌سازی

🔵تکنیک‌های بهینه‌سازی: AlexNet از SGD (Stochastic Gradient Descent) با momentum برای بهینه‌سازی استفاده می‌کنه.

🔵افزایش داده: برای کاهش اثر بیش‌برازش، AlexNet از تکنیک‌های Data Augmentation مثل برش‌های تصادفی و چرخش استفاده کرده.

🔵 معماری AlexNet با استفاده از دو GPU برای آموزش طراحی شده و داده‌ها و محاسبات بین دو پردازنده تقسیم میشن و این کار باعث کاهش زمان آموزش می‌شه.

🔵 در تصویر دوم، شما می‌تونین تفاوت معماری‌های LeNet و AlexNet رو مشاهده کنین.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👨‍💻1
🎞 مقاله شبکه عصبی الکس نت | AlexNet 2012

مقاله خوندن شاید تخصصی‌ترین کار در حوزه آکادمیک باشه. از یه جایی به بعد سرچ گوگل یا پرسیدن از ChatGPT جواب نمیده و شما باید برای یادگیری بیشتر یا پیدا کردن جواب سوالات‌تون مقاله علمی بخونین.

این پلی‌لیست با همین هدف ایجاد شده و قراره مقالاتی که روی رشد ماشین لرنینگ تاثیر زیادی داشتن یا به تازگی منتشر شدن رو بررسی کنیم. برای شروع به مقاله AlexNet پرداختیم:

👉📎 https://youtu.be/psZBKNPN9ZU?si=U4bLJDSyTEmenz_g

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری VGG

معماری VGG توسط دپارتمان بینایی ماشین و هوش مصنوعی دانشگاه آکسفورد ارائه شده. این معماری در ILSVRC سال 2014 معرفی شد و به دلیل دقت بالاش مورد توجه قرار گرفت. این معماری که مخفف Visual Geometry Group هست، در دو نسخه اصلی VGG16 و VGG19 ارائه شده.

🔵 ساختار VGG

معماری VGG از تکرار چند لایه کانولوشنی پشت سر هم با یک لایه Max Pooling تشکیل شده. هر لایه پیچشی با فیلترهایی با ابعاد 3x3 و گام 1 (stride) عمل می‌کنه و بعد یک تابع فعال‌سازی ReLU قرار داره. این تکرارها باعث می‌شن تا عمق شبکه به شدت افزایش پیدا کنه و به دنبالش دقت شناسایی تصاویر بهتر شه.

🔵در VGG16، معماری از 13 لایه کانولوشنی، 5 لایه Max Pooling Layer، و 3 لایه کاملا متصل تشکیل شده است. در VGG19، تعداد لایه‌های پیچشی به 16 افزایش پیدا کرده.

🔵 نکات مهم در معماری VGG

🔵استفاده از فیلترهای کوچک: برخلاف معماری‌های قبلی که فیلتر سایزهای متفاوت داشتن، VGG تنها از فیلترهای 3x3 استفاده می‌کنه که این باعث کاهش پارامترها و افزایش عمق مفید شبکه می‌شه.

🔵لایه‌های عمیق: با افزایش تعداد لایه‌ها، مدل می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره.

🔵مقابله با بیش‌برازش: با وجود تعداد زیادی پارامتر، استفاده از تکنیک‌هایی مثل Dropout و Regularization برای جلوگیری از بیش‌برازش ضروریه.

🔵 کاربردهای VGG

معماری VGG در تشخیص تصویر و طبقه‌بندی کاربرد زیادی داره. از VGG میشه در تشخیص چهره، تشخیص اشیاء، تحلیل تصاویر پزشکی و بسیاری موارد دیگر استفاده کرد.

به علاوه، وزن‌های آموزش دیده روی داده‌های ImageNet در بسیاری از کاربردهای پیشرفته به عنوان نقطه شروع استفاده میشن. یعنی در کد، معماری VGG و وزن‌هاش وارد میشن و با Fine-Tune کردن تسک جدید انجام میشه و نیازی به آموزش مدل از ابتدا نیست (Transfer Learning).

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌21👨‍💻1