آموزش دیتاساینس و ماشین‌لرنینگ
1.89K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
کوییز شماره ۱۰۴: کدوم مدل از شبکه‌های عصبی زیر برای اولین بار استفاده از تابع فعال‌ساز ReLU و چند GPU برای آموزش سریع‌تر رو در مسابقه ILSVRC معرفی کرد؟
Anonymous Quiz
7%
ZFNet
18%
VGG-16
66%
AlexNet
9%
ResNet
👍3🔥3🤔1
🧑‍🎓 با رقابت سالانه ILSVRC و برندگانش آشنا شین

رقابت سالانه ILSVRC، یه رقابت در حوزه Computer Vision یا بینایی ماشینه که هدفش بهبود تسک‌های مختلفی مثل تشخیص اشیاست.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0045

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1
👨‍🎓 معماری AlexNet

معماری AlexNet یک شبکه عصبی کانولوشنیه که از لحاظ ساختاری شباهت‌هایی به LeNet داره، اما بسیار عمیق‌تر و پیچیده‌تره. این شبکه شامل ۵ لایه کانولوشنی و چندین لایه کاملاً متصل (fully connected) هست.

این معماری در مسابقه ILSVRC 2012 تونست خطای تشخیص رو در Top-1 error و Top-5 error به طور چشمگیری کاهش بده و این پیشرفت قابل توجهی در حوزه پردازش تصویر بود.

🔵 ساختار AlexNet

🔵لایه‌های کانولوشنی: در AlexNet، پنج لایه کانولوشنی وجود داره. فیلترهای کانولوشنی در لایه‌های اولیه بزرگ‌تر هستن (۱۱x۱۱) و در لایه‌های بعدی کوچکتر می‌شن.

🔵تابع فعالساز ReLU: بر خلاف شبکه‌های قدیمی‌تر که از توابع Sigmoid یا Tanh استفاده می‌کردن، AlexNet از تابع فعالساز ReLU برای افزایش سرعت همگرایی استفاده می‌کنه.

🔵لایه‌های Pooling: معماری AlexNet به طور خاص از مکانیزم Overlapping Pooling استفاده می‌کند که نوعی از Max Pooling حساب می‌شه. در Overlapping Pooling پنجره‌های pooling تا حدودی روی هم قرار می‌گیرن و این کار باعث کاهش خطای شبکه می‌شه.

🔵لایه‌های Fully Connected: در انتهای شبکه، سه لایه کاملاً متصل وجود داره که وظیفه تصمیم‌گیری نهایی رو بر عهده دارن.

🔵Dropout:
برای جلوگیری از بیش‌برازش، لایه‌های dropout قبل از لایه‌های fully connected قرار داده شدن که با احتمال 0.5، در هر دور بعضی از نورون‌ها غیر فعال میشن.

🔵Local Response Normalization (LRN):
این ویژگی که در بین لایه‌های کانولوشنی قرار گرفته، به نرمال‌سازی پاسخ‌های محلی کمک می‌کنه و باعث افزایش عملکرد شبکه می‌شه.

🔵 آموزش و بهینه‌سازی

🔵تکنیک‌های بهینه‌سازی: AlexNet از SGD (Stochastic Gradient Descent) با momentum برای بهینه‌سازی استفاده می‌کنه.

🔵افزایش داده: برای کاهش اثر بیش‌برازش، AlexNet از تکنیک‌های Data Augmentation مثل برش‌های تصادفی و چرخش استفاده کرده.

🔵 معماری AlexNet با استفاده از دو GPU برای آموزش طراحی شده و داده‌ها و محاسبات بین دو پردازنده تقسیم میشن و این کار باعث کاهش زمان آموزش می‌شه.

🔵 در تصویر دوم، شما می‌تونین تفاوت معماری‌های LeNet و AlexNet رو مشاهده کنین.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👨‍💻1
🎞 مقاله شبکه عصبی الکس نت | AlexNet 2012

مقاله خوندن شاید تخصصی‌ترین کار در حوزه آکادمیک باشه. از یه جایی به بعد سرچ گوگل یا پرسیدن از ChatGPT جواب نمیده و شما باید برای یادگیری بیشتر یا پیدا کردن جواب سوالات‌تون مقاله علمی بخونین.

این پلی‌لیست با همین هدف ایجاد شده و قراره مقالاتی که روی رشد ماشین لرنینگ تاثیر زیادی داشتن یا به تازگی منتشر شدن رو بررسی کنیم. برای شروع به مقاله AlexNet پرداختیم:

👉📎 https://youtu.be/psZBKNPN9ZU?si=U4bLJDSyTEmenz_g

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری VGG

معماری VGG توسط دپارتمان بینایی ماشین و هوش مصنوعی دانشگاه آکسفورد ارائه شده. این معماری در ILSVRC سال 2014 معرفی شد و به دلیل دقت بالاش مورد توجه قرار گرفت. این معماری که مخفف Visual Geometry Group هست، در دو نسخه اصلی VGG16 و VGG19 ارائه شده.

🔵 ساختار VGG

معماری VGG از تکرار چند لایه کانولوشنی پشت سر هم با یک لایه Max Pooling تشکیل شده. هر لایه پیچشی با فیلترهایی با ابعاد 3x3 و گام 1 (stride) عمل می‌کنه و بعد یک تابع فعال‌سازی ReLU قرار داره. این تکرارها باعث می‌شن تا عمق شبکه به شدت افزایش پیدا کنه و به دنبالش دقت شناسایی تصاویر بهتر شه.

🔵در VGG16، معماری از 13 لایه کانولوشنی، 5 لایه Max Pooling Layer، و 3 لایه کاملا متصل تشکیل شده است. در VGG19، تعداد لایه‌های پیچشی به 16 افزایش پیدا کرده.

🔵 نکات مهم در معماری VGG

🔵استفاده از فیلترهای کوچک: برخلاف معماری‌های قبلی که فیلتر سایزهای متفاوت داشتن، VGG تنها از فیلترهای 3x3 استفاده می‌کنه که این باعث کاهش پارامترها و افزایش عمق مفید شبکه می‌شه.

🔵لایه‌های عمیق: با افزایش تعداد لایه‌ها، مدل می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره.

🔵مقابله با بیش‌برازش: با وجود تعداد زیادی پارامتر، استفاده از تکنیک‌هایی مثل Dropout و Regularization برای جلوگیری از بیش‌برازش ضروریه.

🔵 کاربردهای VGG

معماری VGG در تشخیص تصویر و طبقه‌بندی کاربرد زیادی داره. از VGG میشه در تشخیص چهره، تشخیص اشیاء، تحلیل تصاویر پزشکی و بسیاری موارد دیگر استفاده کرد.

به علاوه، وزن‌های آموزش دیده روی داده‌های ImageNet در بسیاری از کاربردهای پیشرفته به عنوان نقطه شروع استفاده میشن. یعنی در کد، معماری VGG و وزن‌هاش وارد میشن و با Fine-Tune کردن تسک جدید انجام میشه و نیازی به آموزش مدل از ابتدا نیست (Transfer Learning).

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌21👨‍💻1
🎞 یادگیری انتقالی و پیاده سازی VGGNet با کراس

توی این ویدئو تاریخچه، ساختار و معماری VGG رو بررسی می‌کنیم و با کمک Keras‌ در پایتون یک پردازش تصویر ساده انجام می‌دیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشنا شیم.

👉📎 https://youtu.be/_XgI5jCrmWs

🟢لینک کانال یوتیوب:

👉📎 https://youtube.com/@RezaShokrzad

#YouTube
#Deep_Learning

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1
👨‍🎓 معماری Inception

معماری Inception در مقاله‌ای با عنوان Going Deeper with Convolutions معرفی شد و توسط تیمی در Google توسعه پیدا کرده. این معماری با هدف کاهش پارامترها بدون کم کردن از عمق و عرض شبکه طراحی شد تا از بیش‌برازش جلوگیری کنه و کارایی مدل رو بهبود بده.

🔵 مؤلفه‌های اصلی Inception

🔵ماژول‌های Inception: هر ماژول شامل چند فیلتر کانولوشنی با ابعاد مختلف و یک لایه max-pooling هست که به صورت موازی قرار گرفتن. این ترکیب اجازه می‌ده تا شبکه از مقیاس‌های مختلف ویژگی‌ها برای بهبود دقت استفاده کنه.

🔵استفاده از فیلترهای 1x1: این فیلترها به عنوان کاهش‌دهنده‌ی بعد عمل می‌کنن و باعث کاهش پیچیدگی محاسباتی میشن.

🔵جلوگیری از بیش‌برازش: با استفاده از تکنیک‌هایی مثل Dropout و نرمال‌سازی لایه‌ها، این معماری از بیش‌برازش جلوگیری می‌کنه.

🔵 نسخه‌های مختلف Inception

🔵Inception v1 (GoogLeNet)
معرفی مفهوم شبکه‌های عمیق و عریض بدون افزایش تعداد پارامترها.

🔵Inception v2 و v3
بهبودهایی در نرمال‌سازی لایه‌ها و فاکتوریزاسیون کانولوشن‌ها برای کاهش پارامترها و افزایش سرعت.

🔵Inception v4 و Inception-ResNet
ترکیب ویژگی‌های ResNet و Inception برای بهبود همگرایی و کاهش خطای آموزش.

🔵اندازه ورودی: Input Size در این معماری برابر 299x299x3 هست.

🔵اندازه خروجی: Output size در این معماری برابر 8x8x2048 هست.

🔵در لایه‌های نهایی شبکه Inception، یک لایه Global Average Pooling برای کاهش ابعاد ویژگی‌ها به یک بردار یک‌بعدی استفاده می‌شه. بعد این بردار می‌تونه برای تصمیم‌گیری نهایی به یک یا چند لایه کاملاً متصل داده شه.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍5👨‍💻2
🧑‍🎓 با شبکه عصبی گوگل‌نت و ساختارش آشنا شین

شبکه عصبی گوگل‌نت (GoogleNet) یه شبکه عصبی کانولوشنی عمیق، با ۲۲ لایه‌ست. این شبکه عصبی جزو برندگان رقابت ILSVRC در سال ۲۰۱۴ هست که توسط محققان گوگل طراحی شده.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0022

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری ResNet

یکی از محبوب‌ترین معماری‌ها در حوزه یادگیری عمیق، ResNet یا شبکه باقی‌مانده (Residual Network) هست. این معماری برای اولین بار در سال 2015 توسط محققان مایکروسافت تحقیق و توسعه پیدا کرد.

🔵 مفهوم اتصال باقی‌مانده

در یک شبکه عمیق سنتی، هر لایه وظیفه داره که نمایشی از داده‌های ورودی‌اش رو یاد بگیره و در شبکه‌های بسیار عمیق، این کار منجر به مشکلاتی مثل محو شدگی گرادیان میشه. ResNet با ارائه اتصالات باقی‌مانده (Residual Connections) این مشکل رو حل کرده. این اتصالات امکان می‌دن تا خروجی یک یا چند لایه به طور مستقیم به لایه‌های بعدی اضافه شه، که در نتیجه به گرادیان‌ها اجازه داده میشه که به راحتی در طول شبکه جریان پیدا کنن.

🔵 مفهوم اتصالات کوتاه

اتصالات کوتاه یا (Skip Connections) به اطلاعات اجازه می‌دن که بدون هیچ گونه تغییری از یک لایه به لایه‌های بعدی منتقل شن. در نتیجه همچنان سیگنال‌های قوی و کارآمد در عمق‌های زیاد شبکه حفظ میشن.

🔵 ساختار

🔵واحدهای باقیمانده (Residual Units): هر واحد باقیمانده شامل چند لایه است (معمولاً دو یا سه لایه) که داده‌ها از طریق آنها عبور می‌کنن و در نهایت، خروجی این لایه‌ها به ورودی اولیه واحد اضافه می‌شه.

🔵نرمال‌سازی دسته‌ای (Batch Normalization): در ResNet، بعد از هر لایه Convolution و قبل از تابع فعال‌ساز، یک لایه نرمال‌سازی قرار داره که به استانداردسازی ورودی‌ها کمک می‌کنه.

🔵 تعداد پارامترها

تعداد پارامترها در ResNet بستگی به عمق شبکه داره. به عنوان مثال، ResNet-50 حدود 25 میلیون پارامتر دارد، در حالی که ResNet-152 تقریباً سه برابر بیشتر پارامتر دارد.

🔵 تفاوت‌های ResNet-50، ResNet-101، و ResNet-152

این شماره‌ها نشون‌دهنده تعداد لایه‌های شبکه هستن. ResNet-50 شامل 50 لایه، ResNet-101 شامل 101 لایه، و ResNet-152 شامل 152 لایه‌ست. هر چقدر تعداد لایه‌ها بیشتر باشه، شبکه می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره، اما در عین حال، نیاز به محاسبات بیشتر و خطر برازش بیش از حد (Overfitting) هم افزایش پیدا می‌کنه.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51👌1👨‍💻1
🎞 مقاله شبکه عصبی رزنت | ResNet 2015

در ادامه پلی‌لیست بررسی مقاله‌های ماشین لرنینگ، به بررسی مقاله نتورک رزنت پرداختیم که هم از نظر نگارش مقاله جالبیه و هم از نظر محتوا و ایده مهمه، تا اونجا که بسیاری از ایده های مطرح شده در این مقاله در مدل‌های امروزی استفاده میشن.

👉📎 https://youtu.be/PYUVw87YNMQ

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵معماری LeNet
👉🔗 https://t.iss.one/data_ml/370

🔵رقابت ILSVRC
👉🔗 https://t.iss.one/data_ml/373

🔵معماری AlexNet
👉🔗 https://t.iss.one/data_ml/376

🔵معماری VGG
👉🔗 https://t.iss.one/data_ml/380

🔵معماری Inception
👉🔗 https://t.iss.one/data_ml/384

🔵معماری ResNet
👉🔗 https://t.iss.one/data_ml/387

🔺 کوئیز

🔵کوییز شماره ۱۰۳: معماری LeNet-5
👉🔗 https://t.iss.one/data_ml/371

🔵کوییز شماره ۱۰۴: اولین استفاده از ReLU و چند GPU در یک معماری
👉🔗 https://t.iss.one/data_ml/374

🔵کوییز شماره ۱۰۵: اندازه تصویر ورودی در AlexNet
👉🔗 https://t.iss.one/data_ml/378

🔵کوییز شماره ۱۰۶: نرخ یادگیری در fine-tuning
👉🔗 https://t.iss.one/data_ml/382

🔵کوییز شماره ۱۰۷: معماری Inception و رأی اکثریت
👉🔗 https://t.iss.one/data_ml/385

🔵کوییز شماره ۱۰۸: معماری ResNeXt
👉🔗 https://t.iss.one/data_ml/388

🔺 نکته

🔵بلاگ معماری LeNet-5
👉🔗 https://t.iss.one/data_ml/372

🔵بلاگ رقابت سالانه ILSVRC
👉🔗 https://t.iss.one/data_ml/375

🔵ویدئو مقاله شبکه عصبی الکس‌نت
👉🔗 https://t.iss.one/data_ml/379

🔵یادگیری انتقالی و پیاده سازی VGGNet
👉🔗 https://t.iss.one/data_ml/383

🔵بلاگ گوگل‌نت
👉🔗 https://t.iss.one/data_ml/386

🔵ویدئو مقاله شبکه عصبی رزنت
👉🔗 https://t.iss.one/data_ml/389

#Weekend
#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2👨‍💻1
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری Densenet

🔵یک‌شنبه: معماری Squeeznet

🟢دوشنبه: معماری MobileNet

🔴سه‌شنبه: آشنایی با Keras

🟠چهارشنبه: آشنایی با Pytorch

🔵پنج‌شنبه: بررسی نکات تکمیلی

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥1
👨‍🎓 معماری Densenet

معماری Densenet که مخفف Dense Convolutional Network هست، یک معماری شبکه عمیقه که با هدف بهبود جریان اطلاعات و گرادیان‌ها در شبکه‌های عمیق طراحی شده. مهم‌ترین ویژگی Densenet اتصالات گسترده‌ایه که بین لایه‌ها برقرار می‌کنه، به طوری که هر لایه به طور مستقیم به تمامی لایه‌های قبلیش متصله.

🔵 ساختار Densenet

معماری Densenet از بلوک‌های چگال (Dense Blocks) و لایه‌های انتقال (Transition Layers) تشکیل شده. در هر بلوک چگال، خروجی هر لایه به تمامی لایه‌های بعدی ارسال می‌شه، که در نتیجه باعث می‌شه تا اطلاعات و گرادیان‌ها به طور موثرتری در شبکه جریان پیدا کنن. لایه‌های انتقال بین بلوک‌های چگال قرار دارن و وظیفه کاهش ابعاد ویژگی‌ها رو دارن.

🔵 مزایای Densenet

🔵کاهش مشکل محوشدگی گرادیان (Vanishing Gradient): به دلیل اتصالات مستقیم بین لایه‌ها، گرادیان‌ها به راحتی در شبکه جریان دارن.

🔵بهبود بازیابی ویژگی‌ها: چون ویژگی‌ها در هر لایه با ویژگی‌های حاصل از لایه‌های قبلی ترکیب می‌شن، شبکه توانایی بهبود بازیابی ویژگی‌ها رو داره.

🔵کارایی محاسباتی: چون Densenet از ویژگی‌ها به صورت موثر استفاده می‌کنه، نیاز به منابع محاسباتی کمتری در مقایسه با سایر معماری‌های مشابه داره.

🔵 کاربردهای Densenet

معماری Densenet در بسیاری از زمینه‌های پیشرفته یادگیری عمیق مثل تشخیص تصویر، پزشکی و تحلیل تصویر ماهواره‌ای به کار رفته. به علت قابلیت‌های منحصر به فردش در حفظ اطلاعات و کارایی محاسباتی، در مواردی که نیاز به تحلیل دقیق تصاویر وجود داره، بسیار مفیده.

🔵 نتیجه‌گیری

معماری Densenet یکی از معماری‌های مهم در حوزه یادگیری عمیقه که با ارائه راهکارهای نوآورانه برای بهبود جریان اطلاعات و گرادیان‌ها، قابلیت‌های قابل توجهی را در پردازش داده‌ها ارائه می‌ده.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51👨‍💻1
📝 آشنایی با DenseNets-B و DenseNets-BC

نسخه‌های DenseNets-B و DenseNets-BC دو تکامل در معماری DenseNet هستن که با هدف بهبود کارایی محاسباتی طراحی شدن:

🔵DenseNets-B
از لایه‌های Bottleneck استفاده می‌کنه که با کانولوشن‌های 1x1 قبل از کانولوشن‌های 3x3 کار می‌کنن تا اندازه نقشه‌های ویژگی رو کاهش و کارایی محاسباتی رو افزایش بدن.

🔵DenseNets-BC:
یک مرحله پیشرفته‌تر DenseNets-B هست که فاکتور فشرده‌سازی (theta) رو معرفی می‌کنه تا تعداد نقشه‌های ویژگی خروجی رو کاهش بده. با تنظیم theta در بازه [0-1]، میشه کارایی شبکه رو با کاهش ابعاد خروجی تنظیم کرد.

این تغییرات با هدف افزایش کارایی و کاهش نیازهای محاسباتی در پردازش تصاویر، به‌ویژه در دیتاست‌های بزرگ مثل ImageNet، طراحی شدن.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥1👨‍💻1