آموزش دیتاساینس و ماشین‌لرنینگ
1.89K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
🧑‍🎓 با معماری LeNet-5 و ساختار لایه‌هاش آشنا بشین!

وقتی حرف از شبکه‌های عصبی کانولوشنی می‌شه، لازمه از لی‌نت-۵ یا LeNet-5 که اولین شبکه‌ایه که از backpropagation استفاده کرده‌ هم صحبت کنیم. درواقع می‌شه گفت یادگیری عمیق و شبکه‌های CNN با معرفی این شبکه شکل گرفتن.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0046

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52👏2
👨‍🎓 رقابت ILSVRC

مسابقه ILSVRC (ImageNet Large Scale Visual Recognition Challenge) یکی از معتبرترین رویدادها در حوزه بینایی ماشینه که با هدف ارزیابی پیشرفت‌ در شناسایی اشیاء در مقیاس بزرگ برگزار می‌شه.

🔵این مسابقه بر اساس دیتاست بزرگ و متنوع ImageNet هست که شامل میلیون‌ها تصویره و برای هر تصویر، برچسب‌هایی مشخص کننده دسته‌بندی شیء موجود در اون تصویر وجود داره.

🔵از سال 2010، که اولین دوره ILSVRC برگزار شد، تا سال 2015، دقت سیستم‌های شناسایی به شکل قابل توجهی بهبود پیدا کرد.

🔵در سال 2012، تیمی از دانشگاه تورنتو با استفاده از شبکه عصبی کانولوشنال (CNN) مدلی به نام AlexNet رو توسعه دادن که تحول بزرگی در حوزه یادگیری عمیق و بینایی ماشین ایجاد کرد. این مدل تونست در رقابت‌های ILSVRC عملکرد فوق‌العاده‌ای داشته باشه و استاندارد جدیدی برای سیستم‌های شناسایی تصویر ایجاد کنه.

🔵در سال‌های بعد، با ارائه معماری‌های جدید، پیشرفت‌های چشمگیر جدیدی در این چالش حاصل شد. برای مثال، در سال 2013 مدل ZFNet و در سال 2014 مدل Inception (GoogLeNet) و VGG دستاوردهای بزرگی بودن.

🔵به طور خاص، مدل ResNet در سال 2015 با معماری Residual Networks تونست به پیشرفت‌های بی‌سابقه‌ای در دقت شناسایی برسه. در روزهای آینده با تمام این معماری‌های معروف بیشتر آشنا میشیم.

🔵علاوه بر بهبود مدل‌ها، استفاده از پردازنده‌های گرافیکی (GPU) هم در تسریع فرآیند آموزش شبکه‌های عمیق نقش داشته. از سال 2012 به بعد، استفاده از GPU‌ها به طور گسترده‌ای در ILSVRC گسترش پیدا کرد، که در نتیجه باعث کاهش زمان آموزش و افزایش دقت مدل‌ها شد.

بنابراین، ILSVRC به عنوان یک نقطه عطف در پیشرفت فناوری‌های بینایی ماشین و یادگیری عمیق شناخته می‌شه و تأثیر عمیقی روی پژوهش‌ها و کاربردهای صنعتی در این حوزه‌ها داشته.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63👨‍💻1
کوییز شماره ۱۰۴: کدوم مدل از شبکه‌های عصبی زیر برای اولین بار استفاده از تابع فعال‌ساز ReLU و چند GPU برای آموزش سریع‌تر رو در مسابقه ILSVRC معرفی کرد؟
Anonymous Quiz
7%
ZFNet
18%
VGG-16
66%
AlexNet
9%
ResNet
👍3🔥3🤔1
🧑‍🎓 با رقابت سالانه ILSVRC و برندگانش آشنا شین

رقابت سالانه ILSVRC، یه رقابت در حوزه Computer Vision یا بینایی ماشینه که هدفش بهبود تسک‌های مختلفی مثل تشخیص اشیاست.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0045

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1
👨‍🎓 معماری AlexNet

معماری AlexNet یک شبکه عصبی کانولوشنیه که از لحاظ ساختاری شباهت‌هایی به LeNet داره، اما بسیار عمیق‌تر و پیچیده‌تره. این شبکه شامل ۵ لایه کانولوشنی و چندین لایه کاملاً متصل (fully connected) هست.

این معماری در مسابقه ILSVRC 2012 تونست خطای تشخیص رو در Top-1 error و Top-5 error به طور چشمگیری کاهش بده و این پیشرفت قابل توجهی در حوزه پردازش تصویر بود.

🔵 ساختار AlexNet

🔵لایه‌های کانولوشنی: در AlexNet، پنج لایه کانولوشنی وجود داره. فیلترهای کانولوشنی در لایه‌های اولیه بزرگ‌تر هستن (۱۱x۱۱) و در لایه‌های بعدی کوچکتر می‌شن.

🔵تابع فعالساز ReLU: بر خلاف شبکه‌های قدیمی‌تر که از توابع Sigmoid یا Tanh استفاده می‌کردن، AlexNet از تابع فعالساز ReLU برای افزایش سرعت همگرایی استفاده می‌کنه.

🔵لایه‌های Pooling: معماری AlexNet به طور خاص از مکانیزم Overlapping Pooling استفاده می‌کند که نوعی از Max Pooling حساب می‌شه. در Overlapping Pooling پنجره‌های pooling تا حدودی روی هم قرار می‌گیرن و این کار باعث کاهش خطای شبکه می‌شه.

🔵لایه‌های Fully Connected: در انتهای شبکه، سه لایه کاملاً متصل وجود داره که وظیفه تصمیم‌گیری نهایی رو بر عهده دارن.

🔵Dropout:
برای جلوگیری از بیش‌برازش، لایه‌های dropout قبل از لایه‌های fully connected قرار داده شدن که با احتمال 0.5، در هر دور بعضی از نورون‌ها غیر فعال میشن.

🔵Local Response Normalization (LRN):
این ویژگی که در بین لایه‌های کانولوشنی قرار گرفته، به نرمال‌سازی پاسخ‌های محلی کمک می‌کنه و باعث افزایش عملکرد شبکه می‌شه.

🔵 آموزش و بهینه‌سازی

🔵تکنیک‌های بهینه‌سازی: AlexNet از SGD (Stochastic Gradient Descent) با momentum برای بهینه‌سازی استفاده می‌کنه.

🔵افزایش داده: برای کاهش اثر بیش‌برازش، AlexNet از تکنیک‌های Data Augmentation مثل برش‌های تصادفی و چرخش استفاده کرده.

🔵 معماری AlexNet با استفاده از دو GPU برای آموزش طراحی شده و داده‌ها و محاسبات بین دو پردازنده تقسیم میشن و این کار باعث کاهش زمان آموزش می‌شه.

🔵 در تصویر دوم، شما می‌تونین تفاوت معماری‌های LeNet و AlexNet رو مشاهده کنین.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👨‍💻1
🎞 مقاله شبکه عصبی الکس نت | AlexNet 2012

مقاله خوندن شاید تخصصی‌ترین کار در حوزه آکادمیک باشه. از یه جایی به بعد سرچ گوگل یا پرسیدن از ChatGPT جواب نمیده و شما باید برای یادگیری بیشتر یا پیدا کردن جواب سوالات‌تون مقاله علمی بخونین.

این پلی‌لیست با همین هدف ایجاد شده و قراره مقالاتی که روی رشد ماشین لرنینگ تاثیر زیادی داشتن یا به تازگی منتشر شدن رو بررسی کنیم. برای شروع به مقاله AlexNet پرداختیم:

👉📎 https://youtu.be/psZBKNPN9ZU?si=U4bLJDSyTEmenz_g

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری VGG

معماری VGG توسط دپارتمان بینایی ماشین و هوش مصنوعی دانشگاه آکسفورد ارائه شده. این معماری در ILSVRC سال 2014 معرفی شد و به دلیل دقت بالاش مورد توجه قرار گرفت. این معماری که مخفف Visual Geometry Group هست، در دو نسخه اصلی VGG16 و VGG19 ارائه شده.

🔵 ساختار VGG

معماری VGG از تکرار چند لایه کانولوشنی پشت سر هم با یک لایه Max Pooling تشکیل شده. هر لایه پیچشی با فیلترهایی با ابعاد 3x3 و گام 1 (stride) عمل می‌کنه و بعد یک تابع فعال‌سازی ReLU قرار داره. این تکرارها باعث می‌شن تا عمق شبکه به شدت افزایش پیدا کنه و به دنبالش دقت شناسایی تصاویر بهتر شه.

🔵در VGG16، معماری از 13 لایه کانولوشنی، 5 لایه Max Pooling Layer، و 3 لایه کاملا متصل تشکیل شده است. در VGG19، تعداد لایه‌های پیچشی به 16 افزایش پیدا کرده.

🔵 نکات مهم در معماری VGG

🔵استفاده از فیلترهای کوچک: برخلاف معماری‌های قبلی که فیلتر سایزهای متفاوت داشتن، VGG تنها از فیلترهای 3x3 استفاده می‌کنه که این باعث کاهش پارامترها و افزایش عمق مفید شبکه می‌شه.

🔵لایه‌های عمیق: با افزایش تعداد لایه‌ها، مدل می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره.

🔵مقابله با بیش‌برازش: با وجود تعداد زیادی پارامتر، استفاده از تکنیک‌هایی مثل Dropout و Regularization برای جلوگیری از بیش‌برازش ضروریه.

🔵 کاربردهای VGG

معماری VGG در تشخیص تصویر و طبقه‌بندی کاربرد زیادی داره. از VGG میشه در تشخیص چهره، تشخیص اشیاء، تحلیل تصاویر پزشکی و بسیاری موارد دیگر استفاده کرد.

به علاوه، وزن‌های آموزش دیده روی داده‌های ImageNet در بسیاری از کاربردهای پیشرفته به عنوان نقطه شروع استفاده میشن. یعنی در کد، معماری VGG و وزن‌هاش وارد میشن و با Fine-Tune کردن تسک جدید انجام میشه و نیازی به آموزش مدل از ابتدا نیست (Transfer Learning).

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌21👨‍💻1
🎞 یادگیری انتقالی و پیاده سازی VGGNet با کراس

توی این ویدئو تاریخچه، ساختار و معماری VGG رو بررسی می‌کنیم و با کمک Keras‌ در پایتون یک پردازش تصویر ساده انجام می‌دیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشنا شیم.

👉📎 https://youtu.be/_XgI5jCrmWs

🟢لینک کانال یوتیوب:

👉📎 https://youtube.com/@RezaShokrzad

#YouTube
#Deep_Learning

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1
👨‍🎓 معماری Inception

معماری Inception در مقاله‌ای با عنوان Going Deeper with Convolutions معرفی شد و توسط تیمی در Google توسعه پیدا کرده. این معماری با هدف کاهش پارامترها بدون کم کردن از عمق و عرض شبکه طراحی شد تا از بیش‌برازش جلوگیری کنه و کارایی مدل رو بهبود بده.

🔵 مؤلفه‌های اصلی Inception

🔵ماژول‌های Inception: هر ماژول شامل چند فیلتر کانولوشنی با ابعاد مختلف و یک لایه max-pooling هست که به صورت موازی قرار گرفتن. این ترکیب اجازه می‌ده تا شبکه از مقیاس‌های مختلف ویژگی‌ها برای بهبود دقت استفاده کنه.

🔵استفاده از فیلترهای 1x1: این فیلترها به عنوان کاهش‌دهنده‌ی بعد عمل می‌کنن و باعث کاهش پیچیدگی محاسباتی میشن.

🔵جلوگیری از بیش‌برازش: با استفاده از تکنیک‌هایی مثل Dropout و نرمال‌سازی لایه‌ها، این معماری از بیش‌برازش جلوگیری می‌کنه.

🔵 نسخه‌های مختلف Inception

🔵Inception v1 (GoogLeNet)
معرفی مفهوم شبکه‌های عمیق و عریض بدون افزایش تعداد پارامترها.

🔵Inception v2 و v3
بهبودهایی در نرمال‌سازی لایه‌ها و فاکتوریزاسیون کانولوشن‌ها برای کاهش پارامترها و افزایش سرعت.

🔵Inception v4 و Inception-ResNet
ترکیب ویژگی‌های ResNet و Inception برای بهبود همگرایی و کاهش خطای آموزش.

🔵اندازه ورودی: Input Size در این معماری برابر 299x299x3 هست.

🔵اندازه خروجی: Output size در این معماری برابر 8x8x2048 هست.

🔵در لایه‌های نهایی شبکه Inception، یک لایه Global Average Pooling برای کاهش ابعاد ویژگی‌ها به یک بردار یک‌بعدی استفاده می‌شه. بعد این بردار می‌تونه برای تصمیم‌گیری نهایی به یک یا چند لایه کاملاً متصل داده شه.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍5👨‍💻2
🧑‍🎓 با شبکه عصبی گوگل‌نت و ساختارش آشنا شین

شبکه عصبی گوگل‌نت (GoogleNet) یه شبکه عصبی کانولوشنی عمیق، با ۲۲ لایه‌ست. این شبکه عصبی جزو برندگان رقابت ILSVRC در سال ۲۰۱۴ هست که توسط محققان گوگل طراحی شده.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0022

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری ResNet

یکی از محبوب‌ترین معماری‌ها در حوزه یادگیری عمیق، ResNet یا شبکه باقی‌مانده (Residual Network) هست. این معماری برای اولین بار در سال 2015 توسط محققان مایکروسافت تحقیق و توسعه پیدا کرد.

🔵 مفهوم اتصال باقی‌مانده

در یک شبکه عمیق سنتی، هر لایه وظیفه داره که نمایشی از داده‌های ورودی‌اش رو یاد بگیره و در شبکه‌های بسیار عمیق، این کار منجر به مشکلاتی مثل محو شدگی گرادیان میشه. ResNet با ارائه اتصالات باقی‌مانده (Residual Connections) این مشکل رو حل کرده. این اتصالات امکان می‌دن تا خروجی یک یا چند لایه به طور مستقیم به لایه‌های بعدی اضافه شه، که در نتیجه به گرادیان‌ها اجازه داده میشه که به راحتی در طول شبکه جریان پیدا کنن.

🔵 مفهوم اتصالات کوتاه

اتصالات کوتاه یا (Skip Connections) به اطلاعات اجازه می‌دن که بدون هیچ گونه تغییری از یک لایه به لایه‌های بعدی منتقل شن. در نتیجه همچنان سیگنال‌های قوی و کارآمد در عمق‌های زیاد شبکه حفظ میشن.

🔵 ساختار

🔵واحدهای باقیمانده (Residual Units): هر واحد باقیمانده شامل چند لایه است (معمولاً دو یا سه لایه) که داده‌ها از طریق آنها عبور می‌کنن و در نهایت، خروجی این لایه‌ها به ورودی اولیه واحد اضافه می‌شه.

🔵نرمال‌سازی دسته‌ای (Batch Normalization): در ResNet، بعد از هر لایه Convolution و قبل از تابع فعال‌ساز، یک لایه نرمال‌سازی قرار داره که به استانداردسازی ورودی‌ها کمک می‌کنه.

🔵 تعداد پارامترها

تعداد پارامترها در ResNet بستگی به عمق شبکه داره. به عنوان مثال، ResNet-50 حدود 25 میلیون پارامتر دارد، در حالی که ResNet-152 تقریباً سه برابر بیشتر پارامتر دارد.

🔵 تفاوت‌های ResNet-50، ResNet-101، و ResNet-152

این شماره‌ها نشون‌دهنده تعداد لایه‌های شبکه هستن. ResNet-50 شامل 50 لایه، ResNet-101 شامل 101 لایه، و ResNet-152 شامل 152 لایه‌ست. هر چقدر تعداد لایه‌ها بیشتر باشه، شبکه می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره، اما در عین حال، نیاز به محاسبات بیشتر و خطر برازش بیش از حد (Overfitting) هم افزایش پیدا می‌کنه.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51👌1👨‍💻1
🎞 مقاله شبکه عصبی رزنت | ResNet 2015

در ادامه پلی‌لیست بررسی مقاله‌های ماشین لرنینگ، به بررسی مقاله نتورک رزنت پرداختیم که هم از نظر نگارش مقاله جالبیه و هم از نظر محتوا و ایده مهمه، تا اونجا که بسیاری از ایده های مطرح شده در این مقاله در مدل‌های امروزی استفاده میشن.

👉📎 https://youtu.be/PYUVw87YNMQ

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵معماری LeNet
👉🔗 https://t.iss.one/data_ml/370

🔵رقابت ILSVRC
👉🔗 https://t.iss.one/data_ml/373

🔵معماری AlexNet
👉🔗 https://t.iss.one/data_ml/376

🔵معماری VGG
👉🔗 https://t.iss.one/data_ml/380

🔵معماری Inception
👉🔗 https://t.iss.one/data_ml/384

🔵معماری ResNet
👉🔗 https://t.iss.one/data_ml/387

🔺 کوئیز

🔵کوییز شماره ۱۰۳: معماری LeNet-5
👉🔗 https://t.iss.one/data_ml/371

🔵کوییز شماره ۱۰۴: اولین استفاده از ReLU و چند GPU در یک معماری
👉🔗 https://t.iss.one/data_ml/374

🔵کوییز شماره ۱۰۵: اندازه تصویر ورودی در AlexNet
👉🔗 https://t.iss.one/data_ml/378

🔵کوییز شماره ۱۰۶: نرخ یادگیری در fine-tuning
👉🔗 https://t.iss.one/data_ml/382

🔵کوییز شماره ۱۰۷: معماری Inception و رأی اکثریت
👉🔗 https://t.iss.one/data_ml/385

🔵کوییز شماره ۱۰۸: معماری ResNeXt
👉🔗 https://t.iss.one/data_ml/388

🔺 نکته

🔵بلاگ معماری LeNet-5
👉🔗 https://t.iss.one/data_ml/372

🔵بلاگ رقابت سالانه ILSVRC
👉🔗 https://t.iss.one/data_ml/375

🔵ویدئو مقاله شبکه عصبی الکس‌نت
👉🔗 https://t.iss.one/data_ml/379

🔵یادگیری انتقالی و پیاده سازی VGGNet
👉🔗 https://t.iss.one/data_ml/383

🔵بلاگ گوگل‌نت
👉🔗 https://t.iss.one/data_ml/386

🔵ویدئو مقاله شبکه عصبی رزنت
👉🔗 https://t.iss.one/data_ml/389

#Weekend
#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2👨‍💻1
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری Densenet

🔵یک‌شنبه: معماری Squeeznet

🟢دوشنبه: معماری MobileNet

🔴سه‌شنبه: آشنایی با Keras

🟠چهارشنبه: آشنایی با Pytorch

🔵پنج‌شنبه: بررسی نکات تکمیلی

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥1