وقتی حرف از شبکههای عصبی کانولوشنی میشه، لازمه از لینت-۵ یا LeNet-5 که اولین شبکهایه که از backpropagation استفاده کرده هم صحبت کنیم. درواقع میشه گفت یادگیری عمیق و شبکههای CNN با معرفی این شبکه شکل گرفتن.
👉
#Deep_Learning
#CNNs
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2👏2
مسابقه ILSVRC (ImageNet Large Scale Visual Recognition Challenge) یکی از معتبرترین رویدادها در حوزه بینایی ماشینه که با هدف ارزیابی پیشرفت در شناسایی اشیاء در مقیاس بزرگ برگزار میشه.
بنابراین، ILSVRC به عنوان یک نقطه عطف در پیشرفت فناوریهای بینایی ماشین و یادگیری عمیق شناخته میشه و تأثیر عمیقی روی پژوهشها و کاربردهای صنعتی در این حوزهها داشته.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3👨💻1
❓کوییز شماره ۱۰۴: کدوم مدل از شبکههای عصبی زیر برای اولین بار استفاده از تابع فعالساز ReLU و چند GPU برای آموزش سریعتر رو در مسابقه ILSVRC معرفی کرد؟
Anonymous Quiz
7%
ZFNet
18%
VGG-16
66%
AlexNet
9%
ResNet
👍3🔥3🤔1
رقابت سالانه ILSVRC، یه رقابت در حوزه Computer Vision یا بینایی ماشینه که هدفش بهبود تسکهای مختلفی مثل تشخیص اشیاست.
👉
#Deep_Learning
#CNNs
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥1
معماری AlexNet یک شبکه عصبی کانولوشنیه که از لحاظ ساختاری شباهتهایی به LeNet داره، اما بسیار عمیقتر و پیچیدهتره. این شبکه شامل ۵ لایه کانولوشنی و چندین لایه کاملاً متصل (fully connected) هست.
این معماری در مسابقه ILSVRC 2012 تونست خطای تشخیص رو در Top-1 error و Top-5 error به طور چشمگیری کاهش بده و این پیشرفت قابل توجهی در حوزه پردازش تصویر بود.
برای جلوگیری از بیشبرازش، لایههای dropout قبل از لایههای fully connected قرار داده شدن که با احتمال 0.5، در هر دور بعضی از نورونها غیر فعال میشن.
این ویژگی که در بین لایههای کانولوشنی قرار گرفته، به نرمالسازی پاسخهای محلی کمک میکنه و باعث افزایش عملکرد شبکه میشه.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3👨💻1
❓کوییز شماره ۱۰۵: اندازه تصویر ورودی استاندارد در معماری AlexNet چه تأثیری روی شبکه داره و چرا این اندازه انتخاب شده؟
Anonymous Quiz
48%
ابعاد 224x224x3 به دلیل سازگاری با ابعاد فیلترهای شبکه و باعث کاهش پیچیدگی محاسباتی میشه.
13%
ابعاد 256x256x3 که بعد از یک مرحله به 227x227x3 تغییر پیدا میکنه، به منظور افزایش تنوع دادهها.
32%
ابعاد 227x227x3 تا امکان استفاده از فیلتر سایزهای 11x11 در لایه اول و افزایش استخراج ویژگی فراهم شه.
6%
ابعاد 224x224x3 چون اندازه استاندارد تصاویر در پایگاه دادههای تصویریه و نیازی به تغییر نداره.
❤2👍2🤔2😎2
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
مقاله خوندن شاید تخصصیترین کار در حوزه آکادمیک باشه. از یه جایی به بعد سرچ گوگل یا پرسیدن از ChatGPT جواب نمیده و شما باید برای یادگیری بیشتر یا پیدا کردن جواب سوالاتتون مقاله علمی بخونین.
این پلیلیست با همین هدف ایجاد شده و قراره مقالاتی که روی رشد ماشین لرنینگ تاثیر زیادی داشتن یا به تازگی منتشر شدن رو بررسی کنیم. برای شروع به مقاله AlexNet پرداختیم:
#YouTube
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
مقاله شبکه عصبی الکس نت | AlexNet 2012
شاید منطقیترین مقاله برای شروع ریسرچ توی ماشین لرنینگ همین مقاله AlexNet با عنوان کامل ImageNet Classification with Deep Convolutional Neural Networks باشه. چون این مقاله هم نقش به سزایی توی رشد مدلهای شبکه عصبی امروزی داشته هم اینکه نکات ریزی داره که کلی…
👍5❤3👨💻1
معماری VGG توسط دپارتمان بینایی ماشین و هوش مصنوعی دانشگاه آکسفورد ارائه شده. این معماری در ILSVRC سال 2014 معرفی شد و به دلیل دقت بالاش مورد توجه قرار گرفت. این معماری که مخفف Visual Geometry Group هست، در دو نسخه اصلی VGG16 و VGG19 ارائه شده.
معماری VGG از تکرار چند لایه کانولوشنی پشت سر هم با یک لایه Max Pooling تشکیل شده. هر لایه پیچشی با فیلترهایی با ابعاد 3x3 و گام 1 (stride) عمل میکنه و بعد یک تابع فعالسازی ReLU قرار داره. این تکرارها باعث میشن تا عمق شبکه به شدت افزایش پیدا کنه و به دنبالش دقت شناسایی تصاویر بهتر شه.
معماری VGG در تشخیص تصویر و طبقهبندی کاربرد زیادی داره. از VGG میشه در تشخیص چهره، تشخیص اشیاء، تحلیل تصاویر پزشکی و بسیاری موارد دیگر استفاده کرد.
به علاوه، وزنهای آموزش دیده روی دادههای ImageNet در بسیاری از کاربردهای پیشرفته به عنوان نقطه شروع استفاده میشن. یعنی در کد، معماری VGG و وزنهاش وارد میشن و با Fine-Tune کردن تسک جدید انجام میشه و نیازی به آموزش مدل از ابتدا نیست (Transfer Learning).
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌2❤1👨💻1
❓کوییز شماره ۱۰۶: هنگام تنظیم دقیق (fine-tuning) مثلا در مدل VGG16 در Keras، چرا لازمه نرخ یادگیری رو بسیار پایین تنظیم کنیم؟
Anonymous Quiz
28%
برای افزایش سرعت آموزش مدل
42%
برای جلوگیری از دست دادن ویژگیهای آموخته شده در لایههای اولیه
17%
برای افزایش تعداد پارامترهای قابل آموزش
14%
برای کاهش دقت مدل و جلوگیری از بیشبرازش
👍5👌2🤔1
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
توی این ویدئو تاریخچه، ساختار و معماری VGG رو بررسی میکنیم و با کمک Keras در پایتون یک پردازش تصویر ساده انجام میدیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشنا شیم.
#YouTube
#Deep_Learning
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
دیپ لرنینگ | VGGNet یادگیری انتقالی و پیاده سازی با کراس
هم با تاریخچه، ساختار و معماری VGG آشنا بشیم و هم با کمک Keras در پایتون یک پردازش تصویر ساده انجام بدیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشناتر بشیم.
لینک سایر نتورکها:
الکس نت AlexNet
https://youtu.be/psZBKNPN9ZU
گوگل…
لینک سایر نتورکها:
الکس نت AlexNet
https://youtu.be/psZBKNPN9ZU
گوگل…
👍5❤3🔥1
معماری Inception در مقالهای با عنوان Going Deeper with Convolutions معرفی شد و توسط تیمی در Google توسعه پیدا کرده. این معماری با هدف کاهش پارامترها بدون کم کردن از عمق و عرض شبکه طراحی شد تا از بیشبرازش جلوگیری کنه و کارایی مدل رو بهبود بده.
معرفی مفهوم شبکههای عمیق و عریض بدون افزایش تعداد پارامترها.
بهبودهایی در نرمالسازی لایهها و فاکتوریزاسیون کانولوشنها برای کاهش پارامترها و افزایش سرعت.
ترکیب ویژگیهای ResNet و Inception برای بهبود همگرایی و کاهش خطای آموزش.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍5👨💻2
❓کوییز شماره ۱۰۷: معماری Inception چطور از رأی اکثریت برای ترکیب ویژگیهای استخراج شده از خروجیهای مختلف استفاده میکنه؟
Anonymous Quiz
32%
ترکیب خروجیها برای تصمیمگیری نهایی در لایههای طبقهبندی
36%
استفاده از میانگین وزندار برای ترکیب خروجیها
23%
انتخاب خروجی با بیشترین فراوانی به عنوان نماینده
9%
استفاده از مکانیزم رأیگیری برای انتخاب ویژگیهای مهم
👍5😎2❤1🤔1
شبکه عصبی گوگلنت (GoogleNet) یه شبکه عصبی کانولوشنی عمیق، با ۲۲ لایهست. این شبکه عصبی جزو برندگان رقابت ILSVRC در سال ۲۰۱۴ هست که توسط محققان گوگل طراحی شده.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👨💻1
یکی از محبوبترین معماریها در حوزه یادگیری عمیق، ResNet یا شبکه باقیمانده (Residual Network) هست. این معماری برای اولین بار در سال 2015 توسط محققان مایکروسافت تحقیق و توسعه پیدا کرد.
در یک شبکه عمیق سنتی، هر لایه وظیفه داره که نمایشی از دادههای ورودیاش رو یاد بگیره و در شبکههای بسیار عمیق، این کار منجر به مشکلاتی مثل محو شدگی گرادیان میشه. ResNet با ارائه اتصالات باقیمانده (Residual Connections) این مشکل رو حل کرده. این اتصالات امکان میدن تا خروجی یک یا چند لایه به طور مستقیم به لایههای بعدی اضافه شه، که در نتیجه به گرادیانها اجازه داده میشه که به راحتی در طول شبکه جریان پیدا کنن.
اتصالات کوتاه یا (Skip Connections) به اطلاعات اجازه میدن که بدون هیچ گونه تغییری از یک لایه به لایههای بعدی منتقل شن. در نتیجه همچنان سیگنالهای قوی و کارآمد در عمقهای زیاد شبکه حفظ میشن.
تعداد پارامترها در ResNet بستگی به عمق شبکه داره. به عنوان مثال، ResNet-50 حدود 25 میلیون پارامتر دارد، در حالی که ResNet-152 تقریباً سه برابر بیشتر پارامتر دارد.
این شمارهها نشوندهنده تعداد لایههای شبکه هستن. ResNet-50 شامل 50 لایه، ResNet-101 شامل 101 لایه، و ResNet-152 شامل 152 لایهست. هر چقدر تعداد لایهها بیشتر باشه، شبکه میتونه ویژگیهای پیچیدهتری رو یاد بگیره، اما در عین حال، نیاز به محاسبات بیشتر و خطر برازش بیش از حد (Overfitting) هم افزایش پیدا میکنه.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1👌1👨💻1
❓کوییز شماره ۱۰۸: معماری ResNeXt چه ویژگی منحصر به فردی نسبت به ResNet داره؟
Anonymous Quiz
22%
استفاده از توابع فعالساز مختلف در هر لایه
22%
افزایش عمق شبکه بدون اتصالات کوتاه
44%
اجرای ترانسفورماسیونهای مستقل در مسیرهای مختلف و ادغامشون
11%
کاهش پیچیدگی مدل به طور کلی
👌3❤1👍1🤔1😎1
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
در ادامه پلیلیست بررسی مقالههای ماشین لرنینگ، به بررسی مقاله نتورک رزنت پرداختیم که هم از نظر نگارش مقاله جالبیه و هم از نظر محتوا و ایده مهمه، تا اونجا که بسیاری از ایده های مطرح شده در این مقاله در مدلهای امروزی استفاده میشن.
#YouTube
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
مقاله شبکه عصبی رزنت | ResNet 2015
به نظر میاد دومین انتخاب منطقی برای پلی لیست بررسی مقاله های ماشین لرنینگ، مقاله نتورک رزنت باشه که هم از نظر نگارش خیلی مقاله جالبیه و هم از نظر محتوا و ایده خیلی مهمه تا اونجا که کلی از ایده های مطرح شده تو این مقاله در مدلهای امروزی خیلی استفاده میشه.…
👍4❤2🔥1
👉🔗 https://t.iss.one/data_ml/388
#Weekend
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2👨💻1
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥1