❓کوییز شماره ۱۰۶: هنگام تنظیم دقیق (fine-tuning) مثلا در مدل VGG16 در Keras، چرا لازمه نرخ یادگیری رو بسیار پایین تنظیم کنیم؟
Anonymous Quiz
28%
برای افزایش سرعت آموزش مدل
42%
برای جلوگیری از دست دادن ویژگیهای آموخته شده در لایههای اولیه
17%
برای افزایش تعداد پارامترهای قابل آموزش
14%
برای کاهش دقت مدل و جلوگیری از بیشبرازش
👍5👌2🤔1
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
توی این ویدئو تاریخچه، ساختار و معماری VGG رو بررسی میکنیم و با کمک Keras در پایتون یک پردازش تصویر ساده انجام میدیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشنا شیم.
#YouTube
#Deep_Learning
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
دیپ لرنینگ | VGGNet یادگیری انتقالی و پیاده سازی با کراس
هم با تاریخچه، ساختار و معماری VGG آشنا بشیم و هم با کمک Keras در پایتون یک پردازش تصویر ساده انجام بدیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشناتر بشیم.
لینک سایر نتورکها:
الکس نت AlexNet
https://youtu.be/psZBKNPN9ZU
گوگل…
لینک سایر نتورکها:
الکس نت AlexNet
https://youtu.be/psZBKNPN9ZU
گوگل…
👍5❤3🔥1
معماری Inception در مقالهای با عنوان Going Deeper with Convolutions معرفی شد و توسط تیمی در Google توسعه پیدا کرده. این معماری با هدف کاهش پارامترها بدون کم کردن از عمق و عرض شبکه طراحی شد تا از بیشبرازش جلوگیری کنه و کارایی مدل رو بهبود بده.
معرفی مفهوم شبکههای عمیق و عریض بدون افزایش تعداد پارامترها.
بهبودهایی در نرمالسازی لایهها و فاکتوریزاسیون کانولوشنها برای کاهش پارامترها و افزایش سرعت.
ترکیب ویژگیهای ResNet و Inception برای بهبود همگرایی و کاهش خطای آموزش.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍5👨💻2
❓کوییز شماره ۱۰۷: معماری Inception چطور از رأی اکثریت برای ترکیب ویژگیهای استخراج شده از خروجیهای مختلف استفاده میکنه؟
Anonymous Quiz
32%
ترکیب خروجیها برای تصمیمگیری نهایی در لایههای طبقهبندی
36%
استفاده از میانگین وزندار برای ترکیب خروجیها
23%
انتخاب خروجی با بیشترین فراوانی به عنوان نماینده
9%
استفاده از مکانیزم رأیگیری برای انتخاب ویژگیهای مهم
👍5😎2❤1🤔1
شبکه عصبی گوگلنت (GoogleNet) یه شبکه عصبی کانولوشنی عمیق، با ۲۲ لایهست. این شبکه عصبی جزو برندگان رقابت ILSVRC در سال ۲۰۱۴ هست که توسط محققان گوگل طراحی شده.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👨💻1
یکی از محبوبترین معماریها در حوزه یادگیری عمیق، ResNet یا شبکه باقیمانده (Residual Network) هست. این معماری برای اولین بار در سال 2015 توسط محققان مایکروسافت تحقیق و توسعه پیدا کرد.
در یک شبکه عمیق سنتی، هر لایه وظیفه داره که نمایشی از دادههای ورودیاش رو یاد بگیره و در شبکههای بسیار عمیق، این کار منجر به مشکلاتی مثل محو شدگی گرادیان میشه. ResNet با ارائه اتصالات باقیمانده (Residual Connections) این مشکل رو حل کرده. این اتصالات امکان میدن تا خروجی یک یا چند لایه به طور مستقیم به لایههای بعدی اضافه شه، که در نتیجه به گرادیانها اجازه داده میشه که به راحتی در طول شبکه جریان پیدا کنن.
اتصالات کوتاه یا (Skip Connections) به اطلاعات اجازه میدن که بدون هیچ گونه تغییری از یک لایه به لایههای بعدی منتقل شن. در نتیجه همچنان سیگنالهای قوی و کارآمد در عمقهای زیاد شبکه حفظ میشن.
تعداد پارامترها در ResNet بستگی به عمق شبکه داره. به عنوان مثال، ResNet-50 حدود 25 میلیون پارامتر دارد، در حالی که ResNet-152 تقریباً سه برابر بیشتر پارامتر دارد.
این شمارهها نشوندهنده تعداد لایههای شبکه هستن. ResNet-50 شامل 50 لایه، ResNet-101 شامل 101 لایه، و ResNet-152 شامل 152 لایهست. هر چقدر تعداد لایهها بیشتر باشه، شبکه میتونه ویژگیهای پیچیدهتری رو یاد بگیره، اما در عین حال، نیاز به محاسبات بیشتر و خطر برازش بیش از حد (Overfitting) هم افزایش پیدا میکنه.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1👌1👨💻1
❓کوییز شماره ۱۰۸: معماری ResNeXt چه ویژگی منحصر به فردی نسبت به ResNet داره؟
Anonymous Quiz
22%
استفاده از توابع فعالساز مختلف در هر لایه
22%
افزایش عمق شبکه بدون اتصالات کوتاه
44%
اجرای ترانسفورماسیونهای مستقل در مسیرهای مختلف و ادغامشون
11%
کاهش پیچیدگی مدل به طور کلی
👌3❤1👍1🤔1😎1
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
در ادامه پلیلیست بررسی مقالههای ماشین لرنینگ، به بررسی مقاله نتورک رزنت پرداختیم که هم از نظر نگارش مقاله جالبیه و هم از نظر محتوا و ایده مهمه، تا اونجا که بسیاری از ایده های مطرح شده در این مقاله در مدلهای امروزی استفاده میشن.
#YouTube
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
مقاله شبکه عصبی رزنت | ResNet 2015
به نظر میاد دومین انتخاب منطقی برای پلی لیست بررسی مقاله های ماشین لرنینگ، مقاله نتورک رزنت باشه که هم از نظر نگارش خیلی مقاله جالبیه و هم از نظر محتوا و ایده خیلی مهمه تا اونجا که کلی از ایده های مطرح شده تو این مقاله در مدلهای امروزی خیلی استفاده میشه.…
👍4❤2🔥1
👉🔗 https://t.iss.one/data_ml/388
#Weekend
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2👨💻1
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥1
معماری Densenet که مخفف Dense Convolutional Network هست، یک معماری شبکه عمیقه که با هدف بهبود جریان اطلاعات و گرادیانها در شبکههای عمیق طراحی شده. مهمترین ویژگی Densenet اتصالات گستردهایه که بین لایهها برقرار میکنه، به طوری که هر لایه به طور مستقیم به تمامی لایههای قبلیش متصله.
معماری Densenet از بلوکهای چگال (Dense Blocks) و لایههای انتقال (Transition Layers) تشکیل شده. در هر بلوک چگال، خروجی هر لایه به تمامی لایههای بعدی ارسال میشه، که در نتیجه باعث میشه تا اطلاعات و گرادیانها به طور موثرتری در شبکه جریان پیدا کنن. لایههای انتقال بین بلوکهای چگال قرار دارن و وظیفه کاهش ابعاد ویژگیها رو دارن.
معماری Densenet در بسیاری از زمینههای پیشرفته یادگیری عمیق مثل تشخیص تصویر، پزشکی و تحلیل تصویر ماهوارهای به کار رفته. به علت قابلیتهای منحصر به فردش در حفظ اطلاعات و کارایی محاسباتی، در مواردی که نیاز به تحلیل دقیق تصاویر وجود داره، بسیار مفیده.
معماری Densenet یکی از معماریهای مهم در حوزه یادگیری عمیقه که با ارائه راهکارهای نوآورانه برای بهبود جریان اطلاعات و گرادیانها، قابلیتهای قابل توجهی را در پردازش دادهها ارائه میده.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1👨💻1
❓کوییز شماره ۱۰۹: در معماری Densenet، عملکرد لایههای Bottleneck چیست؟
Anonymous Quiz
28%
کاهش عمق ویژگیها
17%
افزایش عمق ویژگیها
41%
کاهش تعداد ویژگیهای ورودی به Conv 3x3
14%
افزایش سرعت آموزش
👍3❤2😎2
نسخههای DenseNets-B و DenseNets-BC دو تکامل در معماری DenseNet هستن که با هدف بهبود کارایی محاسباتی طراحی شدن:
از لایههای Bottleneck استفاده میکنه که با کانولوشنهای 1x1 قبل از کانولوشنهای 3x3 کار میکنن تا اندازه نقشههای ویژگی رو کاهش و کارایی محاسباتی رو افزایش بدن.
یک مرحله پیشرفتهتر DenseNets-B هست که فاکتور فشردهسازی (theta) رو معرفی میکنه تا تعداد نقشههای ویژگی خروجی رو کاهش بده. با تنظیم theta در بازه [0-1]، میشه کارایی شبکه رو با کاهش ابعاد خروجی تنظیم کرد.
این تغییرات با هدف افزایش کارایی و کاهش نیازهای محاسباتی در پردازش تصاویر، بهویژه در دیتاستهای بزرگ مثل ImageNet، طراحی شدن.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥1👨💻1
معماری SqueezeNet یک شبکه عصبی کانولوشنی (CNN) هست که برای اولین بار در سال 2016 معرفی شد. این معماری با هدف ارائه دقت مشابه با AlexNet با ۵۰ برابر پارامتر کمتر طراحی شده بود.
یکی از ویژگیهای کلیدی SqueezeNet اینکه با کاهش تعداد پارامترها، فضای ذخیرهسازی کمتری اشغال میکنه و سریعتر میشه روی دستگاههای دارای منابع محدود اجراش کرد.
معماری SqueezeNet بر اساس سه اصل اساسی طراحی شده:
واحد اصلی در SqueezeNet ماژول Fire هست. هر ماژول Fire از دو بخش تشکیل شده: یک لایه فشردهساز (Squeeze) که از فیلترهای 1x1 استفاده میکنه، و لایههای گسترشدهنده (Expand) که از ترکیبی از فیلترهای 1x1 و 3x3 استفاده میکنه.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2👌2👨💻1
❓کوییز شماره ۱۱۰: در نسخه 1.1 SqueezeNet، تغییر کدوم پارامتر باعث کاهش 2.4 برابری محاسبات و کاهش تعداد پارامترها شده، بدون اینکه دقت کاهش پیدا کنه؟
Anonymous Quiz
18%
افزایش تعداد لایهها
41%
کاهش اندازه کرنلها
29%
کاهش تعداد واحدهای Fire
12%
تغییر در تعداد کانالهای لایههای فشردهساز (Squeeze)
❤4👍3👨💻1
نمودار شامل روند استفاده از شش معماری شبکه عصبی عمیق در طول زمانه، که بر اساس تعداد اشارات در مقالات علمی محاسبه شده.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤1🔥1👏1
معماری MobileNet با هدف ارائه مدلی با تعادل مناسب بین دقت و سرعت طراحی شده و با استفاده از تکنیکهای مختلفی مثل فاکتور بندی عمقی (depthwise separable convolution) بهینهسازی میشه تا تعداد پارامترها و محاسبات رو بدون تأثیر چشمگیری روی دقت مدل کاهش بده.
در MobileNet، فاکتور بندی عمقی، عملیات کانولوشن رو به دو بخش تقسیم میکنه: کانولوشن عمقی (Depthwise Convolution) و کانولوشن نقطهای (Pointwise Convolution).
کانولوشن عمقی روی هر کانال ورودی به طور جداگانه اجرا میشه، در حالی که کانولوشن نقطهای ترکیبی از کانالهای خروجی از کانولوشن عمقی رو ایجاد میکنه.
این معماری در طی زمان تکامل پیدا کرد و نسخههای مختلفی مثل MobileNetV1, MobileNetV2 و MobileNetV3 ارائه شدن.
این معماری با استفاده از Quantization امکان اجرا در سرعتهای بالاتر، با استفاده از حافظه کمتر رو فراهم میکنه. این فرایند دادهها و وزنهای مدل رو به فرمتهای با دقت کمتر تبدیل میکنه تا مصرف حافظه و محاسبات کاهش پیدا کنه.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👌2👍1👨💻1
❓کوییز شماره ۱۱۱: در مدلهای MobileNet v1 به MobileNet v2 چه تفاوتی وجود داره؟
Anonymous Quiz
67%
مدل MobileNet v2 دارای معماری بهبود یافته برای کاهش حجم مدل و افزایش دقته.
0%
مدل MobileNet v1 فقط برای دستهبندی تصاویر ساخته شده در حالی که MobileNet v2 برای تولید تصاویره.
27%
مدل MobileNet v2 برای کاربردهایی که به مقاومت شبکه در مقابل نویز نیازه، طراحی شده.
7%
مدل MobileNet v1 سادهتر از MobileNet v2 هست و فقط برای دستهبندی تصاویر کوچک استفاده میشه.
👌3👍2😎2
در حالی که اکثر معماریهای قبلی تمرکزشون روی افزایش تنها یکی از ابعاد مدل، مثل عمق یا پهنا، قرار میدادن، EfficientNet به طور همزمان و متناسب هر سه بعد مهم مدل یعنی عمق، پهنا و رزولوشن تصویر رو افزایش میده و این روش مقیاسبندی ترکیبی (Compound Scaling Method) نام داره.
این رویکرد مقیاسبندی با افزایش حجم محاسبات به صورت یکنواخت در تمامی ابعاد، باعث میشه مدل از منابع به شکل موثرتری استفاده کنه و دقت شبکه بهبود پیدا کنه.
در EfficientNet، سه بعد مهم برای مقیاسبندی وجود داره: عمق (Depth)، پهنا (Width)، و اندازه تصویر (Resolution). افزایش هر کدوم از این ابعاد میتونه به بهبود عملکرد شبکه کمک کنه، اما باید به نحو اثربخشی تعادل بینشون برقرار شه.
این معماری با استفاده از یک فرایند بهینهسازی مبتنی بر نظریه اطلاعات، تعادلی بین این سه بعد برقرار میکنه. این بهینهسازی باعث میشه که با افزایش مقیاس شبکه، کارایی به صورت موثر افزایش پیدا کنه.
معماری EfficientNet شامل چندین مدل با مقیاسهای مختلف، از B0 تا B7 هست، که هر کدوم برای کاربردهای مختلف طراحی شدن. هر چی شماره بزرگتر باشه، مدل پیچیدهتر و قدرتمندتره، اما به استفاده از منابع بیشتری نیز نیاز داره.
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌4❤2👍2👨💻1
❓کوییز شماره ۱۱۲: کدوم مورد درباره مدل EfficientNet صحیحه؟
Anonymous Quiz
33%
مدل EfficientNet با استفاده از تکنیکهای Data Augmentation مثل Random Rotation عملکرد بهتری داره.
27%
مدل EfficientNet با افزایش اندازه شبکههای عصبی از سطح زیادی از توجه و تمرکز استفاده میکنه.
40%
یکی از مزایای مدل EfficientNet، امکان اجراش روی دستگاههای با منابع محدود مثل گوشیهای هوشمنده.
0%
معماری EfficientNet فقط برای وظایف دستهبندی تصاویر مناسبه و برای وظایف دیگه کارایی مناسبی نداره.
👍3🤔3😎3