آموزش دیتاساینس و ماشین‌لرنینگ
1.89K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.iss.one/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵ایده پشت شبکه‌های عصبی کانولوشنی
👉🔗 https://t.iss.one/data_ml/346

🔵آشنایی با مفاهیم Filter،stride و padding
👉🔗 https://t.iss.one/data_ml/349

🔵پیاده‌سازی شبکه‌های عصبی کانولوشنال با Keras
👉🔗 https://t.iss.one/data_ml/352

🔵ابعاد و تعداد پارامترها در CNN
👉🔗 https://t.iss.one/data_ml/355

🔵مصورسازی لایه‌های پنهان در CNN
👉🔗 https://t.iss.one/data_ml/358

🔵پیاده‌سازی CNNها با PyTorch
👉🔗 https://t.iss.one/data_ml/362

🔺 کوئیز

🔵کوییز شماره ۹۷: کرنل در CNN
👉🔗 https://t.iss.one/data_ml/347

🔵کوییز شماره ۹۸: پدینگ Same
👉🔗 https://t.iss.one/data_ml/350

🔵کوییز شماره ۹۹: تابع فعال‌ساز مورد استفاده در CNNها
👉🔗 https://t.iss.one/data_ml/353

🔵کوییز شماره ۱۰۰: محاسبه تعداد پارامتر
👉🔗 https://t.iss.one/data_ml/356

🔵کوییز شماره ۱۰۱: مصورسازی فیلترها
👉🔗 https://t.iss.one/data_ml/359

🔵کوییز شماره ۱۰۲: پیاده‌سازی CNN با PyTorch
👉🔗 https://t.iss.one/data_ml/363

🔺 نکته

🔵پادکست شبکه‌ عصبی کانولوشنی
👉🔗 https://t.iss.one/data_ml/348

🔵بلاگ Pooling، Pooling و فیلتر
👉🔗 https://t.iss.one/data_ml/351

🔵تکنیک‌هایی برای کاهش زمان محاسبات در CNN
👉🔗 https://t.iss.one/data_ml/354

🔵اشتراک‌گذاری پارامتر در لایه‌های کانولوشنی
👉🔗 https://t.iss.one/data_ml/357

🔵چرا هوش مصنوعی قابل توصیف یا XAI برای آینده مهمه؟
👉🔗 https://t.iss.one/data_ml/360

🔵تفاوت Deep CNNs و Shallow CNNs
👉🔗 https://t.iss.one/data_ml/364

#Weekend
#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
5👏3👌2👍1
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری LeNet

🔵یک‌شنبه: رقابت ILSVRC

🟢دوشنبه: معماری AlexNet

🔴سه‌شنبه: معماری VGG

🟠چهارشنبه: معماری Inception

🔵پنج‌شنبه: معماری ResNet

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4👏3🔥1
👋 سلام به همگی!

ما فعالیت این کانال رو حدود چهار ماه پیش، با هدف آموزش مباحث ماشین لرنینگ و دیتا ساینس از پایه، شروع کردیم و تا الان با پشت سر گذاشتن ۱۷ هفته آموزشی، مباحث زیر مرور شدن:

🔵پایتون مقدماتی
👉🔗 https://t.iss.one/data_ml/9

🔵پایتون پیشرفته
👉🔗 https://t.iss.one/data_ml/33

🔵رگرسیون (Regression)
👉🔗 https://t.iss.one/data_ml/57

🔵رگرسیون لجستیک (Logistic Regression)
👉🔗 https://t.iss.one/data_ml/76

🔵تکنیک‌های تنظیم یا رگولاریزاسیون (Regularization)
👉🔗 https://t.iss.one/data_ml/96

🔵اعتبارسنجی متقابل یا Cross Validation
👉🔗 https://t.iss.one/data_ml/116

🔵بیز ساده یا Naive Bayes
👉🔗 https://t.iss.one/data_ml/136

🔵الگوریم K نزدیک ترین همسایه یا KNN
👉🔗 https://t.iss.one/data_ml/155

🔵الگوریتم ماشین بردار پشتیبان یا SVM
👉🔗 https://t.iss.one/data_ml/176

🔵الگوریتم درخت تصمیم یا Decision Tree
👉🔗 https://t.iss.one/data_ml/196

🔵الگوریتم جنگل تصادفی یا Random Forest
👉🔗 https://t.iss.one/data_ml/217

🔵الگوریتم Xgboost
👉🔗 https://t.iss.one/data_ml/238

🔵کاهش ابعاد یا Dimensionality Reduction
👉🔗 https://t.iss.one/data_ml/258

🔵تشخیص ناهنجاری یا Anomaly Detection
👉🔗 https://t.iss.one/data_ml/277

🔵سیستم‌های توصیه‌گر یا Recommender systems
👉🔗 https://t.iss.one/data_ml/299

🔵شبکه‌های عصبی مصنوعی یا ANNs
👉🔗 https://t.iss.one/data_ml/320

🔵شبکه‌های عصبی کانولوشنی یا CNNs
👉🔗 https://t.iss.one/data_ml/343

از اینکه پیگیر یادگیری هستین، خوشحالیم و تلاش‌مون رو میکنیم تا به خاطر پیگیری شما، محتوای با کیفیت ارائه بدیم.

فعالیت این کانال از یازدهم فروردین ادامه پیدا می‌کنه. امیدوارم سال جدید پر از سلامتی، شادی، موفقیت و عشق باشه براتون ☺️ پیشاپیش عیدتون مبارک! 🥳🎊🎈

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
20👏4👌3🔥2👍1
🌟پیشاپیش عیدتون مبارک!

سال خوبی رو براتون آرزو می‌کنیم ☺️

🔺 تصویر: Dall-E3

#AI_Generated

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5🔥2
👩‍🎓 برنامه آموزشی هفته: آشنایی با معماری‌های معروف شبکه‌های عصبی

🟠شنبه: معماری LeNet

🔵یک‌شنبه: رقابت ILSVRC

🟢دوشنبه: معماری AlexNet

🔴سه‌شنبه: معماری VGG

🟠چهارشنبه: معماری Inception

🔵پنج‌شنبه: معماری ResNet

🟢جمعه: جمع بندی

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥1
👨‍🎓 معماری LeNet

معماری شبکه‌های عصبی LeNet، که به نام LeNet-5 هم شناخته می‌شه، یکی از اولین شبکه‌های عصبی پیچشی (Convolutional Neural Networks یا CNNs) هست که با موفقیت برای شناسایی اعداد دست‌نویس در دیتاست MNIST استفاده شد. این شبکه توسط یان لیکان (Yann LeCun) و همکارانش در دهه ۹۰ میلادی توسعه یافت.

معماری LeNet-5 شامل لایه‌های پیچشی (Convolutional Layers)، لایه‌های نمونه‌برداری (Subsampling یا Pooling Layers) و لایه‌های کاملاً متصل (Fully Connected Layers) هست. این ساختار به شبکه امکان می‌ده که ویژگی‌های مهم تصاویر رو شناسایی کنه.

🔵 لایه‌های LeNet-5

🔵لایه پیچشی C1: اولین لایه پیچشی که ویژگی‌های ابتدایی تصویر مثل لبه‌ها و گوشه‌ها را شناسایی می‌کنه.

🔵لایه نمونه‌برداری S2: لایه Pooling با کاهش ابعاد داده‌ها، پیچیدگی محاسباتی رو کاهش می‌ده و به مدل کمک می‌کنه تا در برابر تغییر مقیاس و جابجایی تصاویر مقاوم باشه.

🔵لایه پیچشی C3: لایه دیگه کانولوشنی که ویژگی‌های پیچیده‌تری رو نسبت به لایه C1 استخراج می‌کنه.

🔵لایه نمونه‌برداری S4: لایه دوم Pooling که همچنان به کاهش ابعاد داده‌ها و جلوگیری از بیش برازش کمک می‌کنه.

🔵لایه پیچشی C5: لایه سوم پیچشی که مستقیماً قبل از لایه‌های کاملاً متصل قرار داره و به ترکیب ویژگی‌های استخراج شده از لایه‌های قبلی می‌پردازه.

🔵لایه کاملاً متصل F6: لایه‌ای که در اون تمامی نورون‌ها به تمام نورون‌های لایه قبلی متصل هستن. این لایه وظیفه ترکیب نهایی ویژگی‌های استخراج شده برای تصمیم‌گیری نهایی رو بر عهده داره.

🔵لایه خروجی: این لایه با استفاده از تابع فعال‌ساز softmax، احتمالات مربوط به تعلق هر داده به کلاس‌های مختلف رو محاسبه می‌کنه. در مثال پایگاه داده MNIST، این لایه شامل ۱۰ نورونه که هر کدوم نشون‌دهنده یکی از اعداد ۰ تا ۹ هستن.

🔵کاربردها و اهمیت LeNet-5

به عنوان یکی از اولین معماری‌های شبکه‌های عصبی پیچشی، نقش مهمی در توسعه یادگیری عمیق داشته و ایده‌اش در توسعه معماری‌های پیچیده‌تر و پیشرفته‌تری مثل AlexNet، VGG و ResNet کاربرد داشته.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52👨‍💻1
کوییز شماره ۱۰۳: لایه‌های کانولوشنی در معماری LeNet-5 از چه تابع فعال‌سازی استفاده می‌کنن؟ نوع Pooling در این معماری به چه صورته و تعداد پارامترهای قابل آموزش حدوداً چقدرن؟
Anonymous Quiz
43%
ReLU - Max Pooling - 10,000
22%
Sigmoid - Global Max Pooling - 50,000
22%
Tanh - Average Pooling - 60,000
14%
Leaky ReLU - Global Average Pooling - 100,000
👌32👍2
🧑‍🎓 با معماری LeNet-5 و ساختار لایه‌هاش آشنا بشین!

وقتی حرف از شبکه‌های عصبی کانولوشنی می‌شه، لازمه از لی‌نت-۵ یا LeNet-5 که اولین شبکه‌ایه که از backpropagation استفاده کرده‌ هم صحبت کنیم. درواقع می‌شه گفت یادگیری عمیق و شبکه‌های CNN با معرفی این شبکه شکل گرفتن.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0046

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52👏2
👨‍🎓 رقابت ILSVRC

مسابقه ILSVRC (ImageNet Large Scale Visual Recognition Challenge) یکی از معتبرترین رویدادها در حوزه بینایی ماشینه که با هدف ارزیابی پیشرفت‌ در شناسایی اشیاء در مقیاس بزرگ برگزار می‌شه.

🔵این مسابقه بر اساس دیتاست بزرگ و متنوع ImageNet هست که شامل میلیون‌ها تصویره و برای هر تصویر، برچسب‌هایی مشخص کننده دسته‌بندی شیء موجود در اون تصویر وجود داره.

🔵از سال 2010، که اولین دوره ILSVRC برگزار شد، تا سال 2015، دقت سیستم‌های شناسایی به شکل قابل توجهی بهبود پیدا کرد.

🔵در سال 2012، تیمی از دانشگاه تورنتو با استفاده از شبکه عصبی کانولوشنال (CNN) مدلی به نام AlexNet رو توسعه دادن که تحول بزرگی در حوزه یادگیری عمیق و بینایی ماشین ایجاد کرد. این مدل تونست در رقابت‌های ILSVRC عملکرد فوق‌العاده‌ای داشته باشه و استاندارد جدیدی برای سیستم‌های شناسایی تصویر ایجاد کنه.

🔵در سال‌های بعد، با ارائه معماری‌های جدید، پیشرفت‌های چشمگیر جدیدی در این چالش حاصل شد. برای مثال، در سال 2013 مدل ZFNet و در سال 2014 مدل Inception (GoogLeNet) و VGG دستاوردهای بزرگی بودن.

🔵به طور خاص، مدل ResNet در سال 2015 با معماری Residual Networks تونست به پیشرفت‌های بی‌سابقه‌ای در دقت شناسایی برسه. در روزهای آینده با تمام این معماری‌های معروف بیشتر آشنا میشیم.

🔵علاوه بر بهبود مدل‌ها، استفاده از پردازنده‌های گرافیکی (GPU) هم در تسریع فرآیند آموزش شبکه‌های عمیق نقش داشته. از سال 2012 به بعد، استفاده از GPU‌ها به طور گسترده‌ای در ILSVRC گسترش پیدا کرد، که در نتیجه باعث کاهش زمان آموزش و افزایش دقت مدل‌ها شد.

بنابراین، ILSVRC به عنوان یک نقطه عطف در پیشرفت فناوری‌های بینایی ماشین و یادگیری عمیق شناخته می‌شه و تأثیر عمیقی روی پژوهش‌ها و کاربردهای صنعتی در این حوزه‌ها داشته.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63👨‍💻1
کوییز شماره ۱۰۴: کدوم مدل از شبکه‌های عصبی زیر برای اولین بار استفاده از تابع فعال‌ساز ReLU و چند GPU برای آموزش سریع‌تر رو در مسابقه ILSVRC معرفی کرد؟
Anonymous Quiz
7%
ZFNet
18%
VGG-16
66%
AlexNet
9%
ResNet
👍3🔥3🤔1
🧑‍🎓 با رقابت سالانه ILSVRC و برندگانش آشنا شین

رقابت سالانه ILSVRC، یه رقابت در حوزه Computer Vision یا بینایی ماشینه که هدفش بهبود تسک‌های مختلفی مثل تشخیص اشیاست.

🟢برای مطالعه بیشتر کلیک کنین:

👉📎 https://ctdrs.ir/ds0045

#Deep_Learning
#CNNs

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1
👨‍🎓 معماری AlexNet

معماری AlexNet یک شبکه عصبی کانولوشنیه که از لحاظ ساختاری شباهت‌هایی به LeNet داره، اما بسیار عمیق‌تر و پیچیده‌تره. این شبکه شامل ۵ لایه کانولوشنی و چندین لایه کاملاً متصل (fully connected) هست.

این معماری در مسابقه ILSVRC 2012 تونست خطای تشخیص رو در Top-1 error و Top-5 error به طور چشمگیری کاهش بده و این پیشرفت قابل توجهی در حوزه پردازش تصویر بود.

🔵 ساختار AlexNet

🔵لایه‌های کانولوشنی: در AlexNet، پنج لایه کانولوشنی وجود داره. فیلترهای کانولوشنی در لایه‌های اولیه بزرگ‌تر هستن (۱۱x۱۱) و در لایه‌های بعدی کوچکتر می‌شن.

🔵تابع فعالساز ReLU: بر خلاف شبکه‌های قدیمی‌تر که از توابع Sigmoid یا Tanh استفاده می‌کردن، AlexNet از تابع فعالساز ReLU برای افزایش سرعت همگرایی استفاده می‌کنه.

🔵لایه‌های Pooling: معماری AlexNet به طور خاص از مکانیزم Overlapping Pooling استفاده می‌کند که نوعی از Max Pooling حساب می‌شه. در Overlapping Pooling پنجره‌های pooling تا حدودی روی هم قرار می‌گیرن و این کار باعث کاهش خطای شبکه می‌شه.

🔵لایه‌های Fully Connected: در انتهای شبکه، سه لایه کاملاً متصل وجود داره که وظیفه تصمیم‌گیری نهایی رو بر عهده دارن.

🔵Dropout:
برای جلوگیری از بیش‌برازش، لایه‌های dropout قبل از لایه‌های fully connected قرار داده شدن که با احتمال 0.5، در هر دور بعضی از نورون‌ها غیر فعال میشن.

🔵Local Response Normalization (LRN):
این ویژگی که در بین لایه‌های کانولوشنی قرار گرفته، به نرمال‌سازی پاسخ‌های محلی کمک می‌کنه و باعث افزایش عملکرد شبکه می‌شه.

🔵 آموزش و بهینه‌سازی

🔵تکنیک‌های بهینه‌سازی: AlexNet از SGD (Stochastic Gradient Descent) با momentum برای بهینه‌سازی استفاده می‌کنه.

🔵افزایش داده: برای کاهش اثر بیش‌برازش، AlexNet از تکنیک‌های Data Augmentation مثل برش‌های تصادفی و چرخش استفاده کرده.

🔵 معماری AlexNet با استفاده از دو GPU برای آموزش طراحی شده و داده‌ها و محاسبات بین دو پردازنده تقسیم میشن و این کار باعث کاهش زمان آموزش می‌شه.

🔵 در تصویر دوم، شما می‌تونین تفاوت معماری‌های LeNet و AlexNet رو مشاهده کنین.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👨‍💻1
🎞 مقاله شبکه عصبی الکس نت | AlexNet 2012

مقاله خوندن شاید تخصصی‌ترین کار در حوزه آکادمیک باشه. از یه جایی به بعد سرچ گوگل یا پرسیدن از ChatGPT جواب نمیده و شما باید برای یادگیری بیشتر یا پیدا کردن جواب سوالات‌تون مقاله علمی بخونین.

این پلی‌لیست با همین هدف ایجاد شده و قراره مقالاتی که روی رشد ماشین لرنینگ تاثیر زیادی داشتن یا به تازگی منتشر شدن رو بررسی کنیم. برای شروع به مقاله AlexNet پرداختیم:

👉📎 https://youtu.be/psZBKNPN9ZU?si=U4bLJDSyTEmenz_g

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53👨‍💻1
👨‍🎓 معماری VGG

معماری VGG توسط دپارتمان بینایی ماشین و هوش مصنوعی دانشگاه آکسفورد ارائه شده. این معماری در ILSVRC سال 2014 معرفی شد و به دلیل دقت بالاش مورد توجه قرار گرفت. این معماری که مخفف Visual Geometry Group هست، در دو نسخه اصلی VGG16 و VGG19 ارائه شده.

🔵 ساختار VGG

معماری VGG از تکرار چند لایه کانولوشنی پشت سر هم با یک لایه Max Pooling تشکیل شده. هر لایه پیچشی با فیلترهایی با ابعاد 3x3 و گام 1 (stride) عمل می‌کنه و بعد یک تابع فعال‌سازی ReLU قرار داره. این تکرارها باعث می‌شن تا عمق شبکه به شدت افزایش پیدا کنه و به دنبالش دقت شناسایی تصاویر بهتر شه.

🔵در VGG16، معماری از 13 لایه کانولوشنی، 5 لایه Max Pooling Layer، و 3 لایه کاملا متصل تشکیل شده است. در VGG19، تعداد لایه‌های پیچشی به 16 افزایش پیدا کرده.

🔵 نکات مهم در معماری VGG

🔵استفاده از فیلترهای کوچک: برخلاف معماری‌های قبلی که فیلتر سایزهای متفاوت داشتن، VGG تنها از فیلترهای 3x3 استفاده می‌کنه که این باعث کاهش پارامترها و افزایش عمق مفید شبکه می‌شه.

🔵لایه‌های عمیق: با افزایش تعداد لایه‌ها، مدل می‌تونه ویژگی‌های پیچیده‌تری رو یاد بگیره.

🔵مقابله با بیش‌برازش: با وجود تعداد زیادی پارامتر، استفاده از تکنیک‌هایی مثل Dropout و Regularization برای جلوگیری از بیش‌برازش ضروریه.

🔵 کاربردهای VGG

معماری VGG در تشخیص تصویر و طبقه‌بندی کاربرد زیادی داره. از VGG میشه در تشخیص چهره، تشخیص اشیاء، تحلیل تصاویر پزشکی و بسیاری موارد دیگر استفاده کرد.

به علاوه، وزن‌های آموزش دیده روی داده‌های ImageNet در بسیاری از کاربردهای پیشرفته به عنوان نقطه شروع استفاده میشن. یعنی در کد، معماری VGG و وزن‌هاش وارد میشن و با Fine-Tune کردن تسک جدید انجام میشه و نیازی به آموزش مدل از ابتدا نیست (Transfer Learning).

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👌21👨‍💻1
🎞 یادگیری انتقالی و پیاده سازی VGGNet با کراس

توی این ویدئو تاریخچه، ساختار و معماری VGG رو بررسی می‌کنیم و با کمک Keras‌ در پایتون یک پردازش تصویر ساده انجام می‌دیم تا با مفهوم Pre-trained Models و یادگیری انتقالی (Transfer Learnign) آشنا شیم.

👉📎 https://youtu.be/_XgI5jCrmWs

🟢لینک کانال یوتیوب:

👉📎 https://youtube.com/@RezaShokrzad

#YouTube
#Deep_Learning

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥1
👨‍🎓 معماری Inception

معماری Inception در مقاله‌ای با عنوان Going Deeper with Convolutions معرفی شد و توسط تیمی در Google توسعه پیدا کرده. این معماری با هدف کاهش پارامترها بدون کم کردن از عمق و عرض شبکه طراحی شد تا از بیش‌برازش جلوگیری کنه و کارایی مدل رو بهبود بده.

🔵 مؤلفه‌های اصلی Inception

🔵ماژول‌های Inception: هر ماژول شامل چند فیلتر کانولوشنی با ابعاد مختلف و یک لایه max-pooling هست که به صورت موازی قرار گرفتن. این ترکیب اجازه می‌ده تا شبکه از مقیاس‌های مختلف ویژگی‌ها برای بهبود دقت استفاده کنه.

🔵استفاده از فیلترهای 1x1: این فیلترها به عنوان کاهش‌دهنده‌ی بعد عمل می‌کنن و باعث کاهش پیچیدگی محاسباتی میشن.

🔵جلوگیری از بیش‌برازش: با استفاده از تکنیک‌هایی مثل Dropout و نرمال‌سازی لایه‌ها، این معماری از بیش‌برازش جلوگیری می‌کنه.

🔵 نسخه‌های مختلف Inception

🔵Inception v1 (GoogLeNet)
معرفی مفهوم شبکه‌های عمیق و عریض بدون افزایش تعداد پارامترها.

🔵Inception v2 و v3
بهبودهایی در نرمال‌سازی لایه‌ها و فاکتوریزاسیون کانولوشن‌ها برای کاهش پارامترها و افزایش سرعت.

🔵Inception v4 و Inception-ResNet
ترکیب ویژگی‌های ResNet و Inception برای بهبود همگرایی و کاهش خطای آموزش.

🔵اندازه ورودی: Input Size در این معماری برابر 299x299x3 هست.

🔵اندازه خروجی: Output size در این معماری برابر 8x8x2048 هست.

🔵در لایه‌های نهایی شبکه Inception، یک لایه Global Average Pooling برای کاهش ابعاد ویژگی‌ها به یک بردار یک‌بعدی استفاده می‌شه. بعد این بردار می‌تونه برای تصمیم‌گیری نهایی به یک یا چند لایه کاملاً متصل داده شه.

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍5👨‍💻2