#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥1👨💻1
خودرمزگذارها کلاس خاصی از الگوریتمها هستن که میتونن بدون نیاز به برچسب، بازنماییهای کارآمدی از دادههای ورودی رو یاد بگیرن و زیر مجموعهای از شبکههای عصبی مصنوعی هستن که برای یادگیری بدون نظارت طراحی شدن.
یادگیری فشرده سازی و نمایش موثر دادههای ورودی بدون برچسب خاص، اصل اساسی یک رمزگشای خودکاره. این کار با استفاده از یک ساختار دو بخشی که از یک رمزگذار و یک رمزگشا تشکیل شده، انجام میشه. رمزگذار دادههای ورودی رو به یک نمایش با ابعاد کم شده، تبدیل میکنه که معمولا به عنوان «فضای نهفته» یا «کدگذار» شناخته میشه.
از این نمایش، یک رمزگشا ورودی اولیه رو بازسازی میکنه. برای اینکه شبکه الگوهای معناداری در دادهها به دست بیاره، فرآیند کدگذاری و کدگشایی به تعریف ویژگیهای ضروری کمک میکنن.
معماری کلی یک خودرمزگذار شامل یک رمزگذار، یک رمزگشا و یک فضای پنهان هست.
رمزگذار وظیفه تبدیل دادههای ورودی به یک فرمت یا بردار با بعد کمتر و قابل استفاده است. این فرآیند به کاهش ابعاد دادهها کمک میکنه و ویژگیهای مهم رو برجسته میکنه. این مرحله میتونه شبکههای عمیق مختلفی مثل CNN یا RNN استفاده کنه.
رمزگشا وظیفه بازسازی دادهها از فضای پنهان به فضای اصلی رو داره. این فرآیند برای بازیابی دقیق اطلاعات از فضای پنهان و تبدیلشون به یک فرمت قابل فهم مفیده. این مرحله هم همچنین میتونه شبکههای عمیق مختلفی مثل CNN یا RNN استفاده کنه.
فضای پنهان مجموعهای از نقاطه که توصیفکننده ویژگیهای مختلفی از دادههای ورودی هستن. این فضا به طور خلاصه ویژگیهای مهمی از دادهها رو نشون میده که در ابعاد بالا ممکنه مشخص نباشه. با استفاده از این فضا، اطلاعات رو کاهش میده و ویژگیهای معنادارشون رو استخراج میکنه.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👌3👨💻1
در سادهترین شکل، یک اتوانکودر شامل دو بخشه: کدگذار و کدگشا. هدف در این نوع، یادگیری ویژگیهای مهم و حذف نویزه.
این نوع از اتوانکودرها با داشتن لایههای مخفی کمتر از لایههای ورودی و خروجی، مجبورن تا ویژگیهای کلیدی دادهها رو یاد بگیرن. این محدودیت در تعداد نورونها به مدل کمک میکنه تا تنها اطلاعات ضروری رو برای بازسازی دادههای ورودی نگه داره.
این مدل از فعال شدن تعداد زیادی از نورونها جلوگیری میکنه، به این صورت که تنها تعداد محدودی از نورونها میتونن در هر زمان فعال باشن. این ویژگی به اتوانکودر کمک میکنه تا ویژگیهای مهمتر دادهها رو برجسته کنه.
خودرمزنگارهای متغییر از اتوانکودرهایی هستن که نمایشهای داده رو به صورت توزیع احتمالاتی مدلسازی میکنن. در این مدل، کدگذار به جای تولید یک کد ثابت برای هر نمونه ورودی، پارامترهای یک توزیع احتمالاتی رو تولید میکنه که میتونه برای بازسازی دادههای ورودی استفاده شه. در نتیجه VAE توانایی تولید دادههای جدید که به دادههای آموزشی شباهت دارن رو پیدا میکنه.
اتوانکودرهای پاکسازی برای بهبود کیفیت دادههای ورودی که دچار نویز شدن، طراحی شده. در این نوع اول به دادههای ورودی نویز نویز اضافه میشه و بعد به مدل داده میشن و مدل با حذف نویز، سعی میکنه دادههای ورودی اصلی رو بازسازی کنه.
اتوانکودرهای کانولوشنال مخصوصا برای دادههایی با توپولوژی شبکهای مثل تصاویر طراحی شدن. این مدلها از لایههای کانولوشن به جای لایههای کاملاً متصل استفاده میکنن تا ویژگیهای محلی دادهها رو بهتر یاد بگیرن و در نتیجه بازسازی دقیقتری از دادههای ورودی ارائه بدن.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8👌2👨💻1
رمزگذار بخشی از شبکهست که وظیفهی فشردهسازی دادههای ورودی رو به عهده داره. این بخش از شبکه تلاش میکنه تا ویژگیهای مهم و بنیادین دادهها رو درک کنه و اونها رو به یک بردار کوچکتر معروف به "کد" تبدیل کنه. کدگذارها به ما اجازه میدن که با دادههای کمتر، بیشتر ببینیم و درک کنیم.
رمزگذار معمولاً شامل چند لایهست که میتونه شامل لایههای کاملاً متصل (fully connected layers)، لایههای کانولوشنی (convolutional layers) یا حتی لایههای تکراری (recurrent layers) باشه.
هر لایه از نورونهایی تشکیل شده که وزنها و بایاسهای خاص خودشون رو دارن. این نورونها با گذروندن دادهها از توابع فعالساز خاص، به تدریج ویژگیهای مورد نیاز رو استخراج و کد میکنن.
در مدلهای پیشرفتهتر، رمزگذارها ممکنه از تکنیکهایی مثل رگولاریزاسیون (Regularization) برای جلوگیری از بیشبرازش استفاده کنن. علاوه بر این، میشه از خودرمزنگار متغیر (Variational Autoencoders) که مدلهای احتمالی هستن هم استفاده کرد تا یک توزیع احتمالی از دادهها رو در فضای کد مدلسازی کنن.
رمزگذارها کاربردهای زیادی از جمله کاهش بعد، حذف نویز از دادهها (denoising)، آموزش بدون نظارت و حتی تولید دادههای جدید دارن. این ابزارها به دلیل تواناییشون در درک و فشردهسازی دادهها، در از زمینههای پزشکی، تشخیص چهره و مالی استفاده دارن.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌5👍3❤2👨💻1
در این کد، یک کدگذار ساده در شبکههای خودرمزنگار با استفاده از کتابخانهی Keras و با هدف کاهش بعد دادههای تصویری پیادهسازی شده.
import numpy as np
from tensorflow.keras.layers import Input, Dense
from tensorflow.keras.models import Model
def build_autoencoder(input_dim, encoding_dim):
# تعریف ورودی
input_img = Input(shape=(input_dim,))
# لایهی کدگذار
encoded = Dense(encoding_dim, activation='relu')(input_img)
# لایهی کدگشا
decoded = Dense(input_dim, activation='sigmoid')(encoded)
# مدل خودرمزنگار کامل
autoencoder = Model(input_img, decoded)
# مدل کدگذار
encoder = Model(input_img, encoded)
# مدل کدگشا
# برای ساخت کدگشا به یک ورودی برای لایههای کدگشا نیاز داریم
encoded_input = Input(shape=(encoding_dim,))
decoder_layer = autoencoder.layers[-1]
decoder = Model(encoded_input, decoder_layer(encoded_input))
autoencoder.compile(optimizer='adam', loss='binary_crossentropy')
return autoencoder, encoder, decoder
# پارامترهای مدل
input_dim = 784 # مثلا برای تصاویر MNIST با ابعاد 28x28
encoding_dim = 32 # ابعاد فضای ویژگی که میخواهیم دادهها را به آن تبدیل کنیم
autoencoder, encoder, decoder = build_autoencoder(input_dim, encoding_dim)
autoencoder.summary()
encoder.summary()
decoder.summary()
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👌3❤1👨💻1
فضای پنهان در مفهوم خودرمزنگار، به بخشی از شبکه اشاره داره که دادههای ورودی رو به نمایشی فشردهتر تبدیل میکنه. این فضا معمولاً بین رمزگذار و رمزگشا قرار میگیره و محتوای اطلاعاتی مفید و مرتبط برای بازسازی دادهها رو در خودش جا میده. فضای پنهان نقش مهمی در یادگیری ویژگیهای معنادار دادهها داره و به عنوان یک نقطه فشرده سازی دادهها عمل میکنه.
این فضا میتونه کاربردهای مختلفی مثل کاهش بعد دادهها، دستهبندی، تشخیص ناهنجاری و یادگیری بدون نظارت داشته باشه و به عنوان یک نقطه مهم برای فهم و تحلیل دادهها عمل میکنه. همچنین اجازه میده تا الگوهای پیچیده و ساختارهای زیربنایی در دادهها شناسایی شن.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👌5👍3👨💻2
در نهایت، تعادل بین ظرفیت Latent Space و توانایی شبکه برای بازسازی دادهها، به دقت فرایند یادگیری و هدف نهایی مدل بستگی داره. انتخاب درست اندازه و ظرفیت این فضا به بهینهسازی عملکرد خودرمزنگار در کاربردهای مختلف کمک میکنه.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2👌1
رمزگشا بخشی از اتوانکودره که وظیفهی بازسازی دادههای ورودی رو از نمایش فشردهای که توسط رمزگذار ایجاد شده، به عهده داره. به طور ساده، اگه انکودر وظیفه فشردهسازی دادهها رو داره، دیکودر وظیفهی بازگرداندن اونها به حالت اصلی (یا نزدیک بهش) رو داره.
معماری دیکودر میتونه به شکلهای مختلفی باشه اما اغلب شامل لایههایی هست که عملکردی معکوس نسبت به لایههای انکودر دارن. این لایهها ممکنه شامل کانولوشن، لایههای کاملاً متصل و یا حتی لایههای نرمالسازی باشن.
عملکرد Decoder مستقیماً تحت تاثیر کیفیت نمایش ارائه شده توسط Encoder قرار داره. اگه نمایش فشرده دارای اطلاعات کافی و مرتبط با ویژگیهای دادههای ورودی باشه، رمزگشا میتونه بازسازی دقیقتری انجام بده. در نتیجه کیفیت آموزش Encoder روی عملکرد Decoder تاثیر مستقیم داره.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4👌3👨💻1
اتوانکدر از مفاهیم مهم حوزه یادگیری عمیقه که برای یادگیری ویژگیهای نهفته در دادهها و بازسازی اطلاعات با کاهش بعد به کار میره. این تکنولوژی بهخصوص در مواردی که نیاز به کاهش ابعاد دادهها با حفظ اطلاعات مهم وجود داره، کاربرد فراوانی داره.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👌3❤2👨💻1
یونت یک معماری شبکه عمیق برای تجزیه و تحلیل تصویره که اولین بار برای کاربردهای پزشکی، مثل تصویربرداری از بافتهای زیستی استفاده شد. این معماری توسط Olaf Ronneberger و همکارانش در سال 2015 ارائه شد و به سرعت به یکی از محبوبترین مدلها برای وظایف تقسیمبندی تصویر تبدیل شد.
معماری یونت شبیه به حرف "U" هست و به همین دلیل نام گذاریش به این صورته. این معماری از دو بخش اصلی تشکیل شده: کدگذار (Encoder) و کدگشا (Decoder).
یکی از ویژگیهای اصلی یونت، استفاده از اتصالات انتقالی بین لایههای متناظر کدگذار و کدگشاست. این اتصالات به اطلاعات موجود در کدگذار اجازه میدن تا مستقیماً به کدگشا منتقل شن، که باعث بهبود دقت بازسازی و کمک به حفظ جزئیات مکانی میشه.
رمزگشا در معماری یونت شروع به بازسازی تصویر از مجموعهای محدود از ویژگیهای پیچیده میکنه که توسط کدگذار فشرده شدن. در این فرآیند، هر مرحله شامل مراحل زیره:
این مراحل به طور متوالی تکرار میشن تا تصویر ورودی به طور کامل بازسازی شه. در نهایت، یک لایه کانولوشنی نهایی برای تولید خروجی نهایی که تقسیمبندی تصویره، استفاده میشه.
معماری یونت به دلیل توانایی در کار با تصاویری که نیاز به تحلیل دقیق و بازسازی جزئیات دارن، بسیار محبوبه و در بسیاری از زمینههای پژوهشی و کاربردی به کار رفته.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👌3👨💻1
درک ساختار U-Net به درک مفهوم AutoEncodrs کمک میکنه و در این ویدیو به بهونه بررسی مقاله U-Net، با فرآیند down/up sampling که در ساختار encode/decoder ها استفاده میشه آشنا خواهیم شد.
#Deep_Learning
#AutoEncoders
#YouTube
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
مقاله شبکه عصبی یونت | U-Net 2015
شبکههای عصبی کانولوشنی و بازگشتی خیلی ساختار متفاوتی دارند و تقریبا ربطی به هم ندارن. از یه جا با هم یک چیزی رو مشترک وارد ساختارهاشون کردن اون هم مفهوم autoencoders هست. CNNs ها با U-net این و RNNs ها با Transformers از ساختار AutoEncoders بهره بردن.
درک…
درک…
👍6❤2🔥1👌1
یکی از متداولترین کاربردهای خودرمزنگارها، کاهش بعد دادههاست. در دنیای واقعی، دادهها معمولا دارای بعد بالا هستن و پردازششون میتونه هم از نظر محاسباتی و هم از نظر زمانی هزینهبر باشه. خودرمزنگارها میتونن این دادهها رو به فضاهای کوچکتر و مدیریتپذیرتر تبدیل کنن.
خودرمزنگارهای دنویزینگ (Denoising AutoEncoders) به یادگیری نمایش دادهها به نحوی که نویز موجود در دادههای ورودی حذف شه، میپردازن. این تکنیک بسیار مفید در پیشپردازش دادهها برای سایر الگوریتمهای یادگیری ماشینه.
خودرمزنگارهای واریانسی (Variational AutoEncoders) یک نوع خاص از خودرمزنگارها هستن که میتونن برای تولید دادههای جدید استفاده شن. این خودرمزنگارها یک فضای پیوسته و هموار از دادهها رو فراهم میکنن که میشه ازش برای تولید نمونههای جدید با ویژگیهای مشابه به دادههای آموزش دیده استفاده کرد.
خودرمزنگارها میتونن برای تشخیص دادههایی که از الگوی عادی خارج هستن (ناهنجاریها) استفاده شن. این کاربرد در صنایع مختلف مثل تشخیص تقلب در تراکنشهای بانکی یا شناسایی خطاها در سیستمهای مکانیکی اهمیت داره.
اخیراً، تکنیکهای پیشرفتهتری در زمینه خودرمزنگارها توسعه پیدا کردن. برای مثال، خودرمزنگارهای توزیع شده که میتونن به طور همزمان روی چند سرور یا دستگاه پردازش دادهها رو انجام بدن و برای دادههای بزرگمقیاس بسیار مفیدن.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👌3👍2👨💻1
معماری U-Net بهعنوان یکی از معماریهای برجسته در پردازش و بخشبندی تصاویر در علوم کامپیوتر شناخته شده و در حوزههایی که دادههای محدودی در دسترس هستن، تحولی بزرگی ایجاد کرده.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤2👏1
اتوانکدرهای متغیر (VAEs) امکان استخراج الگوها و معانی سادهتر از دادههای نویزدار رو فراهم میکنن، و رویکرد جدیدی در تفسیر اطلاعات ارائه میدن.
#Deep_Learning
#AutoEncoders
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👏1👌1