تعبیه برداری متناظر نوعی روش پیشرفته در پردازش زبان طبیعیه که به مدلها امکان میده تا بردارهای کلمات رو بر اساس متنی که در اون وجود دارن، شکل بدن. این روش، بر خلاف روشهای قدیمیتر که در اونها بردار هر کلمه ثابت و مستقل از متن بود، بر پایه درک متن و زمینه (context-aware) کار میکنه.
مدل BERT یکی از پیشگامان در استفاده از Embedding متناظره که با استفاده از مکانیزمهای توجه دوجهته، توانایی درک زمینه کلمات رو از هر دو جهت (چپ و راست) فراهم میکنه و در زمینه فهم ماشین از زبان طبیعی، اساس بسیاری از دستآوردهاست.
مدل GPT، که از خانواده ترنسفورمرهاست، یک مدل مولده و برای تولید متن به کار میره. این مدل هم به صورت متناظر، بردارهای کلمه رو با توجه به زمینه موجود و با تمرکز روی تولید متن جدید و خلاق میسازه.
#Deep_Learning
#Word_Embedding_Methods
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3👌2
❓کوییز شماره ۱۲۴: مدل BERT چطور از دو سمت متن (چپ و راست) برای فهم بهتر معنی کلمات استفاده میکنه؟
Anonymous Quiz
17%
تنها از کلمات قبل از کلمه هدف استفاده میکنه.
39%
با ایجاد تعبیهسازی که کل متن رو در نظر میگیره.
26%
با استفاده از ترتیب کلمات بدون توجه به متن اطراف.
17%
از طریق یک سیستم که تنها به بخشهای مشخصی از متن توجه داره.
👍3🤔3😎3❤1
این ویدئو یوتیوب خیلی ساده توضیح میده که تعبیه برداری لغت چیه و چطور با مدل از پیش آموزش دیده BERT این کار رو انجام بدیم.
#Deep_Learning
#Word_Embedding_Methods
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Understanding BERT Embeddings and Tokenization | NLP | HuggingFace| Data Science | Machine Learning
🔥🐍 Checkout the MASSIVELY UPGRADED 2nd Edition of my Book (with 1300+ pages of Dense Python Knowledge) Covering 350+ Python 🐍 Core concepts
🟠 Book Link - https://rohanpaul.gumroad.com/l/python-core-with-under-the-hood-explanations
---------------------…
🟠 Book Link - https://rohanpaul.gumroad.com/l/python-core-with-under-the-hood-explanations
---------------------…
👍5❤3👌1👨💻1
#Deep_Learning
#Word_Embedding_Methods
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1👌1👨💻1
❓کوییز شماره ۱۲۵: کدوم یک از موارد زیر به عنوان مزیت اصلی و کدوم یک به عنوان محدودیت اصلی استفاده از تعبیه برداری لغت در پردازش زبان طبیعی هست؟
Anonymous Quiz
56%
کاهش نیاز به حافظه محاسباتی - توانایی پایین در درک زبانهای کمتر توسعه یافته
11%
تسریع در زمان پردازش دادهها - افزایش خطر نقض حریم خصوصی کاربران
22%
درک بهتر مفاهیم و روابط معنایی بین کلمات - نیاز به دادههای آموزشی زیاد برای دقت مناسب
11%
سادهسازی الگوریتمها و کد - هزینه بالای تهیه و نگهداری سختافزار مورد نیاز
👍5❤2🤔2😎1
پردازش زبانهای طبیعی (NLP) یکی از شاخههای هوش مصنوعیه که به کامپیوترها این توانایی رو میده متنها و گفتار انسانی رو درک کنن. از ترجمه خودکار گرفته تا تجزیه و تحلیل احساسات و پاسخگویی به سؤالات، NLP نقش مهمی در توسعه تعامل بین انسان و ماشین داره.
به عنوان جمعبندی مبحث روشهای تعبیه برداری لغات یا Word Embedding، پیشنهاد میکنم این پلیلیست رو مشاهده کنین.
#YouTube
#Deep_Learning
#Word_Embedding_Methods
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3👨💻1
#Weekend
#Deep_Learning
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3🔥1
Forwarded from رضا شکرزاد - علمداده و هوش مصنوعی
وبینار رزومه، اپلای و مصاحبه شغلی دیتاساینس به شما کمک میکنه تا با اصول نوشتن رزومهای قوی، استراتژیهای مؤثر برای اپلای و روشهای موفقیت در مصاحبههای شغلی آشنا شین.
وبینار ماشین لرنینگ ۲۰۲۴، با تمرکز روی جدیدترین پیشرفتها و روندهای ماشین لرنینگ در سال جاری، دیدگاهی نوآورانه به شما میده و برای برنامهریزی و پیشبرد پروژههای مرتبط با ماشین لرنینگ کارآمده.
در نهایت، وبینار نقشه راه ورود به دیتاساینس و ماشین لرنینگ به شما امکان میده تا با مبانی، ابزارها و مهارتهای لازم برای شروع در این حوزهها آشنا شین.
برای مطالعه سرفصلها و دریافت جزئیات بیشتر، روی لینک زیر کلیک کنین.
@DSLanders | دیاسلندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3🔥1👏1
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🔥1
ترنسفورمرها برای اولین بار در مقالهای با عنوان "Attention is All You Need" در سال 2017 معرفی شدن و یک پیشرفت بزرگ در زمینهی یادگیری عمیق و پردازش زبان طبیعی (NLP) هستن.
قبل از ترنسفورمر، بیشتر مدلهای پردازش زبان طبیعی بر اساس شبکههای عصبی بازگشتی (RNN) و نسخههایی مثل LSTM و GRU ساخته شده بودن. این مدلها در درک زمانها و ساختارهای طولانی متن موفق عمل میکردن اما با دو مشکل بزرگ داشتن:
ایدهی اصلی ترنسفورمر بر پایهی حل مشکلات مربوط به مدلهای RNN و بهبود کارایی و سرعت آموزش در پردازش زبان طبیعی بود. این معماری جدید دو اصل مهم داره:
معماری ترنسفورمر دو بخش اصلی داره:
هر کدگذار و کدگشا شامل چند لایهست که هر لایه شامل دو بخش اصلیه: Multi-Head Attention و یک Feed Forward Neural Network.
از ترنسفورمرها در ساخت مدلهای پیشرفتهتری مثل BERT، GPT و T5 استفاده شده که در وظایف مختلف NLP مثل ترجمهی ماشینی، خلاصهسازی متن و تولید متن کاربرد دارن.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3👌3❤1👨💻1
❓کوییز شماره ۱۲۶: مکانیزم Multi-Head Attention در ترنسفورمرها چه مزیت اصلی رو ارائه میده؟
Anonymous Quiz
20%
بهبود قابلیت تفسیرپذیری مدل
70%
توانایی مدلسازی روابط پیچیده در دادهها از طریق دیدگاههای متفاوت
10%
کاهش میزان حافظه مورد نیاز برای آموزش
👍3😎2🤔1
مدل BERT یه مدل زبانی بزرگه که بر اساس مدل ترنسفورمر (Transformer) شکل گرفته و با ظهورش انقلابی رو در حوزه پردازش زبان طبیعی ایجاد کرده! این مدل انقدر خوب و کاربردیه که گوگل ازش در سیستم سرچ خودش استفاده میکنه.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2👨💻2
در مدلهای ترانسفورمر، تعبیه ورودی (Input Embedding) یکی از اصول اساسی برای تبدیل دادههای ورودی به نمایشهای قابل پردازش توسط شبکه عصبیه. این روش به مدل امکان میده تا اطلاعات واژگان رو در قالب بردارهایی از اعداد نمایش بده.
تعبیه ورودی (Input Embedding) به فرایند تبدیل کلمات یا واحدهای متنی دیگه به بردارهای چگال از اعداد گفته میشه. هر بردار نشون دهنده ویژگیهای ذاتی هر کلمهست که میتونه شامل معنی کلمه، نقش دستوری، و همچنین ارتباطات معنایی با کلمات دیگه باشه. این بردارها در فضای برداری میتونن به نحوی تنظیم شن که کلمات با معانی نزدیک به همدیگه، نزدیک به هم قرار بگیرن.
در مدلهای ترانسفورمر، فرایند تعبیه شامل چند مرحله مهمه:
در راستای بهبود کیفیت تعبیهها، محققان روشهای مختلفی رو مثل استفاده از تعبیههای پیشآموزش دیده یا تعدیل تعبیهها بر اساس متن زمینهای آزمایش کردن. این رویکردها به مدل کمک میکنن تا درک عمیقتری از متن به دست بیاره و به طور کلی عملکرد مدل رو افزایش بده.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3👨💻1
❓کوییز شماره ۱۲۷: کدوم تکنیک برای بهبود کیفیت تعبیههای ورودی در ترانسفورمرها استفاده نمیشه؟
Anonymous Quiz
25%
افزایش ابعاد بردار تعبیه برای به دست آوردن دقت بیشتر در نمایش ویژگیهای کلمات.
29%
استفاده از مکانیزم توجه برای وزندهی متفاوت به کلمات بر اساس اهمیتشون در جمله.
11%
کاهش اندازه کلمات برای جلوگیری از پیچیدگیهای محاسباتی و بهبود سرعت آموزش.
36%
تعبیه کلمات بر اساس ترتیب الفباییشون برای آسونتر کردن پردازشهای بعدی.
😎4🤔3👨💻2❤1
برای آشنایی با معماری ترنسفورمر، رمزگذار دوطرفه مدل BERT و وظایف مختلفی که این مدل براشون استفاده میشه، این ویدیو که توسط گوگل تهیه شده رو میتونین تماشا کنین.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Transformer models and BERT model: Overview
Watch this video to learn about the Transformer architecture and the Bidirectional Encoder Representations from Transformers (BERT) model. You learn about the main components of the Transformer architecture, and the different tasks that BERT can be used for…
👍6❤3👌1
تعبیه موقعیتی، روشی برای ذخیره اطلاعات مربوط به جایگاه یا موقعیت هر عنصر در توالی دادههاست. این روش به مدل کمک میکنه تا تفاوت بین دادهها در موقعیتهای مختلف توالی رو تشخیص بده، که این کار برای فهم ساختار و معنی کلی توالی ضروریه.
در مدلهای شبکه عصبی که با توالیها کار میکنن، مثل RNN و LSTM، وجود مکانیزمی برای درک ترتیب دادهها لازمه. بدون این مکانیزم، مدل نمیتونه تفاوت معنایی تغییر ترتیب کلمات در یک جمله رو تشخیص بده.
برای مثال، جملات "من به مدرسه رفتم" و "مدرسه به من رفت" از نظر دستوری و معنایی کاملاً متفاوت هستن، ولی بدون در نظر گرفتن ترتیب، هر دو جمله میتونن به طور یکسان تفسیر شن.
این روش بیشتر در مدلهای ترنسفورمر به کار میره. در این روش، برای هر موقعیت در توالی، یک بردار تعبیه منحصر به فرد از پیش تعریف شده وجود داره.
این بردارها معمولاً با استفاده از توابع مثلثاتی سینوس و کسینوس ساخته میشن که به این ترتیب امکان مقایسه موقعیتهای مختلف فراهم میشه.
در این روش که در برخی از پیکربندیهای جدیدتر مدلهای عصبی به کار رفته، بردار تعبیه موقعیتی به طور خودکار توسط مدل در طول فرآیند یادگیری تنظیم و بهینه میشه. این روش انعطافپذیری بیشتری به مدل میده تا بتونه ویژگیهای منحصر به فرد توالی رو در نظر بگیره.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5👨💻1
❓کوییز شماره ۱۲۸: در تعبیه موقعیتی استفاده شده در مدل ترنسفورمر، چرا از توابع مثلثاتی سینوس و کسینوس استفاده میشه؟
Anonymous Quiz
19%
برای جلوگیری از بیشبرازش دادهها در مدل
26%
به منظور کاهش پیچیدگی محاسباتی مدل
52%
برای امکان تفکیک و تشخیص موقعیتهای متفاوت در توالی
3%
به منظور افزایش سرعت آموزش مدل
👍3😎3❤1🤔1
مکانیزم توجه (Attention Mechanism) به مدلها این امکان رو میده که وزندهی به اطلاعات مختلف در یک داده بزرگ به صورت پویا انجام شه.
این تصویر دو مفهوم مهم مورد استفاده در ترنسفورمرها رو نشون میده: توجه حاصلضرب نقطهای مقیاسشده (Scaled Dot-Product Attention) و Multi-Head Attention. این مکانیسمها زیر بنای پردازش زبان طبیعی هستن.
در سمت چپ تصویر، ساختار این نوع توجه که از سه بخش اصلی تشکیل شده، نشون داده شده:
- بخش MatMul: این مرحله، حاصلضرب نقطهای (dot product) بین کوئریها (Q) و کلیدها (K) رو با هدف تعیین میزان توجهی که باید به هر مقدار (V) اختصاص پیدا کنه، حساب میکنه.
- بخش Scale: حاصلضرب نقطهای مقیاسبندی شده، با تقسیم به ریشه تعداد بعدها کاهش پیدا میکنه تا از بزرگ شدن بیش از حد ارقام در طول آموزش جلوگیری شه.
- بخش SoftMax: تابع SoftMax روی نتایج مقیاسشده اعمال میشه تا اطمینان حاصل شه که مقادیر وزندهی شده برای هر کلید بین 0 و 1 هستن و مجموعشون برابر با 1 هست. این مرحله مشخص میکنه که چه مقدار توجه به هر مقدار اختصاص پیدا کنه.
این مکانیسم که در سمت راست تصویر هست، ممکن میکنه که مدل در طول پردازش از دیدگاههای متفاوت به دادهها نگاه کنه.
برای هر Head Attention، یک تبدیل خطی روی ویژگیهای ورودی اعمال میشه تا کوئریها، کلیدها و مقادیر جدید ایجاد شن و Scaled Dot-Product Attention به صورت مستقل محاسبه میشه. با Concat خروجیهای حاصل از Head Attention کنار هم قرار میگیرن. درنهایت Linear Layer روی خروجی ترکیب شده اعمال میشه تا خروجی نهایی برای ترانسفورمر ایجاد شه.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3👌3👨💻1
❓کوییز شماره ۱۲۹: کدوم عبارت دقیقاً توضیح میده که چطور وزنها در مکانیسم توجه محاسبه میشن؟
Anonymous Quiz
24%
وزنها با استفاده از تابع فعالسازی ReLu محاسبه میشه.
45%
وزنها با استفاده از تابع SoftMax روی امتیازات حاصل از حاصلضرب داخلی کوئریها و کلیدها محاسبه میشن.
24%
وزنها توسط یک شبکه عصبی پیچیده محاسبه و بهروزرسانی میشن.
7%
وزنها با استفاده از یک الگوریتم ژنتیک تعیین میشن.
😎4❤2👍2🤔2
کوئریها یا پرسشها، بردارهایی هستن که نشوندهندهی ویژگیهای درخواستشده توسط مدل برای جستجو در بین دادهها هستن. در واقع، کوئری عملکردی شبیه به یک سوال رو داره که جوابش از بین کلیدها و مقادیر به دست میاد.
در مدل ترنسفورمر، کوئریها از طریق تبدیلات خطی روی ورودیها تولید میشن و برای تعیین میزان اهمیت و ارتباط هر بخش از دادهها به کار میرن.
کلیدها هم بردارهایی هستن که با کوئریها مقایسه میشن تا میزان ارتباط یا تطابقشون با هر کوئری سنجیده شه. هر کلید به طور خاص به یک قسمت از دادههای ورودی مرتبطه و وظیفه داره که این ارتباط رو در قالب یک امتیاز عددی به کوئری برگردونه. این امتیازات در مرحله بعد برای تعیین وزنهای توجه استفاده میشن.
بردارهای مقدار به عنوان بخشی از ساختار دادهها در مدلهای توجه (Attention) عمل میکنن که اطلاعات مورد نظر برای پاسخ به کوئریها رو در اختیار مدل قرار میدن.
بعد از اینکه کوئریها و کلیدها از طریق امتیازدهی متقابل و مقیاسبندی، وزنهای توجه رو تعیین میکنن، بردارهای مقدار بر اساس این وزنها ترکیب میشن تا خروجی نهایی مدل رو تشکیل بدن.
این فرآیند به مدل اجازه میده تا اطلاعات مرتبط با درخواستهای مشخص رو از بین حجم زیادی از دادهها استخراج و به کار ببرن. در واقع، مقدارها شامل دادههایی هستن که باید به دلیل اهمیتشون در پاسخ به کوئریهای خاص، مورد توجه قرار بگیرن.
#Deep_Learning
#Transformers
@Data_ML | دیتاساینس و ماشین لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3👌3👏1