Media is too big
VIEW IN TELEGRAM
💡 دورهی جامع LLM (مدلهای زبانی بزرگ)
مدرس: علیرضا اخوانپور
📅 زمان انتشار: به زودی…
📍 منتشر میشود توسط کلاسویژن در مکتبخونه
🔥 برای اطلاع از انتشار و دریافت کد تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
#llm #course #دوره #مدل_زبانی_بزرگ #هوش_مصنوعی #مکتبخونه
مدرس: علیرضا اخوانپور
📅 زمان انتشار: به زودی…
📍 منتشر میشود توسط کلاسویژن در مکتبخونه
🔥 برای اطلاع از انتشار و دریافت کد تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
#llm #course #دوره #مدل_زبانی_بزرگ #هوش_مصنوعی #مکتبخونه
👍8❤1
📚 فصل 1: آشنایی با مدلهای زبانی بزرگ و چرخه عمر پروژه
در این فصل، با مفاهیم پایهای LLMها آشنا میشیم. یاد میگیریم چطور این مدلها کار میکنن، چه کاربردهایی دارن، چطور متن تولید میکنن و چطور پروژههای مبتنی بر هوش مصنوعی مولد رو مدیریت کنیم. همچنین با Hugging Face و Google Colab کار میکنیم.
سرفصلهای این فصل:
#مدل_زبانی_بزرگ
در این فصل، با مفاهیم پایهای LLMها آشنا میشیم. یاد میگیریم چطور این مدلها کار میکنن، چه کاربردهایی دارن، چطور متن تولید میکنن و چطور پروژههای مبتنی بر هوش مصنوعی مولد رو مدیریت کنیم. همچنین با Hugging Face و Google Colab کار میکنیم.
سرفصلهای این فصل:
هوش مصنوعی مولد و مدلهای زبانی بزرگ (Generative AI & Large Language Models)
موارد استفاده و وظایف (Use cases & tasks)
نحوه کار مدلهای زبانی بزرگ - معماری ترنسفورمرها (How LLMs work - Transformers architecture)
ترنسفورمرها - بخش 1 (Transformers - part1)
ترنسفورمرها - بخش 2 (Transformers - part2)
تولید متن با ترنسفورمرها (Generating text with transformers)
پرامپت (پرسشدهی) و مهندسی پرامپ (Prompting and prompt engineering)
پارامترهای پیکربندی تولیدی برای استنتاج - بخش 1 (Generative configuration parameters for inference - part 1)
پارامترهای پیکربندی تولیدی برای استنتاج - بخش 2 (Generative configuration parameters for inference - part 2)
شروع کار با LLM در Google Colab: از Hugging Face تا آمادهسازی دیتاست (Getting Started with LLMs in Google Colab: From Hugging Face to Dataset Preparation)
مفهوم Tokenization و اجرای Zero-Shot مدل (Tokenization and Zero-Shot Inference with LLMs)
پروژه خلاصهسازی در پایتون: از Zero تا Few-Shot با LLM و In-Context Learning (Summarization Project in Python: Zero to Few-Shot with LLMs and In-Context Learning)
چرخه حیات پروژه هوش مصنوعی مولد (Generative AI project lifecycle)
#مدل_زبانی_بزرگ
🔥4👍1
🧠 فصل 2: پیشآموزش مدلهای زبانی و قوانین مقیاسپذیری
تو این فصل میفهمیم مدلهای زبانی چطور آموزش میبینن، با چه اهدافی ساخته میشن و چه محدودیتهای محاسباتی دارن. به بحث کوانتیزیشن، قوانین مقیاسپذیری و استراتژیهای چند GPU هم میپردازیم.
سرفصلهای این فصل:
#مدل_زبانی_بزرگ
تو این فصل میفهمیم مدلهای زبانی چطور آموزش میبینن، با چه اهدافی ساخته میشن و چه محدودیتهای محاسباتی دارن. به بحث کوانتیزیشن، قوانین مقیاسپذیری و استراتژیهای چند GPU هم میپردازیم.
سرفصلهای این فصل:
ملاحظات برای انتخاب مدل (Considerations for Model Selection)
معماریهای مدل و اهداف پیشآموزش (Model architectures and pre-training objectives)
مدلهای فقط خودرمزگذار (Encoder Only Models)
مدلهای فقط رمزگشا (Decoder Only Models)
مدلهای توالی به توالی (مدلهای رمزگذار-رمزگشا) (Sequence-to-sequence (Encoder-Decoder Models))
رابطه اندازه مدل و دقت (How Model Size Affects Accuracy)
چالشهای محاسباتی و کوانتیزیشن (Computational challenges & Quantization)
استراتژیهای محاسباتی کارآمد با چند پزدازنده گرافیکی - بخش 1 (DDP) (Efficient Multi-GPU Compute Strategies part1 (DDP))
استراتژیهای محاسباتی کارآمد با چند پزدازنده گرافیکی - بخش 2 (FSDP) (Efficient Multi-GPU Compute Strategies part2 (FSDP))
قوانین مقیاسپذیری و مدلهای بهینه از نظر محاسباتی (Scaling laws and compute-optimal models)
قانون Chinchilla و استثناها: نقش اندازه مدل و داده در عملکرد (The Chinchilla Law and Its Exceptions: The Role of Model Size and Data in Performance)
پیشآموزش برای انطباق دامنه (Pre-training for domain adaptation)
#مدل_زبانی_بزرگ
🔥4