✍️ توضیح عملکرد متد های پایتون:
دستور append(item)— افزودن یک عنصر به انتهای لیست.
دستور remove(item) — حذف اولین مورد از یک مقدار خاص.
دستور insert(index, item) — قرار دادن یک عنصر در موقعیت خاصی در لیست. → زمانی که ترتیب عناصر حیاتی است، کاربرد دارد.
دستور pop([index]) — حذف و بازگشت یک عنصر با استفاده از اندیس آن. → معمولاً با append() در الگوریتمهای مبتنی بر پشته همراه است.
دستور count(item) — تعداد دفعاتی که یک مقدار در لیست ظاهر میشود را برمیگرداند.
دستور index(item[, start[, end]]) — اولین موقعیت یک مقدار را پیدا میکند. → ضروری برای پیادهسازی جستجو یا منطق اعتبارسنجی.
دستور sort(key=None, reverse=False)— مرتبسازی عناصر در محل، با قوانین سفارشی اختیاری.
دستور reverse() — ترتیب لیست را معکوس میکند. → معمولاً در مکانیزمهای لغو یا ویژگیهای بازگشت استفاده میشود.
دستور copy() — یک کپی سطحی از لیست ایجاد میکند. → از تغییرات ناخواسته هنگام انتقال لیستها بین توابع جلوگیری میکند.
دستور clear() — لیست را بهطور کامل خالی میکند. → ایدهآل برای بازنشانی ذخیرهسازی موقت یا ساختارهای کش.
دستور append(item)— افزودن یک عنصر به انتهای لیست.
دستور remove(item) — حذف اولین مورد از یک مقدار خاص.
دستور insert(index, item) — قرار دادن یک عنصر در موقعیت خاصی در لیست. → زمانی که ترتیب عناصر حیاتی است، کاربرد دارد.
دستور pop([index]) — حذف و بازگشت یک عنصر با استفاده از اندیس آن. → معمولاً با append() در الگوریتمهای مبتنی بر پشته همراه است.
دستور count(item) — تعداد دفعاتی که یک مقدار در لیست ظاهر میشود را برمیگرداند.
دستور index(item[, start[, end]]) — اولین موقعیت یک مقدار را پیدا میکند. → ضروری برای پیادهسازی جستجو یا منطق اعتبارسنجی.
دستور sort(key=None, reverse=False)— مرتبسازی عناصر در محل، با قوانین سفارشی اختیاری.
دستور reverse() — ترتیب لیست را معکوس میکند. → معمولاً در مکانیزمهای لغو یا ویژگیهای بازگشت استفاده میشود.
دستور copy() — یک کپی سطحی از لیست ایجاد میکند. → از تغییرات ناخواسته هنگام انتقال لیستها بین توابع جلوگیری میکند.
دستور clear() — لیست را بهطور کامل خالی میکند. → ایدهآل برای بازنشانی ذخیرهسازی موقت یا ساختارهای کش.
👍2
✅ مراحل ساده برای کار با Git:
1. وضعیت اولیه
- یک مخزن راه دور دارید که شامل فایل README.md است.
- در ماشین محلی هیچ فایل پروژهای وجود ندارد.
2. دستور
- کل مخزن راه دور به ماشین محلی کپی میشود.
- یک مخزن محلی متصل به مخزن راه دور ایجاد میشود.
3. ایجاد یک فایل جدید
- فایلی به نام
در دایرکتوری کاری محلی ایجاد میکنید.
- این فایل در حالت untracked قرار دارد.
4. دستور
- تمام تغییرات در دایرکتوری کاری برای ثبت در commit بعدی آماده میشوند.
5. دستور
- تغییرات آماده شده ثبت میشوند و یک commit جدید ایجاد میشود.
6. دستور
-د commit های محلی به مخزن راه دور بارگذاری میشوند.
1. وضعیت اولیه
- یک مخزن راه دور دارید که شامل فایل README.md است.
- در ماشین محلی هیچ فایل پروژهای وجود ندارد.
2. دستور
git clone <repository>
- کل مخزن راه دور به ماشین محلی کپی میشود.
- یک مخزن محلی متصل به مخزن راه دور ایجاد میشود.
3. ایجاد یک فایل جدید
- فایلی به نام
newfile.txt
در دایرکتوری کاری محلی ایجاد میکنید.
- این فایل در حالت untracked قرار دارد.
4. دستور
git add .
- تمام تغییرات در دایرکتوری کاری برای ثبت در commit بعدی آماده میشوند.
5. دستور
git commit -m "<message>"
- تغییرات آماده شده ثبت میشوند و یک commit جدید ایجاد میشود.
6. دستور
git push
-د commit های محلی به مخزن راه دور بارگذاری میشوند.
👍4
💎 اهمیت کاربرد XGBoost:
همانطور که میدونید XGBoost یکی از قدرتمندترین الگوریتمها در یادگیری ماشین است که به دلیل ویژگیهای خاص خود در بسیاری از مسائل کاربرد دارد. برخی از مهمترین مزایای XGBoost عبارتند از:
1. دقت بالا:
-ا XGBoost به دلیل استفاده از ,تقویت مدلهای ضعیف (Weak Learners) و ترکیب آنها ، قادر است دقت پیشبینیهای خود را به طور چشمگیری افزایش دهد. این ویژگی باعث میشود که این الگوریتم در بسیاری از مسائل پیچیده یادگیری ماشین بسیار موفق باشد.
2.قابلیت استفاده در مسائل مختلف:
- این الگوریتم در انواع مسائل یادگیری ماشین ماننددستهبندی (classification)، رگرسیون (regression)، و حتی مسائل متوالی (ranking)کاربرد دارد. همچنین، میتواند برای دادههای ساختاریافته و غیرساختاریافته استفاده شود.
3. پشتیبانی از دادههای گمشده:
-ا XGBoost به طور خودکار میتواند با دادههای گمشده (missing values) کنار بیاید و این یکی از ویژگیهای قدرتمند این الگوریتم است که آن را برای استفاده در دنیای واقعی مناسب میسازد.
4. سرعت و کارایی بالا:
-ا XGBoost از پردازش موازی (parallel processing) و بهینهسازیهای خاص برای افزایش سرعت آموزش مدل استفاده میکند. این الگوریتم در پروژههای بزرگ و پیچیده که نیاز به محاسبات سنگین دارند، عملکرد بسیار خوبی از خود نشان میدهد.
5.مقاومت در برابر overfitting:
-ا XGBoost از منظمسازی (regularization) برای کنترل پیچیدگی مدل و جلوگیری از بیشبرازش (overfitting) استفاده میکند. این ویژگی در مشکلات با دادههای نویزی و پراکنده بسیار مفید است.
6. قابلیت تنظیم پارامترها:
-ا XGBoost به شما این امکان را میدهد که پارامترهای مختلف مدل را برای بهینهسازی عملکرد تنظیم کنید. این انعطافپذیری به شما کمک میکند تا بهترین مدل را برای دادهها و مسئله خود بسازید.
🔍مضرات و چالشها:
با وجود مزایای متعدد، XGBoost نیز دارای برخی محدودیتها و چالشها است که باید در نظر گرفته شوند:
1. پیچیدگی تنظیم پارامترها:
- یکی از بزرگترین چالشها در استفاده از XGBoost، تنظیم و بهینهسازی پارامترهای مدلاست. این الگوریتم دارای تعداد زیادی پارامتر است که هرکدام تأثیر زیادی بر عملکرد مدل دارند. بهینهسازی این پارامترها نیازمند تجربه و زمان زیادی است، به خصوص اگر دادهها پیچیده باشند.
2. زمان آموزش بالا در دادههای بسیار بزرگ:
- در حالی که XGBoost برای دادههای بزرگ بهینهسازیهایی مانند پردازش موازی دارد، زمان آموزش آن میتواند در مجموعه دادههای بسیار بزرگ یا پیچیده افزایش یابد. حتی با وجود بهینهسازیهای موجود، این الگوریتم ممکن است برای دادههای خیلی حجیم نیاز به منابع محاسباتی زیادی داشته باشد.
3. حساسیت به دادههای از هم گسیخته (Imbalanced Data):
- اگر دادهها آماری نامتوازن (imbalanced) داشته باشند، XGBoost ممکن است به درستی به کلاسهای با نمونههای کمتر توجه نکند. اگرچه تکنیکهایی برای مقابله با این مسئله وجود دارد، اما همچنان نیاز به دقت و تنظیم دقیق مدل است.
4. نیاز به حافظه بالا:
-ا XGBoost به دلیل استفاده از درختهای تصمیم و نیاز به ذخیرهسازی دادهها و ویژگیها، میتواند حافظه زیادی مصرف کند. این مشکل به ویژه در دادههای بزرگ یا پیچیدهتر برجستهتر میشود.
5. عدم تفسیرپذیری:
- مانند بسیاری از مدلهای مبتنی بر درختهای تصمیم، XGBoost میتواند به مدلی پیچیده و غیرشفاف تبدیل شود. این یعنی اینکه تفسیر اینکه چرا مدل به پیشبینی خاصی رسیده است، ممکن است دشوار باشد. این موضوع در کاربردهایی که نیاز به تفسیر دقیق تصمیمات مدل دارند (مانند پزشکی یا امور مالی) چالشبرانگیز است.
6. نیاز به تنظیم دقیق برای استفاده در مسائل خاص:
- در برخی مسائل خاص، مانند دادههای با ویژگیهای گسسته (categorical features) یا دنبالهای، ممکن است XGBoost به اندازه مدلهای خاص آن مسائل مانند شبکههای عصبی یا LSTM بهینه نباشد. در این مواقع، ممکن است الگوریتمهای دیگر عملکرد بهتری ارائه دهند.
نتیجهگیری
پس XGBoost به دلیل دقت بالا، کارایی و انعطافپذیری در بسیاری از مسائل یادگیری ماشین موفق است. با این حال، چالشهایی مانند نیاز به تنظیم دقیق پارامترها و زمان آموزش بالا در دادههای بزرگ، به کاربر این امکان را میدهد که در انتخاب الگوریتم مناسب برای مسائل خاص دقت بیشتری داشته باشد.
لینک داکیومنتشن:
🔗https://xgboost.readthedocs.io/en/stable/
همانطور که میدونید XGBoost یکی از قدرتمندترین الگوریتمها در یادگیری ماشین است که به دلیل ویژگیهای خاص خود در بسیاری از مسائل کاربرد دارد. برخی از مهمترین مزایای XGBoost عبارتند از:
1. دقت بالا:
-ا XGBoost به دلیل استفاده از ,تقویت مدلهای ضعیف (Weak Learners) و ترکیب آنها ، قادر است دقت پیشبینیهای خود را به طور چشمگیری افزایش دهد. این ویژگی باعث میشود که این الگوریتم در بسیاری از مسائل پیچیده یادگیری ماشین بسیار موفق باشد.
2.قابلیت استفاده در مسائل مختلف:
- این الگوریتم در انواع مسائل یادگیری ماشین ماننددستهبندی (classification)، رگرسیون (regression)، و حتی مسائل متوالی (ranking)کاربرد دارد. همچنین، میتواند برای دادههای ساختاریافته و غیرساختاریافته استفاده شود.
3. پشتیبانی از دادههای گمشده:
-ا XGBoost به طور خودکار میتواند با دادههای گمشده (missing values) کنار بیاید و این یکی از ویژگیهای قدرتمند این الگوریتم است که آن را برای استفاده در دنیای واقعی مناسب میسازد.
4. سرعت و کارایی بالا:
-ا XGBoost از پردازش موازی (parallel processing) و بهینهسازیهای خاص برای افزایش سرعت آموزش مدل استفاده میکند. این الگوریتم در پروژههای بزرگ و پیچیده که نیاز به محاسبات سنگین دارند، عملکرد بسیار خوبی از خود نشان میدهد.
5.مقاومت در برابر overfitting:
-ا XGBoost از منظمسازی (regularization) برای کنترل پیچیدگی مدل و جلوگیری از بیشبرازش (overfitting) استفاده میکند. این ویژگی در مشکلات با دادههای نویزی و پراکنده بسیار مفید است.
6. قابلیت تنظیم پارامترها:
-ا XGBoost به شما این امکان را میدهد که پارامترهای مختلف مدل را برای بهینهسازی عملکرد تنظیم کنید. این انعطافپذیری به شما کمک میکند تا بهترین مدل را برای دادهها و مسئله خود بسازید.
🔍مضرات و چالشها:
با وجود مزایای متعدد، XGBoost نیز دارای برخی محدودیتها و چالشها است که باید در نظر گرفته شوند:
1. پیچیدگی تنظیم پارامترها:
- یکی از بزرگترین چالشها در استفاده از XGBoost، تنظیم و بهینهسازی پارامترهای مدلاست. این الگوریتم دارای تعداد زیادی پارامتر است که هرکدام تأثیر زیادی بر عملکرد مدل دارند. بهینهسازی این پارامترها نیازمند تجربه و زمان زیادی است، به خصوص اگر دادهها پیچیده باشند.
2. زمان آموزش بالا در دادههای بسیار بزرگ:
- در حالی که XGBoost برای دادههای بزرگ بهینهسازیهایی مانند پردازش موازی دارد، زمان آموزش آن میتواند در مجموعه دادههای بسیار بزرگ یا پیچیده افزایش یابد. حتی با وجود بهینهسازیهای موجود، این الگوریتم ممکن است برای دادههای خیلی حجیم نیاز به منابع محاسباتی زیادی داشته باشد.
3. حساسیت به دادههای از هم گسیخته (Imbalanced Data):
- اگر دادهها آماری نامتوازن (imbalanced) داشته باشند، XGBoost ممکن است به درستی به کلاسهای با نمونههای کمتر توجه نکند. اگرچه تکنیکهایی برای مقابله با این مسئله وجود دارد، اما همچنان نیاز به دقت و تنظیم دقیق مدل است.
4. نیاز به حافظه بالا:
-ا XGBoost به دلیل استفاده از درختهای تصمیم و نیاز به ذخیرهسازی دادهها و ویژگیها، میتواند حافظه زیادی مصرف کند. این مشکل به ویژه در دادههای بزرگ یا پیچیدهتر برجستهتر میشود.
5. عدم تفسیرپذیری:
- مانند بسیاری از مدلهای مبتنی بر درختهای تصمیم، XGBoost میتواند به مدلی پیچیده و غیرشفاف تبدیل شود. این یعنی اینکه تفسیر اینکه چرا مدل به پیشبینی خاصی رسیده است، ممکن است دشوار باشد. این موضوع در کاربردهایی که نیاز به تفسیر دقیق تصمیمات مدل دارند (مانند پزشکی یا امور مالی) چالشبرانگیز است.
6. نیاز به تنظیم دقیق برای استفاده در مسائل خاص:
- در برخی مسائل خاص، مانند دادههای با ویژگیهای گسسته (categorical features) یا دنبالهای، ممکن است XGBoost به اندازه مدلهای خاص آن مسائل مانند شبکههای عصبی یا LSTM بهینه نباشد. در این مواقع، ممکن است الگوریتمهای دیگر عملکرد بهتری ارائه دهند.
نتیجهگیری
پس XGBoost به دلیل دقت بالا، کارایی و انعطافپذیری در بسیاری از مسائل یادگیری ماشین موفق است. با این حال، چالشهایی مانند نیاز به تنظیم دقیق پارامترها و زمان آموزش بالا در دادههای بزرگ، به کاربر این امکان را میدهد که در انتخاب الگوریتم مناسب برای مسائل خاص دقت بیشتری داشته باشد.
لینک داکیومنتشن:
🔗https://xgboost.readthedocs.io/en/stable/
👍2
✍️ وبسایت Deep-ML:
🔗https://deep-ml.com
بستری برای تمرین و
یادگیری مباحث یادگیری ماشین و علوم داده فراهم کرده،
این پلتفرم شامل مسائل متنوعی در زمینههای مختلفی مانند جبر خطی، یادگیری ماشین، یادگیری عمیق، بینایی کامپیوتر و پردازش زبان طبیعی میباشد. مسائل توسط دانشمندان و مهندسان حرفهای یادگیری ماشین طراحی شده و بهطور مداوم بهروزرسانی میشوند.
🔗https://deep-ml.com
بستری برای تمرین و
یادگیری مباحث یادگیری ماشین و علوم داده فراهم کرده،
این پلتفرم شامل مسائل متنوعی در زمینههای مختلفی مانند جبر خطی، یادگیری ماشین، یادگیری عمیق، بینایی کامپیوتر و پردازش زبان طبیعی میباشد. مسائل توسط دانشمندان و مهندسان حرفهای یادگیری ماشین طراحی شده و بهطور مداوم بهروزرسانی میشوند.
👍1
خوشبختی چیزی نیست که بخواهی آن را به تملک خود درآوری،
خوشبختی کیفیت تفکرست،
حالت روحیست
خوشبختی، وابسته به جهان درون توست ...
#دافنه_دوموریه
خوشبختی کیفیت تفکرست،
حالت روحیست
خوشبختی، وابسته به جهان درون توست ...
#دافنه_دوموریه
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
سلام دوستان! 👋
امروز میخوام Data Copilot رو به شما معرفی کنیم؛ اولین دستیار هوشمند اختصاصی دیتاساینستیستها از مجموعه Mito که تجربهی کار با Jupyter Notebook رو کاملاً دگرگون میکنه!
✨ ویژگیهای برجسته Data Copilot:
-تولید کد به صورت فوری:تنها کافیست نیازتون رو بگید؛ Data Copilot به صورت خودکار کدهای لازم رو برای شما مینویسه.
- رفع سریع خطاها: خطاها در عرض چند ثانیه شناسایی و برطرف میشن.
- بهینهسازی کد: با پیشنهادهای هوشمند، کدهای شما بهینهتر و کارآمدتر میشن.
- مدیریت تعاملی دیتافریمها و ساخت نمودار: دیتافریمهای شما به صورت تعاملی مدیریت میشن و نمودارهای مورد نیاز به صورت خودکار ساخته میشن.
- پشتیبانی کامل از تحلیل داده: از پاکسازی دادهها تا ویژوالسازی، همه چیز رو پوشش میده!
💡 نکته جالب: Data Copilot به صورت اوپن سورس عرضه شده و تنها کافیست دستور زیر رو در ترمینال اجرا کنید:
با Data Copilot، کارهای دیتاساینس شما سریعتر، راحتتر و بهینهتر میشه. حتماً امتحانش کنید و نظراتتون رو با ما به اشتراک بذارید!
#DataCopilot #Mito #DataScience #JupyterNotebook
امروز میخوام Data Copilot رو به شما معرفی کنیم؛ اولین دستیار هوشمند اختصاصی دیتاساینستیستها از مجموعه Mito که تجربهی کار با Jupyter Notebook رو کاملاً دگرگون میکنه!
✨ ویژگیهای برجسته Data Copilot:
-تولید کد به صورت فوری:تنها کافیست نیازتون رو بگید؛ Data Copilot به صورت خودکار کدهای لازم رو برای شما مینویسه.
- رفع سریع خطاها: خطاها در عرض چند ثانیه شناسایی و برطرف میشن.
- بهینهسازی کد: با پیشنهادهای هوشمند، کدهای شما بهینهتر و کارآمدتر میشن.
- مدیریت تعاملی دیتافریمها و ساخت نمودار: دیتافریمهای شما به صورت تعاملی مدیریت میشن و نمودارهای مورد نیاز به صورت خودکار ساخته میشن.
- پشتیبانی کامل از تحلیل داده: از پاکسازی دادهها تا ویژوالسازی، همه چیز رو پوشش میده!
💡 نکته جالب: Data Copilot به صورت اوپن سورس عرضه شده و تنها کافیست دستور زیر رو در ترمینال اجرا کنید:
pip install mito-ai mitosheet
با Data Copilot، کارهای دیتاساینس شما سریعتر، راحتتر و بهینهتر میشه. حتماً امتحانش کنید و نظراتتون رو با ما به اشتراک بذارید!
#DataCopilot #Mito #DataScience #JupyterNotebook
👍3
سلام دوستان 👋
آرزو دارم سال جدید سال موفقیت های بزرگ شما باشه
🌺🌺🌺🌺🌺🌺🌺
از این روزای تعطیلی با دیدن ویدیو و پروژه های مفید استفاده ببریم.
اینجا ی لینک کاربردی یوتیوب از وبسایت کگل گذاشتم که با شرکت گوگل دوره ی Generative AI in 5 days رو برگزار میکنند.
کلی presentation و play list های مفید برای دیتاساینس داره:
▶️https://youtube.com/@kaggle?si=WdGS3iYOJOczdCwK
آرزو دارم سال جدید سال موفقیت های بزرگ شما باشه
🌺🌺🌺🌺🌺🌺🌺
از این روزای تعطیلی با دیدن ویدیو و پروژه های مفید استفاده ببریم.
اینجا ی لینک کاربردی یوتیوب از وبسایت کگل گذاشتم که با شرکت گوگل دوره ی Generative AI in 5 days رو برگزار میکنند.
کلی presentation و play list های مفید برای دیتاساینس داره:
▶️https://youtube.com/@kaggle?si=WdGS3iYOJOczdCwK
YouTube
Kaggle
Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single…
تصویر زیر مقایسه ی Power BI desktop و Power BI service و چگونگی استفاده از آن درج شده:
🔗https://learn.microsoft.com/en-us/power-bi/fundamentals/service-service-vs-desktop
البته که دوره های آموزشی متنوعی برای power Bi هست، اما Microsoft از بهترین هاست.
https://www.linkedin.com/posts/sofia%D9%80mojahed_powerbi-python-microsoft-activity-7312107509224243200-GHW_?utm_source=share&utm_medium=member_android&rcm=ACoAAByihu8BQ_vIKpQqGm_vHgl8oemV3KKy48k
🔗https://learn.microsoft.com/en-us/power-bi/fundamentals/service-service-vs-desktop
البته که دوره های آموزشی متنوعی برای power Bi هست، اما Microsoft از بهترین هاست.
https://www.linkedin.com/posts/sofia%D9%80mojahed_powerbi-python-microsoft-activity-7312107509224243200-GHW_?utm_source=share&utm_medium=member_android&rcm=ACoAAByihu8BQ_vIKpQqGm_vHgl8oemV3KKy48k
👍2
✨ Transformers changed everything. ✨
In 2017, Google researchers introduced the Transformer model in their groundbreaking paper "Attention is All You Need." Instead of relying on RNNs or CNNs, this new architecture used self-attention to process information in parallel, unlocking long-range dependencies and massive efficiency gains.
Why does this matter? Because this is the foundation of modern AI from GPT to PaLM and beyond. The model's encoder-decoder structure, multi-head attention, and positional encoding enabled it to set new records in translation tasks and ultimately power today’s large language models (LLMs).
If you've ever been amazed by AI-generated text, chatbots, or machine-assisted creativity, you're witnessing the legacy of this paper. The Transformer didn't just change NLP; it reshaped the entire AI landscape.
🚀 The future of AI started here.
💠 Paper link: https://lnkd.in/dxPb_PGK
In 2017, Google researchers introduced the Transformer model in their groundbreaking paper "Attention is All You Need." Instead of relying on RNNs or CNNs, this new architecture used self-attention to process information in parallel, unlocking long-range dependencies and massive efficiency gains.
Why does this matter? Because this is the foundation of modern AI from GPT to PaLM and beyond. The model's encoder-decoder structure, multi-head attention, and positional encoding enabled it to set new records in translation tasks and ultimately power today’s large language models (LLMs).
If you've ever been amazed by AI-generated text, chatbots, or machine-assisted creativity, you're witnessing the legacy of this paper. The Transformer didn't just change NLP; it reshaped the entire AI landscape.
🚀 The future of AI started here.
💠 Paper link: https://lnkd.in/dxPb_PGK
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
روز اساتید و معلمان محترم مبارک
و راهشان پر گهر باد 💫
و راهشان پر گهر باد 💫
👍1
Data science
Fine-Tuning vs. RLHF: Two Distinct Paths for Training Language Models
🎯 Fine-Tuning vs. RLHF
دو مسیر متفاوت برای تربیت مدلهای زبانی بزرگ
در مسیر توسعه مدلهای زبانی مثل ChatGPT یا سایر LLMها، تنظیم رفتار مدل فقط به آموزش اولیه (pretraining) محدود نمیشه. گاهی نیاز داریم مدل رو:
1. روی یک دامنه خاص تخصصی کنیم.
2. یا رفتارهاش رو انسانیتر، اخلاقیتر و کاربردیتر کنیم.
برای این دو هدف، دو رویکرد رایج و مهم وجود داره:
✅ Fine-Tuning
✅ RLHF (Reinforcement Learning from Human Feedback)
---
🔍 در Fine-Tuning، ما مدل از قبل آموزشدیده رو با مجموعهای از دادههای خاص (مثل چتهای پشتیبانی مشتری، مقالات پزشکی یا کدهای برنامهنویسی) تنظیم دقیق میکنیم. این روش برای پروژههایی مفید هست که هدفشون تخصصسازی مدل در یک حوزه خاص باشه.
اما...
🔁 در RLHF، مدل بعد از آموزش اولیه و احتمالاً Fine-Tuning، وارد مرحلهای میشه که بازخورد انسانی نقش اصلی رو ایفا میکنه. انسانها خروجیهای مختلف مدل رو ارزیابی میکنن و این ارزیابیها به مدل یاد میدن کدوم پاسخها از نظر رفتاری، اخلاقی و کاربردی بهتر هستند. سپس با الگوریتمهای یادگیری تقویتی (مثل PPO)، مدل به سمت تولید خروجیهای باکیفیتتر هدایت میشه.
---
📊 در تصویری که طراحی کردم، این دو رویکرد رو از نظر روش یادگیری، هدف، نوع داده، پیچیدگی و کاربرد رایج با هم مقایسه کردم.
👇 (به تصویر نگاه کنید)
---
✅ Fine-Tuning برای پروژههایی که به تخصص نیاز دارند فوقالعادهست.
✅ RLHF برای تربیت چتباتهایی که باید مسئولانه، مؤدبانه و کاربردی رفتار کنند، ضروریه.
📌 انتخاب بین این دو به نوع محصولی که میسازید، منابعی که دارید، و هدف نهایی شما از مدل بستگی داره.
#LLM #FineTuning #RLHF
دو مسیر متفاوت برای تربیت مدلهای زبانی بزرگ
در مسیر توسعه مدلهای زبانی مثل ChatGPT یا سایر LLMها، تنظیم رفتار مدل فقط به آموزش اولیه (pretraining) محدود نمیشه. گاهی نیاز داریم مدل رو:
1. روی یک دامنه خاص تخصصی کنیم.
2. یا رفتارهاش رو انسانیتر، اخلاقیتر و کاربردیتر کنیم.
برای این دو هدف، دو رویکرد رایج و مهم وجود داره:
✅ Fine-Tuning
✅ RLHF (Reinforcement Learning from Human Feedback)
---
🔍 در Fine-Tuning، ما مدل از قبل آموزشدیده رو با مجموعهای از دادههای خاص (مثل چتهای پشتیبانی مشتری، مقالات پزشکی یا کدهای برنامهنویسی) تنظیم دقیق میکنیم. این روش برای پروژههایی مفید هست که هدفشون تخصصسازی مدل در یک حوزه خاص باشه.
اما...
🔁 در RLHF، مدل بعد از آموزش اولیه و احتمالاً Fine-Tuning، وارد مرحلهای میشه که بازخورد انسانی نقش اصلی رو ایفا میکنه. انسانها خروجیهای مختلف مدل رو ارزیابی میکنن و این ارزیابیها به مدل یاد میدن کدوم پاسخها از نظر رفتاری، اخلاقی و کاربردی بهتر هستند. سپس با الگوریتمهای یادگیری تقویتی (مثل PPO)، مدل به سمت تولید خروجیهای باکیفیتتر هدایت میشه.
---
📊 در تصویری که طراحی کردم، این دو رویکرد رو از نظر روش یادگیری، هدف، نوع داده، پیچیدگی و کاربرد رایج با هم مقایسه کردم.
👇 (به تصویر نگاه کنید)
---
✅ Fine-Tuning برای پروژههایی که به تخصص نیاز دارند فوقالعادهست.
✅ RLHF برای تربیت چتباتهایی که باید مسئولانه، مؤدبانه و کاربردی رفتار کنند، ضروریه.
📌 انتخاب بین این دو به نوع محصولی که میسازید، منابعی که دارید، و هدف نهایی شما از مدل بستگی داره.
#LLM #FineTuning #RLHF
👍1
My recent paper can be accessed here. I hope these steps will significantly impact global health and help individuals live safely.
https://journals.sbmu.ac.ir/ghfbb/index.php/ghfbb/article/view/3158#:~:text=Results%3A%20From%201990%20to%202021,regions%20showed%20statistically%20significant%20reductions
https://journals.sbmu.ac.ir/ghfbb/index.php/ghfbb/article/view/3158#:~:text=Results%3A%20From%201990%20to%202021,regions%20showed%20statistically%20significant%20reductions
👏1