Data science
121 subscribers
9 photos
5 videos
2 files
10 links
این کانال برای علاقه مندان به دیتاساینس و هوش مصنوعی
تشکیل شده، از همراهی شما خرسندم
Download Telegram
✍️ وب‌سایت Deep-ML:
🔗https://deep-ml.com
بستری برای تمرین و
یادگیری مباحث یادگیری ماشین و علوم داده فراهم کرده،
این پلتفرم شامل مسائل متنوعی در زمینه‌های مختلفی مانند جبر خطی، یادگیری ماشین، یادگیری عمیق، بینایی کامپیوتر و پردازش زبان طبیعی می‌باشد. مسائل توسط دانشمندان و مهندسان حرفه‌ای یادگیری ماشین طراحی شده و به‌طور مداوم به‌روزرسانی می‌شوند.
👍1
نمودار بالایی شغل هایی که سریع ترین رشد را در سالهای ۲۰۲۵ تا ۲۰۳۰ دارند نشون میده و نمودار پایین شغل هایی که decline می شوند!
همون طور که می‌بینید بیگ دیتا، هوش مصنوعی و فناوری های مالی در صدر جدول قرار گرفته ! 😍
👍1
گزارش آینده شغل ها ۲۰۲۵.pdf
15.7 MB
رفرنس مطلب بالا👆👆
👍1
‏خوشبختی چیزی نیست که بخواهی آن را به تملک خود درآوری،
‏خوشبختی کیفیت تفکرست،
‏حالت روحی‌ست
‏خوشبختی، ‏وابسته به جهان درون توست ...

#دافنه_دوموریه
This media is not supported in your browser
VIEW IN TELEGRAM
40 ML Interview Questions.pdf
2.7 MB
🔗🔗
40 سوال و جواب مصاحبه شغلی برای ماشین لرنینگ
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
سلام دوستان! 👋

امروز می‌خوام Data Copilot رو به شما معرفی کنیم؛ اولین دستیار هوشمند اختصاصی دیتاساینستیست‌ها از مجموعه Mito که تجربه‌ی کار با Jupyter Notebook رو کاملاً دگرگون می‌کنه!

ویژگی‌های برجسته Data Copilot:
-تولید کد به صورت فوری:تنها کافیست نیازتون رو بگید؛ Data Copilot به صورت خودکار کدهای لازم رو برای شما می‌نویسه.
- رفع سریع خطاها: خطاها در عرض چند ثانیه شناسایی و برطرف می‌شن.
- بهینه‌سازی کد: با پیشنهادهای هوشمند، کدهای شما بهینه‌تر و کارآمدتر می‌شن.
- مدیریت تعاملی دیتافریم‌ها و ساخت نمودار: دیتافریم‌های شما به صورت تعاملی مدیریت می‌شن و نمودارهای مورد نیاز به صورت خودکار ساخته می‌شن.
- پشتیبانی کامل از تحلیل داده: از پاکسازی داده‌ها تا ویژوال‌سازی، همه چیز رو پوشش می‌ده!

💡 نکته جالب: Data Copilot به صورت اوپن سورس عرضه شده و تنها کافیست دستور زیر رو در ترمینال اجرا کنید:

pip install mito-ai mitosheet

با Data Copilot، کارهای دیتاساینس شما سریع‌تر، راحت‌تر و بهینه‌تر می‌شه. حتماً امتحانش کنید و نظراتتون رو با ما به اشتراک بذارید!

#DataCopilot #Mito #DataScience #JupyterNotebook
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
😍👌 دیتا پاپلاین خلاصه و مفید
👍2
سلام دوستان 👋
آرزو دارم سال جدید سال موفقیت های بزرگ شما باشه
🌺🌺🌺🌺🌺🌺🌺

از این روزای تعطیلی با دیدن ویدیو و پروژه های مفید استفاده ببریم.

اینجا ی لینک کاربردی یوتیوب از وبسایت کگل گذاشتم که با شرکت گوگل دوره ی Generative AI in 5 days رو برگزار میکنند.

کلی presentation و play list های مفید برای دیتاساینس داره:

▶️https://youtube.com/@kaggle?si=WdGS3iYOJOczdCwK
تصویر زیر مقایسه ی Power BI desktop و Power BI service و چگونگی استفاده از آن درج شده:
🔗https://learn.microsoft.com/en-us/power-bi/fundamentals/service-service-vs-desktop

البته که دوره های آموزشی متنوعی برای power Bi هست، اما Microsoft از بهترین هاست.
https://www.linkedin.com/posts/sofia%D9%80mojahed_powerbi-python-microsoft-activity-7312107509224243200-GHW_?utm_source=share&utm_medium=member_android&rcm=ACoAAByihu8BQ_vIKpQqGm_vHgl8oemV3KKy48k
👍2
Transformers changed everything.
In 2017, Google researchers introduced the Transformer model in their groundbreaking paper "Attention is All You Need." Instead of relying on RNNs or CNNs, this new architecture used self-attention to process information in parallel, unlocking long-range dependencies and massive efficiency gains.
Why does this matter? Because this is the foundation of modern AI from GPT to PaLM and beyond. The model's encoder-decoder structure, multi-head attention, and positional encoding enabled it to set new records in translation tasks and ultimately power today’s large language models (LLMs).
If you've ever been amazed by AI-generated text, chatbots, or machine-assisted creativity, you're witnessing the legacy of this paper. The Transformer didn't just change NLP; it reshaped the entire AI landscape.
🚀 The future of AI started here.

💠 Paper link: https://lnkd.in/dxPb_PGK
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
روز اساتید و معلمان محترم مبارک
و راهشان پر‌ گهر باد 💫
👍1
Fine-Tuning vs. RLHF: Two Distinct Paths for Training Language Models
👍1
Data science
Fine-Tuning vs. RLHF: Two Distinct Paths for Training Language Models
🎯 Fine-Tuning vs. RLHF
دو مسیر متفاوت برای تربیت مدل‌های زبانی بزرگ

در مسیر توسعه مدل‌های زبانی مثل ChatGPT یا سایر LLMها، تنظیم رفتار مدل فقط به آموزش اولیه (pretraining) محدود نمی‌شه. گاهی نیاز داریم مدل رو:

1. روی یک دامنه خاص تخصصی کنیم.


2. یا رفتارهاش رو انسانی‌تر، اخلاقی‌تر و کاربردی‌تر کنیم.



برای این دو هدف، دو رویکرد رایج و مهم وجود داره:
Fine-Tuning
RLHF (Reinforcement Learning from Human Feedback)


---

🔍 در Fine-Tuning، ما مدل از قبل آموزش‌دیده رو با مجموعه‌ای از داده‌های خاص (مثل چت‌های پشتیبانی مشتری، مقالات پزشکی یا کدهای برنامه‌نویسی) تنظیم دقیق می‌کنیم. این روش برای پروژه‌هایی مفید هست که هدفشون تخصص‌سازی مدل در یک حوزه خاص باشه.

اما...

🔁 در RLHF، مدل بعد از آموزش اولیه و احتمالاً Fine-Tuning، وارد مرحله‌ای می‌شه که بازخورد انسانی نقش اصلی رو ایفا می‌کنه. انسان‌ها خروجی‌های مختلف مدل رو ارزیابی می‌کنن و این ارزیابی‌ها به مدل یاد می‌دن کدوم پاسخ‌ها از نظر رفتاری، اخلاقی و کاربردی بهتر هستند. سپس با الگوریتم‌های یادگیری تقویتی (مثل PPO)، مدل به سمت تولید خروجی‌های باکیفیت‌تر هدایت می‌شه.


---

📊 در تصویری که طراحی کردم، این دو رویکرد رو از نظر روش یادگیری، هدف، نوع داده، پیچیدگی و کاربرد رایج با هم مقایسه کردم.
👇 (به تصویر نگاه کنید)
---

Fine-Tuning برای پروژه‌هایی که به تخصص نیاز دارند فوق‌العاده‌ست.
RLHF برای تربیت چت‌بات‌هایی که باید مسئولانه، مؤدبانه و کاربردی رفتار کنند، ضروریه.

📌 انتخاب بین این دو به نوع محصولی که می‌سازید، منابعی که دارید، و هدف نهایی شما از مدل بستگی داره.

#LLM #FineTuning #RLHF
👍1
My recent paper can be accessed here. I hope these steps will significantly impact global health and help individuals live safely.
https://journals.sbmu.ac.ir/ghfbb/index.php/ghfbb/article/view/3158#:~:text=Results%3A%20From%201990%20to%202021,regions%20showed%20statistically%20significant%20reductions
👏1