ML & AI resources
171 subscribers
165 photos
13 videos
7 files
501 links
Explore AI & Deep Learning with us. Join our Telegram channel for the latest insights and tutorials, managed by CE students from Amirkabir University of Technology.

🆔 @ML_AI_resourses
Download Telegram
Forwarded from Robotic Knowledge
Robotic Knowledge
https://twitter.com/ias_tudarmstadt/status/1627601129260437507?t=TN5r3sqJE2cieKKR6uBpKQ&s=35
یه مسابقه بنظر باحال دیگه رباتیک داخل شبیه‌ساز!
بشدت میشه توی این مسابقه‌ها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
Forwarded from PyTorch Howsam (Howsam Support)
درسته که فریمورکهایی مثل سایکیت، پایتورچ و تنسورفلو کارمون رو خیلی ساده کردن. اما همیشه موقع کدنویسی، به یکسری توابع جانبی و کمکی نیاز داریم که توی این فریمورکها پیدا نمیشن. مثلا میخوایم ناحیه تصمیم گیری (Decision Region) رو در تسک دسته بندی پلات کنیم.

در چنین حالتی، یا باید برای پیدا کردن کد آماده و معتبر وقت بذاریم، یا باید خودمون از ابتدا کدش رو بنویسیم، یا اینکه از چت جی پی تی بخوایم! 😁 ولی خب یک لایبرری تروتمیز که این توابع جانبی رو داشته باشه، خیلی کمکمون میکنه.

لایبرری mlxtend، اومده که به شما کمک کنه و توابع کمکی زیادی داره. مثلا با دستور plot_decision_regions میتونید به راحتی ناحیه تصمیم گیری شبیه تصویر بالا رسم کنید. یا با دستور bias_variance_decomp میتونید بایاس/واریانس مدل رو حساب کنید.

لینک لایببری mlxtend:
https://rasbt.github.io/mlxtend/

@pytorch_howsam
👍6🔥2
یه جماعتی هستن که کتاب های برنامه نویسی (بیشتر هوش البته) رو به شکل فصل به فصل میخونن و برای هم توضیح میدن.
هم ویدیو یوتوبش هست هم lecture notes

https://github.com/SanDiegoMachineLearning/bookclub
Forwarded from Meysam
حتما بخونید. مایکروسافت تمرکز کرده روی مدلهای مالتی مودال:
https://arxiv.org/abs/2302.14045
🔥1
دو تا ریپو جالب که توش پیپرهای پایه‌ای مطرح (حالت milestone) فیلدها و تسک‌های مختلف دیپ لرنینگ رو لیست کردن (اولی یکم قدیمیه)

https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap
https://github.com/dansuh17/deep-learning-roadmap
🔥1
Forwarded from NLP stuff
همه ممکن است نشت کنند!

یکی از مهمترین بخش‌های پایپ‌لاین دیتا، نحوه صحیح تقسیم‌بندی دیتا به داده‌ی train و test است. نکات زیادی داره که مهمتریناش اینه که نباید نشتی داشته باشید؛ یعنی از داده‌ی آموزش نباید توی داده‌ی ولیدیشن و تست داشته باشید وگرنه می‌بینید متریکتون به شکل غیرواقعی خوب میشه. باز یکی دیگه از نکاتش اینه که قرار نیست توزیع داده آموزش و تست تفاوت زیادی کنند وگرنه می‌بینید که روی داده تست نتایجتون خیلی ضعیف میشه. یا اینکه قرار نیست هر جور که دوست دارید دادتون رو تقسیم کنید و گاهی مثلا اگر مساله با سری زمانی در ارتباطه، لازمه روی خط زمانی تقسیم کنید و گاهی لازمه شافل کنید و رندوم تقسیم کنید. نکات بیشتر و دقیق‌تری رو در فصل یک و دو کتاب hands on ml میتونید پیدا کنید.

شاید با خودتون فکر کنید خب اینکه خیلی راحته؛ ولی اینطور نیست. استاد پوروطنِ ما همیشه این مثل معروف رو می‌گفت که: شیطان در جزئیاته.
سال ۲۰۱۷ اندرو انگِ گولاخ و شرکا یک مقاله با عنوان CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning دادند (تریلی اسم مقاله رو نمی‌کشه). اونجا یه مدل CNNای ارائه دادند و روی صد هزار تا تصویر رادیولوژی از ۳۰ هزار تا بیمار آموزش دادند تا بتونند بیماری ذات الریه رو تشخیص بدن (اولا عظمت دیتا رو داشته باشید. ثانیا دقت کردید که چند تا تصویر برای یک بیمار وجود داشته). بعد اومدند این دیتا رو ۸۰ به ۲۰ بین آموزش و تست به صورت رندوم تقسیم کردند. چشمتون مشکل رو دید؟ اگر شما بیاید دیتا رو به صورت رندوم تقسیم کنید تصاویر یک بیمار می‌تونه توی هر دو تا داده‌ی ترین و تست باشه و مدل می‌تونه از فیچرهای مربوط به بیمار کلی استفاده کنه؛ حتی اگر این فیچرها مستقیما مربوط به خود بیماری ذات الریه نباشه. مثلا یک زخمی از عمل رو توی یه عکس آموزش میبینه و یاد میگیره این مربوط به کلاس اوله. بعد دیگه هر جا عین همون زخم رو ببینه زرتی میگه کلاس اوله و دیگه فکر نمیکنه. یعنی یه میان‌بر پیدا کرد. بعد از  ۱۱ روز فهمیدند مشکل داره و اومدند این رو درست کردند و دوباره مقاله رو منتشر کردند. در عکس دوم ضمیمه‌شده به پست می‌تونید ببینید که جمله‌ی there was 𝗻𝗼 𝗽𝗮𝘁𝗶𝗲𝗻𝘁 𝗼𝘃𝗲𝗿𝗹𝗮𝗽 between the sets رو در تصویر راست (نسخه اصلاح شده) نسبت به تصویر چپ (نسخه اولیه) اضافه کردند و نحوه تقسیم رو تغییر دادند.

حداقل دو تا درس از این موضوع میتونیم یاد بگیریم: اول. حواسمون به نشتی باشه چون همه ممکنه نشت کنیم. دوم. همه حتی اندرو انگ و شرکا هم ممکنه اشتباه کنند. پس فقط سعی کنیم یاد بگیریم، درستش کنیم و تکرار نکنیم. خجالت هم نداره.

لینک مقاله نسخه اول:
https://arxiv.org/abs/1711.05225v1

لینک مقاله نسخه اصلاح شده:
https://arxiv.org/abs/1711.05225

لینک توئیت توضیح این داستان:
https://twitter.com/svpino/status/1592140348905517056

پ.ن. شما هم اگر پست خوبی داشتید بفرستید تا به اسم خودتون توی کانال بذاریم.

#tweet
#handson

@nlp_stuff
👍6
برای دوستانی که در میونه هایپ ChatGPT و مدل های generative (😁) میخوان پایه‌هاشونو قوی کنن:
دوست خوبمون Sebastian Raschka (یکی از نویسنده‌های کتاب Machine Learning with PyTorch and Scikit-Learn، که نسبتاً اخیره و آخرین چاپش مال 2021 هست) یک پلی‌لیست یوتیوب داره به نام
Intro to Deep Learning and Generative Models Course
که توش انواع و اقسام مدل‌های مهم دیپ لرنینگ و خصوصاً generative رو با کد پای‌تورچ کاور می‌کنه
شخصاً پیشنهادش می‌کنم. تا اینجا AE, VAE, GAN رو از روش نگاه کردم و تکمیل بود👌

اینم لینکش: https://www.youtube.com/playlist?list=PLTKMiZHVd_2KJtIXOW0zFhFfBaJJilH51
🔥8
انتشارات Manning یک تعداد زیادی کتاب داره توی همه حوزه‌های برنامه‌نویسی و دیتاساینس
کافیه برین توی کاتالوگش: https://www.manning.com/catalog
و کلمه کلیدی "deep learning" رو سرچ کنید. برای حوزه خاص خودتون هم حتی کتاب داره😁
متن نسبتاً روون با فونت خاص و توام با تصاویر، از ویژگی‌های بارز این کتاب‌هاست
🔥2