یک کانال خیلی خوب برای درک ویژوال (انمیشینی سهبُعدی) کانسپتهای بیسیک CNN ها
https://www.youtube.com/@animatedai
https://www.youtube.com/@animatedai
🔥2
Forwarded from Robotic Knowledge
Robotic Knowledge
https://twitter.com/ias_tudarmstadt/status/1627601129260437507?t=TN5r3sqJE2cieKKR6uBpKQ&s=35
یه مسابقه بنظر باحال دیگه رباتیک داخل شبیهساز!
بشدت میشه توی این مسابقهها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
بشدت میشه توی این مسابقهها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
Batch Normalization Explained
html page: https://ar5iv.org/abs/2209.14778
Arxiv abstract: https://arxiv.org/abs/2209.14778
html page: https://ar5iv.org/abs/2209.14778
Arxiv abstract: https://arxiv.org/abs/2209.14778
ar5iv
Batch Normalization Explained
A critically important, ubiquitous, and yet poorly understood ingredient in modern deep networks (DNs) is batch normalization (BN), which centers and normalizes the feature maps.
To date, only limited progress has been…
To date, only limited progress has been…
ML & AI resources
استفاده از transformer ها در computer vision : Vision Transformer paper: https://arxiv.org/abs/2010.11929 توضیح ویدیویی خوب: https://youtu.be/HZ4j_U3FC94 پیاده سازی قدم به قدم Vit با pytorch : https://youtu.be/ovB0ddFtzzA
AI Summer
Understanding Vision Transformers (ViTs): Hidden properties, insights, and robustness of their representations | AI Summer
We study the learned visual representations of CNNs and ViTs, such as texture bias, how to learn good representations, the robustness of pretrained models, and finally properties that emerge from trained ViTs.
🔥1
Forwarded from PyTorch Howsam (Howsam Support)
درسته که فریمورکهایی مثل سایکیت، پایتورچ و تنسورفلو کارمون رو خیلی ساده کردن. اما همیشه موقع کدنویسی، به یکسری توابع جانبی و کمکی نیاز داریم که توی این فریمورکها پیدا نمیشن. مثلا میخوایم ناحیه تصمیم گیری (Decision Region) رو در تسک دسته بندی پلات کنیم.
در چنین حالتی، یا باید برای پیدا کردن کد آماده و معتبر وقت بذاریم، یا باید خودمون از ابتدا کدش رو بنویسیم، یا اینکه از چت جی پی تی بخوایم! 😁 ولی خب یک لایبرری تروتمیز که این توابع جانبی رو داشته باشه، خیلی کمکمون میکنه.
لایبرری mlxtend، اومده که به شما کمک کنه و توابع کمکی زیادی داره. مثلا با دستور plot_decision_regions میتونید به راحتی ناحیه تصمیم گیری شبیه تصویر بالا رسم کنید. یا با دستور bias_variance_decomp میتونید بایاس/واریانس مدل رو حساب کنید.
لینک لایببری mlxtend:
https://rasbt.github.io/mlxtend/
@pytorch_howsam
در چنین حالتی، یا باید برای پیدا کردن کد آماده و معتبر وقت بذاریم، یا باید خودمون از ابتدا کدش رو بنویسیم، یا اینکه از چت جی پی تی بخوایم! 😁 ولی خب یک لایبرری تروتمیز که این توابع جانبی رو داشته باشه، خیلی کمکمون میکنه.
لایبرری mlxtend، اومده که به شما کمک کنه و توابع کمکی زیادی داره. مثلا با دستور plot_decision_regions میتونید به راحتی ناحیه تصمیم گیری شبیه تصویر بالا رسم کنید. یا با دستور bias_variance_decomp میتونید بایاس/واریانس مدل رو حساب کنید.
لینک لایببری mlxtend:
https://rasbt.github.io/mlxtend/
@pytorch_howsam
👍6🔥2
Forwarded from نوشتههای ترمینالی
یه جماعتی هستن که کتاب های برنامه نویسی (بیشتر هوش البته) رو به شکل فصل به فصل میخونن و برای هم توضیح میدن.
هم ویدیو یوتوبش هست هم lecture notes
https://github.com/SanDiegoMachineLearning/bookclub
هم ویدیو یوتوبش هست هم lecture notes
https://github.com/SanDiegoMachineLearning/bookclub
GitHub
GitHub - SanDiegoMachineLearning/bookclub: Notes and links from the book club meetings
Notes and links from the book club meetings. Contribute to SanDiegoMachineLearning/bookclub development by creating an account on GitHub.
نوشتههای ترمینالی
یه جماعتی هستن که کتاب های برنامه نویسی (بیشتر هوش البته) رو به شکل فصل به فصل میخونن و برای هم توضیح میدن. هم ویدیو یوتوبش هست هم lecture notes https://github.com/SanDiegoMachineLearning/bookclub
San Diego Machine Learning - YouTube
https://m.youtube.com/@SanDiegoMachineLearning/featured
https://m.youtube.com/@SanDiegoMachineLearning/featured
یک ریپو مشتی برای کسایی که میخوان از سیر تا پیاز ML رو دوره کنن (کانتنت مدام آپدیت میشه)
https://github.com/aurimas13/Machine-Learning-Goodness#100daysofmlcode
https://github.com/aurimas13/Machine-Learning-Goodness#100daysofmlcode
GitHub
GitHub - aurimas13/Machine-Learning-Goodness: The Machine Learning project including ML/DL projects, notebooks, cheat codes of…
The Machine Learning project including ML/DL projects, notebooks, cheat codes of ML/DL, useful information on AI/AGI and codes or snippets/scripts/tasks with tips. - aurimas13/Machine-Learning-Good...
🔥7
Forwarded from Meysam
حتما بخونید. مایکروسافت تمرکز کرده روی مدلهای مالتی مودال:
https://arxiv.org/abs/2302.14045
https://arxiv.org/abs/2302.14045
🔥1
دو تا ریپو جالب که توش پیپرهای پایهای مطرح (حالت milestone) فیلدها و تسکهای مختلف دیپ لرنینگ رو لیست کردن (اولی یکم قدیمیه)
https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap
https://github.com/dansuh17/deep-learning-roadmap
https://github.com/floodsung/Deep-Learning-Papers-Reading-Roadmap
https://github.com/dansuh17/deep-learning-roadmap
🔥1
I'm attending Building ML Apps with Hugging Face: LLMs to Diffusion Modeling. Would you like to attend?
https://www.linkedin.com/events/buildingmlappswithhuggingface-l7036449410284691457
https://www.linkedin.com/events/buildingmlappswithhuggingface-l7036449410284691457
Linkedin
Building ML Apps with Hugging Face: LLMs to Diffusion Modeling | LinkedIn
Join us for a fun interactive workshop with Hugging Face's product director Jeff Boudier!
Learn how you can use Hugging Face to easily build powerful ML features without spending time on infrastructure or MLOps. Along with ways to build Computer Vision (CV)…
Learn how you can use Hugging Face to easily build powerful ML features without spending time on infrastructure or MLOps. Along with ways to build Computer Vision (CV)…
🔥1
Forwarded from NLP stuff
همه ممکن است نشت کنند!
یکی از مهمترین بخشهای پایپلاین دیتا، نحوه صحیح تقسیمبندی دیتا به دادهی train و test است. نکات زیادی داره که مهمتریناش اینه که نباید نشتی داشته باشید؛ یعنی از دادهی آموزش نباید توی دادهی ولیدیشن و تست داشته باشید وگرنه میبینید متریکتون به شکل غیرواقعی خوب میشه. باز یکی دیگه از نکاتش اینه که قرار نیست توزیع داده آموزش و تست تفاوت زیادی کنند وگرنه میبینید که روی داده تست نتایجتون خیلی ضعیف میشه. یا اینکه قرار نیست هر جور که دوست دارید دادتون رو تقسیم کنید و گاهی مثلا اگر مساله با سری زمانی در ارتباطه، لازمه روی خط زمانی تقسیم کنید و گاهی لازمه شافل کنید و رندوم تقسیم کنید. نکات بیشتر و دقیقتری رو در فصل یک و دو کتاب hands on ml میتونید پیدا کنید.
شاید با خودتون فکر کنید خب اینکه خیلی راحته؛ ولی اینطور نیست. استاد پوروطنِ ما همیشه این مثل معروف رو میگفت که: شیطان در جزئیاته.
سال ۲۰۱۷ اندرو انگِ گولاخ و شرکا یک مقاله با عنوان CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning دادند (تریلی اسم مقاله رو نمیکشه). اونجا یه مدل CNNای ارائه دادند و روی صد هزار تا تصویر رادیولوژی از ۳۰ هزار تا بیمار آموزش دادند تا بتونند بیماری ذات الریه رو تشخیص بدن (اولا عظمت دیتا رو داشته باشید. ثانیا دقت کردید که چند تا تصویر برای یک بیمار وجود داشته). بعد اومدند این دیتا رو ۸۰ به ۲۰ بین آموزش و تست به صورت رندوم تقسیم کردند. چشمتون مشکل رو دید؟ اگر شما بیاید دیتا رو به صورت رندوم تقسیم کنید تصاویر یک بیمار میتونه توی هر دو تا دادهی ترین و تست باشه و مدل میتونه از فیچرهای مربوط به بیمار کلی استفاده کنه؛ حتی اگر این فیچرها مستقیما مربوط به خود بیماری ذات الریه نباشه. مثلا یک زخمی از عمل رو توی یه عکس آموزش میبینه و یاد میگیره این مربوط به کلاس اوله. بعد دیگه هر جا عین همون زخم رو ببینه زرتی میگه کلاس اوله و دیگه فکر نمیکنه. یعنی یه میانبر پیدا کرد. بعد از ۱۱ روز فهمیدند مشکل داره و اومدند این رو درست کردند و دوباره مقاله رو منتشر کردند. در عکس دوم ضمیمهشده به پست میتونید ببینید که جملهی there was 𝗻𝗼 𝗽𝗮𝘁𝗶𝗲𝗻𝘁 𝗼𝘃𝗲𝗿𝗹𝗮𝗽 between the sets رو در تصویر راست (نسخه اصلاح شده) نسبت به تصویر چپ (نسخه اولیه) اضافه کردند و نحوه تقسیم رو تغییر دادند.
حداقل دو تا درس از این موضوع میتونیم یاد بگیریم: اول. حواسمون به نشتی باشه چون همه ممکنه نشت کنیم. دوم. همه حتی اندرو انگ و شرکا هم ممکنه اشتباه کنند. پس فقط سعی کنیم یاد بگیریم، درستش کنیم و تکرار نکنیم. خجالت هم نداره.
لینک مقاله نسخه اول:
https://arxiv.org/abs/1711.05225v1
لینک مقاله نسخه اصلاح شده:
https://arxiv.org/abs/1711.05225
لینک توئیت توضیح این داستان:
https://twitter.com/svpino/status/1592140348905517056
پ.ن. شما هم اگر پست خوبی داشتید بفرستید تا به اسم خودتون توی کانال بذاریم.
#tweet
#handson
@nlp_stuff
یکی از مهمترین بخشهای پایپلاین دیتا، نحوه صحیح تقسیمبندی دیتا به دادهی train و test است. نکات زیادی داره که مهمتریناش اینه که نباید نشتی داشته باشید؛ یعنی از دادهی آموزش نباید توی دادهی ولیدیشن و تست داشته باشید وگرنه میبینید متریکتون به شکل غیرواقعی خوب میشه. باز یکی دیگه از نکاتش اینه که قرار نیست توزیع داده آموزش و تست تفاوت زیادی کنند وگرنه میبینید که روی داده تست نتایجتون خیلی ضعیف میشه. یا اینکه قرار نیست هر جور که دوست دارید دادتون رو تقسیم کنید و گاهی مثلا اگر مساله با سری زمانی در ارتباطه، لازمه روی خط زمانی تقسیم کنید و گاهی لازمه شافل کنید و رندوم تقسیم کنید. نکات بیشتر و دقیقتری رو در فصل یک و دو کتاب hands on ml میتونید پیدا کنید.
شاید با خودتون فکر کنید خب اینکه خیلی راحته؛ ولی اینطور نیست. استاد پوروطنِ ما همیشه این مثل معروف رو میگفت که: شیطان در جزئیاته.
سال ۲۰۱۷ اندرو انگِ گولاخ و شرکا یک مقاله با عنوان CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning دادند (تریلی اسم مقاله رو نمیکشه). اونجا یه مدل CNNای ارائه دادند و روی صد هزار تا تصویر رادیولوژی از ۳۰ هزار تا بیمار آموزش دادند تا بتونند بیماری ذات الریه رو تشخیص بدن (اولا عظمت دیتا رو داشته باشید. ثانیا دقت کردید که چند تا تصویر برای یک بیمار وجود داشته). بعد اومدند این دیتا رو ۸۰ به ۲۰ بین آموزش و تست به صورت رندوم تقسیم کردند. چشمتون مشکل رو دید؟ اگر شما بیاید دیتا رو به صورت رندوم تقسیم کنید تصاویر یک بیمار میتونه توی هر دو تا دادهی ترین و تست باشه و مدل میتونه از فیچرهای مربوط به بیمار کلی استفاده کنه؛ حتی اگر این فیچرها مستقیما مربوط به خود بیماری ذات الریه نباشه. مثلا یک زخمی از عمل رو توی یه عکس آموزش میبینه و یاد میگیره این مربوط به کلاس اوله. بعد دیگه هر جا عین همون زخم رو ببینه زرتی میگه کلاس اوله و دیگه فکر نمیکنه. یعنی یه میانبر پیدا کرد. بعد از ۱۱ روز فهمیدند مشکل داره و اومدند این رو درست کردند و دوباره مقاله رو منتشر کردند. در عکس دوم ضمیمهشده به پست میتونید ببینید که جملهی there was 𝗻𝗼 𝗽𝗮𝘁𝗶𝗲𝗻𝘁 𝗼𝘃𝗲𝗿𝗹𝗮𝗽 between the sets رو در تصویر راست (نسخه اصلاح شده) نسبت به تصویر چپ (نسخه اولیه) اضافه کردند و نحوه تقسیم رو تغییر دادند.
حداقل دو تا درس از این موضوع میتونیم یاد بگیریم: اول. حواسمون به نشتی باشه چون همه ممکنه نشت کنیم. دوم. همه حتی اندرو انگ و شرکا هم ممکنه اشتباه کنند. پس فقط سعی کنیم یاد بگیریم، درستش کنیم و تکرار نکنیم. خجالت هم نداره.
لینک مقاله نسخه اول:
https://arxiv.org/abs/1711.05225v1
لینک مقاله نسخه اصلاح شده:
https://arxiv.org/abs/1711.05225
لینک توئیت توضیح این داستان:
https://twitter.com/svpino/status/1592140348905517056
پ.ن. شما هم اگر پست خوبی داشتید بفرستید تا به اسم خودتون توی کانال بذاریم.
#tweet
#handson
@nlp_stuff
Telegram
stuff
👍6
برای دوستانی که در میونه هایپ ChatGPT و مدل های generative (😁) میخوان پایههاشونو قوی کنن:
دوست خوبمون Sebastian Raschka (یکی از نویسندههای کتاب Machine Learning with PyTorch and Scikit-Learn، که نسبتاً اخیره و آخرین چاپش مال 2021 هست) یک پلیلیست یوتیوب داره به نام
Intro to Deep Learning and Generative Models Course
که توش انواع و اقسام مدلهای مهم دیپ لرنینگ و خصوصاً generative رو با کد پایتورچ کاور میکنه
شخصاً پیشنهادش میکنم. تا اینجا AE, VAE, GAN رو از روش نگاه کردم و تکمیل بود👌
اینم لینکش: https://www.youtube.com/playlist?list=PLTKMiZHVd_2KJtIXOW0zFhFfBaJJilH51
دوست خوبمون Sebastian Raschka (یکی از نویسندههای کتاب Machine Learning with PyTorch and Scikit-Learn، که نسبتاً اخیره و آخرین چاپش مال 2021 هست) یک پلیلیست یوتیوب داره به نام
Intro to Deep Learning and Generative Models Course
که توش انواع و اقسام مدلهای مهم دیپ لرنینگ و خصوصاً generative رو با کد پایتورچ کاور میکنه
شخصاً پیشنهادش میکنم. تا اینجا AE, VAE, GAN رو از روش نگاه کردم و تکمیل بود👌
اینم لینکش: https://www.youtube.com/playlist?list=PLTKMiZHVd_2KJtIXOW0zFhFfBaJJilH51
YouTube
Intro to Deep Learning and Generative Models Course
Deep learning is a field that specializes in discovering and extracting intricate structures in large, unstructured datasets for parameterizing artificial ne...
🔥8