PyTorch Howsam
3K subscribers
336 photos
48 videos
5 files
471 links
از هوش مصنوعی میگیم...

ارتباط با ادمین
@howsam_support
Download Telegram
Audio
چند وقت پیش، با کورس CS197 از دانشگاه هاروارد آشنا شدم. اسم دقیق کورس این هست:
AI Research Experiences
Harvard CS197
Learn to do applied deep learning research


و در معرفی دوره گفته شده:
در این دوره، مهارت‌های عملی مورد نیاز برای کار در زمینه‌ی یادگیری عمیق کاربردی را خواهید آموخت، از جمله تجربه‌ی عملی در توسعه‌ی مدل‌ها. همچنین مهارت‌های نگارش فنی مورد نیاز برای تحقیقات کاربردی در حوزه‌ی هوش مصنوعی را یاد می‌گیرید، که شامل تجربه در نوشتن بخش‌های مختلف یک مقاله‌ی تحقیقاتی کامل می‌شود.


به نظر میرسه، متاسفانه ویدئوهاش در دسترس نیست. اما، Lecture Note داره که تمیز و با کیفیت هست. من لکچر 3 با موضوع Reading AI Research Papers رو پادکست کردم و دو بار گوش کردم.

شاید برای دیپ لرنینگ 1000 منبع آموزشی وجود داشته باشه، ولی منبع آموزشی برای این مباحث مهم کمیاب هست.

در این لکچر درباره paperswithcode هم صحبت شده که من بارها در آموزش‌هام بهش اشاره کردم. در یوتوب هم یک ویدئوی معرفی و کار با این سایت گذاشتیم.

لینک صفحه دوره
لینک ویدئوی paperswithcode در یوتوب
از امیررضا:
حتی نویسنده کتاب معروف hands on ML and tensorflow دیگه قرار نیست نسخه جدید کتابش رو منتشر کنه. نسخه جدید که بعدا منتشر می شه با پایتورچ هست


باتوجه به موقعیت پایتورچ کار عجیبی نیست. اما به این فکر می‌کنم که گذر از سایکیت به پایتورچ برای مخاطب این کتاب مشکل نیست؟ این کتاب خیلی عمیق نمیشه و به مخاطب یاد میده که در سایکیت با ()fit. می‌تونی مدلت رو آموزش بدی. اما توی پایتورچ دیگه ()fit. جواب نیست و باید خودش کل پروسه آموزش رو کد بزنه. جز اینکه به سمت پایتورچ لایتنینگ یا کراس با بکند پایتورچ بره...
متاسفانه سایت خوب paperswithcode.com متوقف شد. 💔

چقدر این سایت خوب بود و چقدر برای کارهای مختلف مثل بینایی کامیپوتر حرفه‌ای ازش استفاده کردم. مقاله‌های ترند + مقاله‌های دسته‌بندی‌شده در شاخه‌های مختلف...

همیشه، توی دوره‌ها و جاهای مختلف تاکید می‌کردم که از این سایت استفاده کنید. حتی می‌تونید برای پیدا کردن موضوع پایان‌نامه هم ازش استفاده کنید. توی یوتوب یک ویدئوی معرفی گذاشتم. لینک

البته، گویا قرار هست که نمایش مقاله‌های ترند به همون شکل و ساختار paperswithcode در سایت هاگینگ‌فیس ادامه پیدا کنه. اما خب، فعلا نمایش مقاله‌های دسته‌بندی‌شده رو در هاگینگ‌فیس ندیدم. امیدوارم اضافه بشه.

ما با همکاری Meta AI و Papers with Code در حال ساخت نسخه‌ای جانشین برای Papers with Code هستیم (که دیروز متوقف شد). Papers with Code، طی سال‌ها منبعی فوق‌العاده برای دانشمندان و مهندسان هوش مصنوعی بوده (و الهام‌بخش ما برای ساخت Hugging Face نیز بود). ما خوشحالیم که راه آن‌ها را ادامه می‌دهیم و بخشی جدید در Hugging Face برای جامعه فراهم می‌کنیم تا بتوانند مقالات ترند را دنبال کنند، با لینک مستقیم به پیاده‌سازی‌هایشان در GitHub 🔥
منبع


لینک مقاله‌های ترند در هاگینگ‌فیس
Media is too big
VIEW IN TELEGRAM
از مهدی. ببینید، جالبه...
We Built an Auto-aiming Trash Can
This media is not supported in your browser
VIEW IN TELEGRAM
وبلاگ درباره Embedding

این وبلاگ در هاگینگ‌فیس منتشر شده و درباره روش‌های مختلف امبدینگ به‌صورت تعاملی توضیح داده.

در X این پست رو معرفی کرده بودن و یک ویدئو هم براش گذاشته بودن. میخوام بخونمش. اتفاقا باید برای امبدینگ وبلاگ بنویسم. امبدینگ واقعا موجود جذابی هست...

https://huggingface.co/spaces/hesamation/primer-llm-embedding
دو تا کورس خوب و جدید برای بینایی کامپیوتر

کورس معروف CS231n: Deep Learning for Computer Vision از دانشگاه استنفورد که در بهار 2025 برگزار شده. امسال کورس CS231n ده ساله شد! 🔥 متاسفانه ویدئوهای این کورس فقط برای دانشجوهای استنفورد باز هست و ما فقط به اسلایدها دسترسی داریم. اگرچه، خیلی ارزشمند هست، اما ویدئوها یک چیز دیگه هست. دکتر Justin Johnson هم یکی از مدرس‌های این کورس هست. چند سال پیش، کورسی مشابه با همین CS231 رو در دانشگاه میشیگان به تنهایی برگزار می‌کرد. چه کورسی بود واقعا! چقدر ویدئوهاش خوب و پربار بود. لینک

کورس Computer Vision - CSCI-GA.2271-001 از دانشگاه نیویورک که در 2023 برگزار شده. من این کورس رو مطالعه نکردم، اما نگاهی به اسلایدها انداختم و بسیار پرمحتوا و باجزئیات بود. لینک

این کورس‌ها سنگین هستن. تا جایی که من مخاطب‌های عزیز هوش مصنوعی در ایران رو می‌شناسم، خیلی از علاقه‌مندان به بینایی کامپیوتر دنبال آموزش دادن شبکه یولو و این نوع کارها هستن. این کورس‌ها توی این فضا نیستن.
قبل از این دوره "مسابقه کگل"، من برای مسابقات کگل کم‌وبیش وقت میذاشتم. مثلا، توی دوره دیپ کاتالیست یک پروژه بزرگ برای سگمنت تصاویر دستگاه گوارش داشتیم. ولی، این مسابقه به خاطر زنده بودنش، جذابیت بیشتری برام داره. به واسطه مسئولیتی که به عنوان مدرس دارم، مجبور بودم از صفر (ساخت اکانت در کگل) تا ثبت اولین نتیجه در کگل رو با نظم و ساختار مناسب مستند و ضبط کنم. خیلی لذت می‌برم و برای خودم هم بسیار آموزنده هست. فرصت کنم، یکی از سوپرنکته‌های آموزنده این مسئله رو اینجا به اشتراک میذارم...

هر موقعی که خودم رو به شکلی به چالش کشیدم، رشد کردم. هرچند زحمت داره، اما لذت رشد و تغییر بسیار شیرین هست.

تا الان حدود 15 ساعت آموزش برای این دوره منتشر کردم. رسیدیم به اینجا که با اسکوری ناچیز وارد لیدربرد شدیم! :) حتی یک بهبود داشتیم؛ مدل رو کمی تغییر دادم و در شرایطی که امید داشتم حدود 3 4 درصد نتیجه بهتر بشه، 10 درصد بهتر شد! چشمام قلبی شده بود! :)

الان، مدام ذهنم درگیر این هست که کار رو بهبود بدیم.

البته، انگیزه زیادی برای شرکت در سایر مسابقه‌های کگل دارم. چند نمونه مسابقه خوب از نظر خودم رو انتخاب کردم:
* آنوریسم‌ مغزی
* پیش‌بینی قیمت کالا
Audio
یک وبلاگی خوبی در roadmap.sh با موضوع مصاحبه (Top 60+ Data Science Interview Questions and Answers) دیدم و پادکستش کردم. ارزیابی کنید که چقدر از مطالب گفته‌شده رو بلدید...

پادکست‌های کانال داره زیاد میشه. می‌تونید توی مسیرهاتون پلی‌لیستش رو گوش بدید.
یک نفر توی سایت کامنت گذاشته:
با فرض اینکه اطلاعات کاملا درست بوده باشه، واقعا قشنگ توضیح دادید و باعث افتخاره که به زبان فارسی هم داریم این محتواهای با کیفیت رو میبینیم.

کامنت عجیبیه. وضعیت برزخیه! اصلا منو یاد فیلم Inception میندازه. چطوری میشه "قشنگ توضیح دادن" رو منوط به فرض "کاملا درست بودن اطلاعات" کرد؟! 🧐