#معرفی_کتاب
در حوزه تنسورفلو/کراس و سایکیتلرن، اگه دنبال کتابی باشی، احتمالا به کتاب کمنظیر hands on machine learning میرسی. اما برای پایتورچ ما کتاب خوبی ندیدیم تا الان!
اما یک کتاب جدید پایتورچی اومده که به نظر میرسه کتاب خوبیه. نویسنده اولش آقای سباستین راشکا هست که معروفه... اسم کتاب چیه؟
Machine learning with scikit-learn and pytorch (link)
فهرست مطالب جونداری هم داره!
نویسنده سوم هم ایرانیه که باریکالله...
چند تا کتاب و دوره معرفی کنیم تو تعطیلات بخونیم! الکی! 🤪
@pytorch_howsam
در حوزه تنسورفلو/کراس و سایکیتلرن، اگه دنبال کتابی باشی، احتمالا به کتاب کمنظیر hands on machine learning میرسی. اما برای پایتورچ ما کتاب خوبی ندیدیم تا الان!
اما یک کتاب جدید پایتورچی اومده که به نظر میرسه کتاب خوبیه. نویسنده اولش آقای سباستین راشکا هست که معروفه... اسم کتاب چیه؟
Machine learning with scikit-learn and pytorch (link)
فهرست مطالب جونداری هم داره!
نویسنده سوم هم ایرانیه که باریکالله...
چند تا کتاب و دوره معرفی کنیم تو تعطیلات بخونیم! الکی! 🤪
@pytorch_howsam
سلام. اگه علاقه مند به خواندن کتاب هستید کتاب زیر هم کتاب مناسبی برای یادگیری عمیق با پایتورچ است.
https://www.amazon.com/Modern-Computer-Vision-PyTorch-applications/dp/1839213477
یک کتاب خوب کدنویسی پایتورچ و مخصوص بینایی کامپیوتر
ممنون از سعید عزیز بابت معرفی کتاب ❤️
https://www.amazon.com/Modern-Computer-Vision-PyTorch-applications/dp/1839213477
یک کتاب خوب کدنویسی پایتورچ و مخصوص بینایی کامپیوتر
ممنون از سعید عزیز بابت معرفی کتاب ❤️
Forwarded from آکادمی هوشمصنوعی هُوسم
⭕️ مومنتوم در گرادیان کاهشی نقش جالبی دارد. در این انیمیشنها، تاثیر تغییر مومنتوم را میتوانید مشاهده کنید.
1️⃣ مومنتوم صفر است. در چاله ماند و تمام!
2️⃣ مومنتوم 0.9 است. میخواهد از چاله فرار کند، اما زورش کم بود.
3️⃣ مومنتوم 0.95 است. نزدیک بود از چاله بپرد بیرون و به چاه برسد. نشد!
4️⃣ مومنتوم 0.99 است. بالاخره از چاله بیرون پرید و در چاه افتاد. اما به قیمت نوسان زیاد!
🌐 اگر هم علاقهمند به مطالعه گرادیان کاهشی بودید، به لینک زیر نگاهی بیندازید:
https://howsam.org/gradient-descent/
@howsam_org
1️⃣ مومنتوم صفر است. در چاله ماند و تمام!
2️⃣ مومنتوم 0.9 است. میخواهد از چاله فرار کند، اما زورش کم بود.
3️⃣ مومنتوم 0.95 است. نزدیک بود از چاله بپرد بیرون و به چاه برسد. نشد!
4️⃣ مومنتوم 0.99 است. بالاخره از چاله بیرون پرید و در چاه افتاد. اما به قیمت نوسان زیاد!
🌐 اگر هم علاقهمند به مطالعه گرادیان کاهشی بودید، به لینک زیر نگاهی بیندازید:
https://howsam.org/gradient-descent/
@howsam_org
Forwarded from آکادمی هوشمصنوعی هُوسم
Media is too big
VIEW IN TELEGRAM
🔥 شبکه عصبی بازگشتی (RNN) 🔥
🎬 در این ویدئو درباره شبکه بازگشتی یا RNN توضیح دادهایم و ساختار داخلی آن را هم تشریح کردهایم.
📜 این ویدئو خلاصهای از پست وبلاگی شبکه بازگشتی هوسم است. پس از مشاهده ویدئو، پیشنهاد میکنیم پست زیر را مطالعه کنید:
https://howsam.org/recurrent-neural-network/
📱اگر به این ویدئوهای کوتاه علمی علاقهمندید، به اینستاگرام هوسم بپیوندید:
https://www.instagram.com/howsam_org/
@howsam_org
🎬 در این ویدئو درباره شبکه بازگشتی یا RNN توضیح دادهایم و ساختار داخلی آن را هم تشریح کردهایم.
📜 این ویدئو خلاصهای از پست وبلاگی شبکه بازگشتی هوسم است. پس از مشاهده ویدئو، پیشنهاد میکنیم پست زیر را مطالعه کنید:
https://howsam.org/recurrent-neural-network/
📱اگر به این ویدئوهای کوتاه علمی علاقهمندید، به اینستاگرام هوسم بپیوندید:
https://www.instagram.com/howsam_org/
@howsam_org
با آگمنتیشن آشنا هستید؟ با اتوآگمنت چطور؟
احتمالا با دیتاآگمنتیشن آشنا هستید. روشی که دادهها (مثلا تصویر) رو تغییراتی میدیم. مثل کراپ، ریسایز، پدینگ و غیره.
همیشه ما باید تکنیکهای آگمنت رو پشت هم بچینیم و یک آگمنتیشن خوب بسازیم.
اما Auto Augment کار رو راحتتر میکنه. دیگه نیازی نیست ما کاری کنیم و خودش خودکار آگمنت رو انجام میده.
پایتورچ دستوراتش رو داره. توی تصویر بالا دستورش رو نوشتیم و چهار بار روی یک تصویر دلخواه اعمالش کردیم. ببینید چه تصاویر چالشی از تصویر اصلی ساخته. تصویر اصلی یک کامیون هست.
@pytorch_howsam
احتمالا با دیتاآگمنتیشن آشنا هستید. روشی که دادهها (مثلا تصویر) رو تغییراتی میدیم. مثل کراپ، ریسایز، پدینگ و غیره.
همیشه ما باید تکنیکهای آگمنت رو پشت هم بچینیم و یک آگمنتیشن خوب بسازیم.
اما Auto Augment کار رو راحتتر میکنه. دیگه نیازی نیست ما کاری کنیم و خودش خودکار آگمنت رو انجام میده.
پایتورچ دستوراتش رو داره. توی تصویر بالا دستورش رو نوشتیم و چهار بار روی یک تصویر دلخواه اعمالش کردیم. ببینید چه تصاویر چالشی از تصویر اصلی ساخته. تصویر اصلی یک کامیون هست.
@pytorch_howsam
⭕️ میدونی پایتورچ یکسری مدل pre-train کوانتیزه شده داره؟
✅ خب حتما Pre-train رو میدونید چیه. همون وزنهای آماده مدل که همیشه ازشون استفاده میکنیم.
✅ اما کوانتیزه چیه؟ ببینید، وزن مدلها بهصورت پیشفرض 32 بیت اعشاری هست. اما با کوانتیزه کردن میتونیم وزنها رو بهصورت 8 بیت integer داشته باشیم و البته کارایی شبکه هم افت زیادی نکنه.
✅ خب به درد کجا میخوره؟ بردهـــــــــای امبــــــــدد و موبــــــایل (با کوانتیزه مصرف رم رو به شدت کم کردیم)
✅ چطوری ازش استفاده کنیم؟ اینم یک مثال ساده که موبایلنت کوانتیزه رو فراخوانی کرده:
import torchvision.models as models
model = models.quantization.mobilenet_v2(pretrained=True, quantize=True)
model.eval()
out = model(torch.rand(1, 3, 224, 224))
@pytorch_howsam
✅ خب حتما Pre-train رو میدونید چیه. همون وزنهای آماده مدل که همیشه ازشون استفاده میکنیم.
✅ اما کوانتیزه چیه؟ ببینید، وزن مدلها بهصورت پیشفرض 32 بیت اعشاری هست. اما با کوانتیزه کردن میتونیم وزنها رو بهصورت 8 بیت integer داشته باشیم و البته کارایی شبکه هم افت زیادی نکنه.
✅ خب به درد کجا میخوره؟ بردهـــــــــای امبــــــــدد و موبــــــایل (با کوانتیزه مصرف رم رو به شدت کم کردیم)
✅ چطوری ازش استفاده کنیم؟ اینم یک مثال ساده که موبایلنت کوانتیزه رو فراخوانی کرده:
import torchvision.models as models
model = models.quantization.mobilenet_v2(pretrained=True, quantize=True)
model.eval()
out = model(torch.rand(1, 3, 224, 224))
@pytorch_howsam
سلام دوستان
یک سوال مهم؟! 🤔
تئوری و ریاضیات در هوش مصنوعی مهمه؟
یک سوال مهم؟! 🤔
تئوری و ریاضیات در هوش مصنوعی مهمه؟
Anonymous Poll
83%
آره مهمه. واقعا بدون تئوری و ریاضی نمیشه موفق شد. بدون اینا توی کدنویسی هم نمیشه کار خاصی کرد.
17%
نه اصلا. کراس و سایکیتلرن رو ببین. با چهار خط کد، مدل یادگیری ماشین یا عمیق ترین میکنی.
یک لایبرری عالی از مدلهای سگمنتیشن
این لایبرری که پایتورچی هست، مدلهای خوبی از سگمنیشن تصاویر رو آماده کرده. هرکدوم از مدلها میتونن بکبونهای مختلفی داشته باشن.
مدلها:
Unet
Unet++
MAnet
Linknet
FPN
PSPNet
PAN
DeepLabV3
DeepLabV3+
این هم لینک گیتهاب:
https://github.com/qubvel/segmentation_models.pytorch
@pytorch_howsam
این لایبرری که پایتورچی هست، مدلهای خوبی از سگمنیشن تصاویر رو آماده کرده. هرکدوم از مدلها میتونن بکبونهای مختلفی داشته باشن.
مدلها:
Unet
Unet++
MAnet
Linknet
FPN
PSPNet
PAN
DeepLabV3
DeepLabV3+
این هم لینک گیتهاب:
https://github.com/qubvel/segmentation_models.pytorch
@pytorch_howsam
سلام
عیدتون مبارک 🥳
اسم کتاب رو ببینید و عشق کنید! فقط پیشپردازش...
https://www.amazon.com/Hands-Data-Preprocessing-Python-effectively/dp/1801072132
نگاهی به فهرست مطالب هم انداختیم، خوب بود. نویسنده هم روی جعفری هستن. در صفحه تقدیم، به زبان فارسی کتاب رو به پدر و مادرشون تقدیم کردن. 🙃
راستی، اگه شما هم تا الان دیتاستی یا کدی در گیتهاب آماده کردید، آدرسش رو برای ما دایرکت کنید. ممکنه اینجا معرفی کنیم. فقط خواهشا...
@pytorch_howsam
عیدتون مبارک 🥳
اسم کتاب رو ببینید و عشق کنید! فقط پیشپردازش...
https://www.amazon.com/Hands-Data-Preprocessing-Python-effectively/dp/1801072132
نگاهی به فهرست مطالب هم انداختیم، خوب بود. نویسنده هم روی جعفری هستن. در صفحه تقدیم، به زبان فارسی کتاب رو به پدر و مادرشون تقدیم کردن. 🙃
راستی، اگه شما هم تا الان دیتاستی یا کدی در گیتهاب آماده کردید، آدرسش رو برای ما دایرکت کنید. ممکنه اینجا معرفی کنیم. فقط خواهشا...
@pytorch_howsam
اگه داکیومنتت رو با وُرد مینویسی، میتونی با نرمافزار مایکروسافت ویزیو (Visio) به راحتی شکلهای مربوط به دیپ لرنینگ رو بکشی. اینم یه نمونه!
@pytorch_howsam
@pytorch_howsam
تصویری که مشاهده ميکنيد کارنامه اعمال کسی هست که تنها یک سال توی کگل فعالیت داشته. در یک وبلاگ اومده درمورد تجارب خودش گفته. مسابقههایی که شرکت کرده و...
https://amontgomerie.github.io/2022/02/10/kaggle-journey.html
https://amontgomerie.github.io/2022/02/10/kaggle-journey.html
چطوری توی پایتورچ مدلم رو فریز کنم؟
به تصویر نگاه کن؛ مدل vgg رو لود کردیم. بعدش با یک حلقه ساده همه لایهها رو فریز کردیم. همین الان کولب رو باز کن و اینو تمرین کن!
میخوای فقط بعضی لایهها رو فریز کنی؟ خب اونم ساده هست. اونم بعدا میگیم بهتون...
@pytorch_howsam
به تصویر نگاه کن؛ مدل vgg رو لود کردیم. بعدش با یک حلقه ساده همه لایهها رو فریز کردیم. همین الان کولب رو باز کن و اینو تمرین کن!
میخوای فقط بعضی لایهها رو فریز کنی؟ خب اونم ساده هست. اونم بعدا میگیم بهتون...
@pytorch_howsam
💣 یک خبر داغ از هوش مصنوعی 🔥
|
خب میدونید که AI یعنی Artificial Intelligence یا همون هوش مصنوعی. اما AGI چیه؟ بیایید تعریف AGI رو از زبان ویکیپدیا بخونیم:
Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that a human being can.
یعنی AGI حالت عامتر AI هست و عامل یا موجود هوشمند (Agent) بتونه هرکاری رو بفهمه و یاد بگیره. خب یعنی چی؟
ببینید، ما تا الان با یادگیری عمیق اینطوری کار کردیم که برای هر کاری (تسکی) یک شبکه آموزش دادیم. یک شبکه برای تشخیص اشیا، یکی برای ترکینگ، یکی برای زبان، یکی برای صوت و ... اصلا شاید همه اینها با ترنسفورمر با یک ساختار یکسان باشن، ولی وزنهاشون باهم فرق میکنه. قبول دارید؟ روی هر تسک جداگانه شبکه آموزش دیده و وزنها تغییر کرده. خب؟!
اما ما میخواییم همه این کارها رو یک شبکه بیاد انجام بده. یعنی یک ترنسفورمر با یک وزن یکسان برای همه کارها! همین ترنسفورمر با وزن مشخص، زبان رو بفهمه، تصویر رو بفهمه و ...
دیپمایند گوگل، GATO رو معرفی کرده که اینکارو میکنه! 😬 میتونه بازی کنه، بازوی رباتیک بشه، تصویر رو بفهمه و کپشن بزنه و خیلی کارهای دیگه!
دوست داشتید این ویدئوی دو سه دقیقهای در یوتوب رو ببینید: ویدئو
همچنین، اگه خیلی دوست داشتید، مقالش رو هم بخونید: مقاله
@pytorch_howsam
|
خب میدونید که AI یعنی Artificial Intelligence یا همون هوش مصنوعی. اما AGI چیه؟ بیایید تعریف AGI رو از زبان ویکیپدیا بخونیم:
Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that a human being can.
یعنی AGI حالت عامتر AI هست و عامل یا موجود هوشمند (Agent) بتونه هرکاری رو بفهمه و یاد بگیره. خب یعنی چی؟
ببینید، ما تا الان با یادگیری عمیق اینطوری کار کردیم که برای هر کاری (تسکی) یک شبکه آموزش دادیم. یک شبکه برای تشخیص اشیا، یکی برای ترکینگ، یکی برای زبان، یکی برای صوت و ... اصلا شاید همه اینها با ترنسفورمر با یک ساختار یکسان باشن، ولی وزنهاشون باهم فرق میکنه. قبول دارید؟ روی هر تسک جداگانه شبکه آموزش دیده و وزنها تغییر کرده. خب؟!
اما ما میخواییم همه این کارها رو یک شبکه بیاد انجام بده. یعنی یک ترنسفورمر با یک وزن یکسان برای همه کارها! همین ترنسفورمر با وزن مشخص، زبان رو بفهمه، تصویر رو بفهمه و ...
دیپمایند گوگل، GATO رو معرفی کرده که اینکارو میکنه! 😬 میتونه بازی کنه، بازوی رباتیک بشه، تصویر رو بفهمه و کپشن بزنه و خیلی کارهای دیگه!
دوست داشتید این ویدئوی دو سه دقیقهای در یوتوب رو ببینید: ویدئو
همچنین، اگه خیلی دوست داشتید، مقالش رو هم بخونید: مقاله
@pytorch_howsam
#سوال
سلام
مقالات کنفرانسی هم مثل ژورنالها دارای ضریب تاثیر و رتبه بندی هستند؟چگونه می توانیم بفهمیم رتبه و ضریب تاثیرشان چند هست؟
#جواب
کنفرانسها هم رنکنیگ دارن. نام کنفرانس رو در سایت زیر بنویسید تا بهتون نشون میده:
https://www.conferenceranks.com/
@pytorch_howsam
سلام
مقالات کنفرانسی هم مثل ژورنالها دارای ضریب تاثیر و رتبه بندی هستند؟چگونه می توانیم بفهمیم رتبه و ضریب تاثیرشان چند هست؟
#جواب
کنفرانسها هم رنکنیگ دارن. نام کنفرانس رو در سایت زیر بنویسید تا بهتون نشون میده:
https://www.conferenceranks.com/
@pytorch_howsam
اگر به یادگیری تقویتی علاقمند باشین و منابع رو پیگیری کرده باشین، متوجه می شین که منابع خوب برای یادگیری تقویتی کم پیدا می شه
این کتاب اما از دو جهت به سایر منابع ارجحیت داره💣💣
اول این که از پایه ای ترین مفاهیم شروع می کنه و به الگوریتم های پیشرفته یادگیری تقویتی عمیق برای محیط های پیوسته و گسسته می رسه
و دوم این که تمام کدهای کتاب کاملا خط به خط توضیح داده شده و با پایتورچ هم کد نویسی انجام شده 🎯🎯
تنها پیش نیاز مطالعه کتاب ، آگاهی از مفاهیم مقدماتی از ماشین لرنینگ و دیپ لرنینگه و آشنایی با پایتورچ
از مطالعه این کتاب حسابی لذت ببرید💥💫💫💥
این کتاب اما از دو جهت به سایر منابع ارجحیت داره💣💣
اول این که از پایه ای ترین مفاهیم شروع می کنه و به الگوریتم های پیشرفته یادگیری تقویتی عمیق برای محیط های پیوسته و گسسته می رسه
و دوم این که تمام کدهای کتاب کاملا خط به خط توضیح داده شده و با پایتورچ هم کد نویسی انجام شده 🎯🎯
تنها پیش نیاز مطالعه کتاب ، آگاهی از مفاهیم مقدماتی از ماشین لرنینگ و دیپ لرنینگه و آشنایی با پایتورچ
از مطالعه این کتاب حسابی لذت ببرید💥💫💫💥
This media is not supported in your browser
VIEW IN TELEGRAM
با Text to Image Generation آشنا هستید؟
این روزها مورد توجه هست. اینکه با توجه به یک متن ورودی، یک تصویر توسط هوش مصنوعی ساخته بشه. شاید تصاویری از Dall.E دیده باشید. اگر ندیدید، به اینستاگرام هوسم سر بزنید، آخرین پستش همین موضوع هست.
https://www.instagram.com/howsam_org/
اما الان میخواییم درباره یک موضوع جالبتر صحبت کنیم! Text to Video Generation
از روی متن یک ویدئو ساخته بشه که واقعا جذابه. مقالهای با عنوان زیر با استفاده ترنسفورمرهای دیوانه اومده اینکار رو انجام داده.
CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers
ویدئوی بالا هم نمونههایی از خروجی کار رو نشون میده. فعلا ویدئوها کوتاه هستن و ضعیف! اما احتمالا به زودی نسخههای باکیفیتترش رو خواهیم دید. 😊
کدهای این مقاله قرار هست منتشر بشه. فعلا لینک گیتهابش رو گذاشتن ولی کدها منتشر نشده.
https://github.com/thudm/cogvideo
@pytorch_howsam
این روزها مورد توجه هست. اینکه با توجه به یک متن ورودی، یک تصویر توسط هوش مصنوعی ساخته بشه. شاید تصاویری از Dall.E دیده باشید. اگر ندیدید، به اینستاگرام هوسم سر بزنید، آخرین پستش همین موضوع هست.
https://www.instagram.com/howsam_org/
اما الان میخواییم درباره یک موضوع جالبتر صحبت کنیم! Text to Video Generation
از روی متن یک ویدئو ساخته بشه که واقعا جذابه. مقالهای با عنوان زیر با استفاده ترنسفورمرهای دیوانه اومده اینکار رو انجام داده.
CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers
ویدئوی بالا هم نمونههایی از خروجی کار رو نشون میده. فعلا ویدئوها کوتاه هستن و ضعیف! اما احتمالا به زودی نسخههای باکیفیتترش رو خواهیم دید. 😊
کدهای این مقاله قرار هست منتشر بشه. فعلا لینک گیتهابش رو گذاشتن ولی کدها منتشر نشده.
https://github.com/thudm/cogvideo
@pytorch_howsam
سلام سلام
جکس (JAX) رو میشناسید؟ بله، همون کتابخونهای که گوگل ارائه کرده.
جدیدا فیسبوک هم در سایت پایتورچ گفته:
We’re excited to announce the first beta release of functorch. Heavily inspired by Google JAX, functorch is a library that adds composable function transforms to PyTorch.
بیایید یک مثال از مشتق مرتبه اول و دوم توی فانکتورچ ببینیم:
from functorch import grad
x = torch.randn([])
# First-order gradients
cos_x = grad(lambda x: torch.sin(x))(x)
# Second-order gradients
neg_sin_x = grad(grad(lambda x: torch.sin(x)))(x)
یک دستور ساده grad و مشتقگیری به سادگی آب خوردن!
فان: گیمرها میگن کاراکتر توی تصویر بالا جکس هست! چون توی Mortal Kombat یه شخصیتی وجود داره به نام Jax! 😁 فیسبوک باید اسم بهتری انتخاب میکرد! فانکتورچ به درد نمیخوره! مثلا Scorpion! 😅
@pytorch_howsam
جکس (JAX) رو میشناسید؟ بله، همون کتابخونهای که گوگل ارائه کرده.
جدیدا فیسبوک هم در سایت پایتورچ گفته:
We’re excited to announce the first beta release of functorch. Heavily inspired by Google JAX, functorch is a library that adds composable function transforms to PyTorch.
بیایید یک مثال از مشتق مرتبه اول و دوم توی فانکتورچ ببینیم:
from functorch import grad
x = torch.randn([])
# First-order gradients
cos_x = grad(lambda x: torch.sin(x))(x)
# Second-order gradients
neg_sin_x = grad(grad(lambda x: torch.sin(x)))(x)
یک دستور ساده grad و مشتقگیری به سادگی آب خوردن!
فان: گیمرها میگن کاراکتر توی تصویر بالا جکس هست! چون توی Mortal Kombat یه شخصیتی وجود داره به نام Jax! 😁 فیسبوک باید اسم بهتری انتخاب میکرد! فانکتورچ به درد نمیخوره! مثلا Scorpion! 😅
@pytorch_howsam