Machine Learning NLP + CV
285 subscribers
223 photos
53 videos
42 files
474 links
مطالب مفید در حوزه های یادگیری ماشین و بینایی کامپیوتر
Download Telegram
Summary of Model Based Reinforcement Learning tutorial from #ICML2020

https://t.co/VQI2k76wIY
https://t.co/wBYRniAESd

@ml_nlp_cv
#سخنرانی

"Actual Causality and Counter-Factual Reasoning"

Mohammad Reza Mousavi

University of Leicester


‼️سخنرانی به‌صورت آنلاین می‌باشد. پس از ثبت‌نام، اطلاعات و نحوه شرکت در رویداد از طریق ایمیل اطلاع‌رسانی خواهد شد.


📆 سه‌شنبه ٢٠ آبان‌ماه ۱۳۹۹

🕚 ساعت ١١:٣٠ الی ١٢:٣٠

ثبت‌نام(الزامی):

teias.institute/mousavi-talk202011/

@pasargadschools
دوره‌ی یادگیری عمیق دانشگاه NYU که توسط اساتیدی مانند Yann LeCun و Alfredo Canziani ارائه شده و به 11 زبان از جمله زبان فارسی موجود است:

زبان انگلیسی:
https://atcold.github.io/pytorch-Deep-Learning/

زبان فارسی:
https://atcold.github.io/pytorch-Deep-Learning/fa/

@ml_nlp_cv
Constructive Representation Learning
📗 یک مقاله مروری عالی. https://arxiv.org/abs/2010.05113

@ml_nlp_cv
MIT Technology Review: AI has cracked a key mathematical puzzle for understanding our world
yun.ir/fswkxb

"...
#Computer_vision. Operator learning is not restricted to PDEs. Images can naturally be viewed as real-valued functions on 2-d domains and videos simply add a temporal structure. Our approach is therefore a natural choice for problems in computer vision where invariance to discretization crucial. We leave this as an interesting and exciting future direction."

@ml_nlp_cv
The Roadmap of Mathematics for #Deep_Learning

@ml_nlp_cv
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
Large-scale multilingual audio visual dubbing

Paper: https://arxiv.org/pdf/2011.03530v1.pdf

توی این مقاله روشی ارائه شده که میتونه فیلم رو با دقت بالایی از یه زبان به یه زبان دیگه ترجمه و دوبله کنه. میتونید نمونه این دوبله‌ها رو در این جا ببینید:

https://m.youtube.com/channel/UC6CIb_eaKEsKE213TVEdYFw/videos?view=0
Forwarded from NLP stuff
یکی از مباحث مهم، کوچک کردن مدل‌های غول‌پیکره. قبلا یه پست (https://t.iss.one/nlp_stuff/60) درباره‌اش گذاشته بودیم. Quantization یکی دیگه از روش‌های کوچک کردن مدل‌های بزرگه. در این روش بدون آموزش مجدد، مثلا اعداد اعشاری ۳۲ بیتی با یک عدد صحیح ۸ بیتی تخمین زده میشه و با اینکه کارایی مدل یه ذره کم میشه، اما حجم مدل خیلی پایین میاد و کلی در مصرف رم و حافظه صرفه‌جویی میشه و سرعت بالا میره.
در لینک زیر این روش برای مدل‌های کتابخانه‌ی hugging face و با استفاده از کتابخانه‌ی ONNX Runtime پیاده شده و نتایج مقایسه شده:

https://medium.com/microsoftazure/faster-and-smaller-quantized-nlp-with-hugging-face-and-onnx-runtime-ec5525473bb7

#read
#blog

@nlp_stuff
یکی از مقالاتی که در کنفرانس #ICLR2021 ازش خواهیم شنید.

Grounded Language Learning Fast and Slow
https://arxiv.org/abs/2009.01719

@ml_nlp_cv
📕Language Model is All You Need
Natural Language Understanding as #Question_Answering

📄 Abstract 📗Download

@ml_nlp_cv