This media is not supported in your browser
VIEW IN TELEGRAM
A core challenge in #DeepLearning is the disconnect between the theory of how models generalize and how they perform in practice. A new theoretical framework demonstrates how to understand model generalization through optimization behavior. Check it out at https://ai.googleblog.com/2021/03/a-new-lens-on-understanding.html?m=1
@ml_nlp_cv
@ml_nlp_cv
Forwarded from PyTorch Howsam
SpeechBrain is an open-source and all-in-one speech toolkit based on PyTorch.
یک لایبرری خوب پایتورچی برای speech
داکیومنت
@pytorch_howsam
یک لایبرری خوب پایتورچی برای speech
داکیومنت
@pytorch_howsam
گفتگو با اندرو ان-جی (استاد دانشگاه استنفورد) -چهارشنبه هفته آینده
لینک ثبت نام رایگان:
yun.ir/z03a3g
@ml_nlp_cv
لینک ثبت نام رایگان:
yun.ir/z03a3g
@ml_nlp_cv
Forwarded from فیلاگر|جامعه هوش مصنوعی ایران
🎥ویدیو جلسه دوازدهم #کدنویسی_هوش_مصنوعی_با_فیلاگر آپلود شد!
🔺موضوع این جلسه:
"پیشبینی قیمت بیتکوین با هوش مصنوعی"
💻در رویداد کدنویسی هوش مصنوعی با فیلاگر، قدم به قدم، به صورت آنلاین و گروهی، برنامه نویسی هوش مصنوعی رو یاد میگیریم.
🔸حضور در این رویداد کاملا رایگان است.
📌برای تماشای رایگان ویدیو این جلسه به همراه تمام جلسات قبلی با ترافیک نیمبها و دانلود کدها، به لینک زیر مراجعه کنید:
🔺🔗ویدیو جلسات کدنویسی هوشمصنوعی با فیلاگر
🎟برای شرکت در جلسات بعدی، کانال تلگرام فیلاگر رو دنبال کنید.
👉🏻@filoger_com
💜با به اشتراکگذاری این برنامه رایگان، در نشر دانش سخاوتمند باشید:)
#فیلاگر_تی_وی
🧠فیلاگر|جامعه هوشمصنوعی ایران
@filoger_com
🔺موضوع این جلسه:
"پیشبینی قیمت بیتکوین با هوش مصنوعی"
💻در رویداد کدنویسی هوش مصنوعی با فیلاگر، قدم به قدم، به صورت آنلاین و گروهی، برنامه نویسی هوش مصنوعی رو یاد میگیریم.
🔸حضور در این رویداد کاملا رایگان است.
📌برای تماشای رایگان ویدیو این جلسه به همراه تمام جلسات قبلی با ترافیک نیمبها و دانلود کدها، به لینک زیر مراجعه کنید:
🔺🔗ویدیو جلسات کدنویسی هوشمصنوعی با فیلاگر
🎟برای شرکت در جلسات بعدی، کانال تلگرام فیلاگر رو دنبال کنید.
👉🏻@filoger_com
💜با به اشتراکگذاری این برنامه رایگان، در نشر دانش سخاوتمند باشید:)
#فیلاگر_تی_وی
🧠فیلاگر|جامعه هوشمصنوعی ایران
@filoger_com
Finetune GPT2-XL (1.5 Billion Parameters) and GPT-NEO (2.7 B) on a single GPU with Huggingface Transformers using DeepSpeed
https://github.com/Xirider/finetune-gpt2xl
@ml_nlp_cv
https://github.com/Xirider/finetune-gpt2xl
@ml_nlp_cv
GitHub
GitHub - Xirider/finetune-gpt2xl: Guide: Finetune GPT2-XL (1.5 Billion Parameters) and finetune GPT-NEO (2.7 B) on a single GPU…
Guide: Finetune GPT2-XL (1.5 Billion Parameters) and finetune GPT-NEO (2.7 B) on a single GPU with Huggingface Transformers using DeepSpeed - GitHub - Xirider/finetune-gpt2xl: Guide: Finetune GPT2-...
وبینار NVIDIA
با حضور مدیر عامل NVIDIA، بزرگان یادگیری عمیق و دیگر صنایع از شرکتهای بزرگ
ثبت نام
@ml_nlp_cv
با حضور مدیر عامل NVIDIA، بزرگان یادگیری عمیق و دیگر صنایع از شرکتهای بزرگ
ثبت نام
@ml_nlp_cv
NVIDIA
The Premiere AI Conference: NVIDIA #GTC22. March 21-24, 2022.
One pass for 4 days of technical talks, demos, networking, workshops, and more. All sessions can be viewed live or on-demand.
Topological GNNs and graph models for video
Two articles recently were featured on Synced. One is Making GNNs ‘Topology-Aware’ to Advance their Expressive Power about using persistent homology for additional expressivity of GNNs. Another is SOTA GNN ‘Reasons’ Interactions over Time to Boost Video Understanding about modeling images as graphs to reason about their content.
@ml_nlp_cv
Two articles recently were featured on Synced. One is Making GNNs ‘Topology-Aware’ to Advance their Expressive Power about using persistent homology for additional expressivity of GNNs. Another is SOTA GNN ‘Reasons’ Interactions over Time to Boost Video Understanding about modeling images as graphs to reason about their content.
@ml_nlp_cv
Synced | AI Technology & Industry Review
Making GNNs ‘Topology-Aware’ to Advance their Expressive Power: New Paper from ETH, SIB & KU Leuven | Making GNNs 'Topology-Aware'…
A research team from ETH Zurich, SIB Swiss Institute of Bioinformatics, and KU Leuven proposes Topological Graph Layer (TOGL), a new type of graph neural network layer capable of leveraging the multi-scale topological information of input graphs.Graph neural…
Adversarial machine learning: The underrated threat of data poisoning
https://bdtechtalks.com/2021/04/05/machine-learning-data-poisoning-2/
@ml_nlp_cv
https://bdtechtalks.com/2021/04/05/machine-learning-data-poisoning-2/
@ml_nlp_cv
TechTalks - Technology solving problems... and creating new ones
Adversarial machine learning: The underrated threat of data poisoning - TechTalks
A new research paper shows that machine learning systems can fail against adversarial examples even if they have been trained with randomized smoothing techniques.
گوگل، کد Lyra را Open Source کرد.
https://opensource.googleblog.com/2021/04/lyra-enabling-voice-calls-for-next-billion-users.html?m=1
این Audio codec که مبتنی بر یادگیری ماشین می باشد، کیفیت تماس صوتی رو حتی در جاهایی که سیگنال تماس ضعیف باشد، بالا نگه میدارد.
@ml_nlp_cv
https://opensource.googleblog.com/2021/04/lyra-enabling-voice-calls-for-next-billion-users.html?m=1
این Audio codec که مبتنی بر یادگیری ماشین می باشد، کیفیت تماس صوتی رو حتی در جاهایی که سیگنال تماس ضعیف باشد، بالا نگه میدارد.
@ml_nlp_cv
Google Open Source Blog
Lyra - enabling voice calls for the next billion users
That’s why in February we introduced Lyra: a revolutionary new audio codec using machine learning to produce high-quality voice calls.
Forwarded from Programming Resources
This media is not supported in your browser
VIEW IN TELEGRAM
Make your code clearer, more concise, and more Pythonic with Sourcery's coding assistant.
ابزار sourcery کد پایتونتون رو ریفکتور و تمیز میکنه. برای PyCharm و VSCode هم addOn آماده داره.
#python #refactor #clean #cleancode #refactoring #tools #pycharm #vscode
@pythony
https://sourcery.ai
ابزار sourcery کد پایتونتون رو ریفکتور و تمیز میکنه. برای PyCharm و VSCode هم addOn آماده داره.
#python #refactor #clean #cleancode #refactoring #tools #pycharm #vscode
@pythony
https://sourcery.ai
MBRL-Lib: A Modular Library for Model-based Reinforcement Learning
https://github.com/facebookresearch/mbrl-lib
Paper
@ml_nlp_cv
https://github.com/facebookresearch/mbrl-lib
Paper
@ml_nlp_cv
GitHub
GitHub - facebookresearch/mbrl-lib: Library for Model Based RL
Library for Model Based RL . Contribute to facebookresearch/mbrl-lib development by creating an account on GitHub.
Forwarded from تکنولوژی و فناوری | Android & PC
This media is not supported in your browser
VIEW IN TELEGRAM
یک کمپانی اومده با پردازش تصویر و هوش مصنوعی، فیلمها دوبله میکنه.لحن و صدای بازیگرا عوض نمیشه ولی زبان اونها عوض میشه. دیالوگها با حرکات دهان بازیگرا تو فیلمها و مدت دیالوگشون هماهنگ میشه
خب کم کم با زیر نویس و دوبلاژ بی کیفیت خداحافظی کنید.
#خبرهای_تکنولوڑی_را_بخوانید_و_شگفت_زده_شوید👇👇👇👇
@iAPtel
خب کم کم با زیر نویس و دوبلاژ بی کیفیت خداحافظی کنید.
#خبرهای_تکنولوڑی_را_بخوانید_و_شگفت_زده_شوید👇👇👇👇
@iAPtel
Forwarded from NLP stuff
معماری تماما MLP برای پردازش تصویر
پست امروز درباره یک معماری ساده است که همین دو روز پیش مقالهاش منتشر شده. این معماری برای تسک دستهبندی تصاویر ارائه شده و بر خلاف شبکههای نامداری مثل ResNet و ViT هیچ گونه کانولوشن و اتنشی درون خودش نداره و تماما از MLP تشکیل شده. خیلی خلاصه بخوایم توضیح بدیم، ابتدا مثل ViT میاد و تصویر رو به تکه (patch) هایی تقسیم میکنه، سپس بعد از عبور دادن این پچها از لایهی امبدینگ و به دست آوردن یک وکتور برای هر یک از تکهها، اونها رو از N تا لایه به اسم MixerLayer میگذرونه. این MixerLayer درون خودش از دو تا شبکه MLP تشکیل شده که اولیش میاد یک فیدفوروارد روی یک جنبه از تماما تصویرها میزنه (در واقع یک فیچر از روی یک فیچر تمامی تکهها درست میکنه) و دومین MLP هم میاد یک فیدفوروارد از روی فیچرهای یک تکه درست میکنه (شکل پیوست شده رو اگر ببینید درکش بسیار راحته، به اون T یا Transpose ها فقط باید دقت کنید) در نهایت هم به یک شبکه رسیدند و آزمایشهای مختلف پیشآزمایش و فاین تیون رو روش انجام دادند.
شبکه اش از نظر دقتی خاص و برجسته نیست و البته پرت هم نیست. نقطه مثبتش رو میشه نرخ توان عملیاتی بالاش (throughput) دونست که خیلی از شبکههای مثل ViT بهتره (یک دلیلش میتونه این باشه که توی ViT به خاطر وجود اتنشن با افزایش رزولشن و در نتیجه افزایش تعداد تکهها و طول ورودی، میزان نیاز به حافظه به صورت توان دویی زیاد میشه ولی اینجا این اتفاق به صورت خطی رخ میده).
کلا مقاله جالبیه و خب البته سوالاتی رو هم برمیانگیزه که چطوری بدون سوگیری القایی (inductive bias) خاصی به این نتیجه رسیده.
مثل همیشه یانیک کیلچر هم به سرعت یک ویدئو در توضیح این مقاله بیرون داده که میتونید تماشا کنید:
https://www.youtube.com/watch?v=7K4Z8RqjWIk
لینک مقاله:
https://arxiv.org/abs/2105.01601v1
#read
#paper
#watch
@nlp_stuff
پست امروز درباره یک معماری ساده است که همین دو روز پیش مقالهاش منتشر شده. این معماری برای تسک دستهبندی تصاویر ارائه شده و بر خلاف شبکههای نامداری مثل ResNet و ViT هیچ گونه کانولوشن و اتنشی درون خودش نداره و تماما از MLP تشکیل شده. خیلی خلاصه بخوایم توضیح بدیم، ابتدا مثل ViT میاد و تصویر رو به تکه (patch) هایی تقسیم میکنه، سپس بعد از عبور دادن این پچها از لایهی امبدینگ و به دست آوردن یک وکتور برای هر یک از تکهها، اونها رو از N تا لایه به اسم MixerLayer میگذرونه. این MixerLayer درون خودش از دو تا شبکه MLP تشکیل شده که اولیش میاد یک فیدفوروارد روی یک جنبه از تماما تصویرها میزنه (در واقع یک فیچر از روی یک فیچر تمامی تکهها درست میکنه) و دومین MLP هم میاد یک فیدفوروارد از روی فیچرهای یک تکه درست میکنه (شکل پیوست شده رو اگر ببینید درکش بسیار راحته، به اون T یا Transpose ها فقط باید دقت کنید) در نهایت هم به یک شبکه رسیدند و آزمایشهای مختلف پیشآزمایش و فاین تیون رو روش انجام دادند.
شبکه اش از نظر دقتی خاص و برجسته نیست و البته پرت هم نیست. نقطه مثبتش رو میشه نرخ توان عملیاتی بالاش (throughput) دونست که خیلی از شبکههای مثل ViT بهتره (یک دلیلش میتونه این باشه که توی ViT به خاطر وجود اتنشن با افزایش رزولشن و در نتیجه افزایش تعداد تکهها و طول ورودی، میزان نیاز به حافظه به صورت توان دویی زیاد میشه ولی اینجا این اتفاق به صورت خطی رخ میده).
کلا مقاله جالبیه و خب البته سوالاتی رو هم برمیانگیزه که چطوری بدون سوگیری القایی (inductive bias) خاصی به این نتیجه رسیده.
مثل همیشه یانیک کیلچر هم به سرعت یک ویدئو در توضیح این مقاله بیرون داده که میتونید تماشا کنید:
https://www.youtube.com/watch?v=7K4Z8RqjWIk
لینک مقاله:
https://arxiv.org/abs/2105.01601v1
#read
#paper
#watch
@nlp_stuff
Telegram
stuff
Forwarded from teias (Pasargadschools previously)
#سخنرانی
"Making Sense of Limited Resources in Cross-Lingual NLP"
‼️سخنرانی بهصورت آنلاین میباشد. لطفا جهت دریافت لینک سخنرانی و شرکت در رویداد، از طریق لینک زیر ثبتنام فرمایید.
📆 دوشنبه ١٧ خردادماه ۱۴۰۰
🕚 ساعت ١۶:٠٠
ثبتنام(الزامی):
https://teias.institute/rasooli-talk202106/
‼️مهلت ثبتنام: ١٢ خردادماه ۱۴٠٠
@pasargadschools
"Making Sense of Limited Resources in Cross-Lingual NLP"
‼️سخنرانی بهصورت آنلاین میباشد. لطفا جهت دریافت لینک سخنرانی و شرکت در رویداد، از طریق لینک زیر ثبتنام فرمایید.
📆 دوشنبه ١٧ خردادماه ۱۴۰۰
🕚 ساعت ١۶:٠٠
ثبتنام(الزامی):
https://teias.institute/rasooli-talk202106/
‼️مهلت ثبتنام: ١٢ خردادماه ۱۴٠٠
@pasargadschools
رویترز: استفاده از هوش مصنوعی در صنعت فیلم سازی؛ این تام هنکسه که داره ژاپنی صحبت میکنه؟
https://www.reuters.com/technology/is-that-tom-hanks-speaking-japanese-no-its-just-ai-2021-05-19/
@ml_nlp_cv
https://www.reuters.com/technology/is-that-tom-hanks-speaking-japanese-no-its-just-ai-2021-05-19/
@ml_nlp_cv
Reuters
Is that Tom Hanks speaking in Japanese? No, it’s just AI
Bad lip-syncing in dubbing and subtitles can put off audiences and hurt box office takings of foreign films.
This media is not supported in your browser
VIEW IN TELEGRAM
From conversation to code: Microsoft introduces its first product features powered by #GPT-3
https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
@ml_nlp_cv
https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
@ml_nlp_cv
یادگیری ماشین در صنعت؛ یا چگونه یک مسالهی هوش مصنوعی را در دستگاه نوا بنوازیم!
یادداشت عارف قدمایی
در این نوشته، سعی دارم تجربیات خود را به عنوان یک مهندس یادگیری ماشین با شما به اشتراک بگذارم. عنوان را درست خواندهاید، تمرکز من در این نوشته، اصلا در مورد یادگیری هوش مصنوعی نیست. اگر کلیات حل یک مسئلهی ماشین لرنینگ را بلدید و میخواهید با فضای اینکار در صنعت و نحوهی استفاده از دانش خود در محیطهای کاری آشنا شوید، این مقاله مخصوص شماست.
یادداشت عارف قدمایی
در این نوشته، سعی دارم تجربیات خود را به عنوان یک مهندس یادگیری ماشین با شما به اشتراک بگذارم. عنوان را درست خواندهاید، تمرکز من در این نوشته، اصلا در مورد یادگیری هوش مصنوعی نیست. اگر کلیات حل یک مسئلهی ماشین لرنینگ را بلدید و میخواهید با فضای اینکار در صنعت و نحوهی استفاده از دانش خود در محیطهای کاری آشنا شوید، این مقاله مخصوص شماست.
Forwarded from NLP stuff
بخش Dataset Loaders از سایت paperswithcode!
سایت paperswithcode (قبلا این پست و این پست و این پست را دربارهاش گذاشته بودیم) که بخش دیتاستها را قبلا به سایتش اضافه کرده بود، حالا جدیدا بخشی رو اضافه کرده که برای هر دیتاست، کد لود کردنش رو با کتابخونههای مختلف مثل huggingface datasets, TensorFlow datasets, OpenMMLab, AllenNLP آورده؛ خیلی کاربردی و یک جا.
لینک یک دیتاست مثال:
https://paperswithcode.com/dataset/sst
#link
@nlp_stuff
سایت paperswithcode (قبلا این پست و این پست و این پست را دربارهاش گذاشته بودیم) که بخش دیتاستها را قبلا به سایتش اضافه کرده بود، حالا جدیدا بخشی رو اضافه کرده که برای هر دیتاست، کد لود کردنش رو با کتابخونههای مختلف مثل huggingface datasets, TensorFlow datasets, OpenMMLab, AllenNLP آورده؛ خیلی کاربردی و یک جا.
لینک یک دیتاست مثال:
https://paperswithcode.com/dataset/sst
#link
@nlp_stuff
Forwarded from PyTorch Howsam
تز دکترای Andrej Karpathy که درباره کانکشن بین پردازش زبان طبیعی و کامپیوتر ویژن نوشته شده.
به طور خاص مبحث image captioning
که برای علاقمندان این حوزه می تونه مفید باشه.
https://cs.stanford.edu/people/karpathy/main.pdf
با تشکر از امیررضا عزیز
@pytorch_howsam
به طور خاص مبحث image captioning
که برای علاقمندان این حوزه می تونه مفید باشه.
https://cs.stanford.edu/people/karpathy/main.pdf
با تشکر از امیررضا عزیز
@pytorch_howsam
طراحی نسل بعدی پردازنده های گوگل بر اساس یادگیری تقویتی خواهد بود و امروز مقاله ش در نیچر چاپ شد https://www.nature.com/articles/s41586-021-03544-w طراح پروژه هم یک خانم ایرانی است که در ایران کارشناسی گرفت.
@ml_nlp_cv
@ml_nlp_cv
Nature
A graph placement methodology for fast chip design
Nature - Machine learning tools are used to greatly accelerate chip layout design, by posing chip floorplanning as a reinforcement learning problem and using neural networks to generate...
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل از امکان جدیدی به نام Cinematic Moments رونمایی کرده که در اون با استفاده از شبکههای عصبی در بین عکسهای پشتسرهمی که از یک سوژه گرفتهاید، فریمهای جدیدی میسازه و اونها رو تبدیل به یک ویدیوی متحرک میکنه.
@ml_nlp_cv
@ml_nlp_cv