#مجموعه_داده
#چالش
Announcing the YouTube-8M Segments Dataset
Friday, June 28, 2019
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
یک چالش کگل هم با این مجموعه داده در حال برگزاری است.
به 10 نفر نخست $2,500 دلار داده میشه تا بتونند در ICCV’19 شرکت کنند.
https://www.kaggle.com/c/youtube8m-2019
#چالش
Announcing the YouTube-8M Segments Dataset
Friday, June 28, 2019
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
یک چالش کگل هم با این مجموعه داده در حال برگزاری است.
به 10 نفر نخست $2,500 دلار داده میشه تا بتونند در ICCV’19 شرکت کنند.
https://www.kaggle.com/c/youtube8m-2019
#آموزش
نزدیک یک ماه پیش مهندس قریشی پستی در کانال منتشر کردند که با این سوال شروع شده بود:
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
سایت pyimagesearch پنج روز پیش پستی با عنوان Change input shape dimensions for fine-tuning with Keras منتشر کرده که همین موضوع را توضیح داده است:
Q. Can I fine-tune a CNN on image dimensions *smaller* than what it was originally trained on?
A. Yes, you can!
https://www.pyimagesearch.com/2019/06/24/change-input-shape-dimensions-for-fine-tuning-with-keras/
مطلب مرتبط در کانال:
https://t.iss.one/cvision/1295
نزدیک یک ماه پیش مهندس قریشی پستی در کانال منتشر کردند که با این سوال شروع شده بود:
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
سایت pyimagesearch پنج روز پیش پستی با عنوان Change input shape dimensions for fine-tuning with Keras منتشر کرده که همین موضوع را توضیح داده است:
Q. Can I fine-tune a CNN on image dimensions *smaller* than what it was originally trained on?
A. Yes, you can!
https://www.pyimagesearch.com/2019/06/24/change-input-shape-dimensions-for-fine-tuning-with-keras/
مطلب مرتبط در کانال:
https://t.iss.one/cvision/1295
Telegram
Tensorflow
#سوال :
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
#پاسخ :
بله. اگر معماری شبکه متشکل از لایه globalAveragePool باشد این کار امکان پذیر میباشد. در این لایه به دلیل نمونه برداری عمقی از لایه کانولوشن مستقل از سایز…
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
#پاسخ :
بله. اگر معماری شبکه متشکل از لایه globalAveragePool باشد این کار امکان پذیر میباشد. در این لایه به دلیل نمونه برداری عمقی از لایه کانولوشن مستقل از سایز…
#کورس
انتشار کورس جدید Deep Learning from the Foundations توسط جرمی هاوارد
5 ویدیو در مورد آموزش مفاهیم و مبانی دیپ لرنینگ با #پایتورچ ، #fastai و پایتون و 2 ویدیو آخر مربوط به #سوئیفت و استفاده از آن در #تنسورفلو می باشد که توسط نویسنده این زبان آموزش داده شده است.
Jeremy Howard:
"Today we are releasing a new course (taught by me), Deep Learning from the Foundations, which shows how to build a state of the art deep learning model from scratch. It takes you all the way from the foundations of implementing matrix multiplication and back-propogation, through to high performance mixed-precision training, to the latest neural network architectures and learning techniques, and everything in between. It covers many of the most important academic papers that form the foundations of modern deep learning, using “code-first” teaching, where each method is implemented from scratch in python and explained in detail (in the process, we’ll discuss many important software engineering techniques too). The whole course, covering around 15 hours of teaching and dozens of interactive notebooks, is entirely free (and ad-free), provided as a service to the community. The first five lessons use Python, PyTorch, and the fastai library; the last two lessons use Swift for TensorFlow, and are co-taught with Chris Lattner, the original creator of Swift, clang, and LLVM."
لینک صفحه کورس: https://course.fast.ai/part2
لینک خبر: https://www.fast.ai/2019/06/28/course-p2v3
انتشار کورس جدید Deep Learning from the Foundations توسط جرمی هاوارد
5 ویدیو در مورد آموزش مفاهیم و مبانی دیپ لرنینگ با #پایتورچ ، #fastai و پایتون و 2 ویدیو آخر مربوط به #سوئیفت و استفاده از آن در #تنسورفلو می باشد که توسط نویسنده این زبان آموزش داده شده است.
Jeremy Howard:
"Today we are releasing a new course (taught by me), Deep Learning from the Foundations, which shows how to build a state of the art deep learning model from scratch. It takes you all the way from the foundations of implementing matrix multiplication and back-propogation, through to high performance mixed-precision training, to the latest neural network architectures and learning techniques, and everything in between. It covers many of the most important academic papers that form the foundations of modern deep learning, using “code-first” teaching, where each method is implemented from scratch in python and explained in detail (in the process, we’ll discuss many important software engineering techniques too). The whole course, covering around 15 hours of teaching and dozens of interactive notebooks, is entirely free (and ad-free), provided as a service to the community. The first five lessons use Python, PyTorch, and the fastai library; the last two lessons use Swift for TensorFlow, and are co-taught with Chris Lattner, the original creator of Swift, clang, and LLVM."
لینک صفحه کورس: https://course.fast.ai/part2
لینک خبر: https://www.fast.ai/2019/06/28/course-p2v3
رد شدن مقاله های هینتون، یوشیا بنجیو و یان لکان توی NIPS ، ICML و CVPR توی سال های 2007، 2009 و 2010 به خاطر دلیل های مسخره. مثلا به هینتون گفتن چون یه مقاله دیپ لرنیگی قبل از اون پذیرفتند دیگه نمیتونند یه مقاله دیگه توی یه فیلد بپذیرند یا به یان لکان گفتن مقاله ات اصن ربطی به کامپیوتر ویژن نداره چون همه چی مبتنی بر لرنینگه با اینکه روشش از بقیه روش ها بهتر بوده!
لیست شبکه ها و الگوریتم های ارائه شده برای تشخیص اشیا ( object detection ) در تصویر به همراه مقاله ها و پیاده سازی های متنوع
This is a list of awesome articles about object detection. If you want to read the paper according to time, you can refer to Date.
https://github.com/amusi/awesome-object-detection
This is a list of awesome articles about object detection. If you want to read the paper according to time, you can refer to Date.
https://github.com/amusi/awesome-object-detection
GitHub
GitHub - amusi/awesome-object-detection: Awesome Object Detection based on handong1587 github: https://handong1587.github.io/d…
Awesome Object Detection based on handong1587 github: https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html - amusi/awesome-object-detection
#خبر
https://www.instagram.com/p/BzVQBkaJ6Ap/?igshid=1sxd9om4ifno5
این اپ از روش pix2pix استفاده میکرد که برای جلویری از سوء استفاده حذف شد.
البته جمله اول توئیت اندرو انگ که نوشته بود "I’m glad DeepNude is dead. " به همین خبر اشاره داشته...
مرتبط با
https://t.iss.one/cvision/1371
https://www.instagram.com/p/BzVQBkaJ6Ap/?igshid=1sxd9om4ifno5
این اپ از روش pix2pix استفاده میکرد که برای جلویری از سوء استفاده حذف شد.
البته جمله اول توئیت اندرو انگ که نوشته بود "I’m glad DeepNude is dead. " به همین خبر اشاره داشته...
مرتبط با
https://t.iss.one/cvision/1371
Instagram
BBC NEWS فارسی
اپلیکیشنی که ادعا میکرد قادر به حذف دیجیتالی لباس از تصاویر زنان برای ایجاد تصاویر جعلی برهنه است، بهدست سازندگانش حذف شد. این برنامهنویسان در توییتر خود نوشتند: "احتمال این که مردم از آن سوء استفاده کنند بسیار بالاست» و «ما نمیخواهیم از این راه پول در…
This media is not supported in your browser
VIEW IN TELEGRAM
#آموزش + #سورس_کد فارسی
آموزش تراز کردن کارت ملی (ایرانی) + سورس کد
آموزش:
https://blog.class.vision/1398/04/2541/
سورس کد:
https://github.com/ElmiiiRaa/align_iranian_national_id_card
با تشکر از مهندس المیرا قربانی
#تراز #کارت_ملی
#face #mtcnn
آموزش تراز کردن کارت ملی (ایرانی) + سورس کد
آموزش:
https://blog.class.vision/1398/04/2541/
سورس کد:
https://github.com/ElmiiiRaa/align_iranian_national_id_card
با تشکر از مهندس المیرا قربانی
#تراز #کارت_ملی
#face #mtcnn
New Google Brain Optimizer Reduces BERT Pre-Training Time From Days to Minutes
کاهش مدت زمان pre-training مدل زبانی BERT از سه روز به 76 دقیقه با ارائه یک تابع بهینه ساز جدید!
Google Brain researchers have proposed LAMB (Layer-wise Adaptive Moments optimizer for Batch training), a new optimizer which reduces training time for its NLP training model BERT (Bidirectional Encoder Representations from Transformers) from three days to just 76 minutes.
لینک مقاله: https://arxiv.org/abs/1904.00962
لینک بلاگ پست: https://medium.com/syncedreview/new-google-brain-optimizer-reduces-bert-pre-training-time-from-days-to-minutes-b454e54eda1d
#BERT #language_model #optimizer
کاهش مدت زمان pre-training مدل زبانی BERT از سه روز به 76 دقیقه با ارائه یک تابع بهینه ساز جدید!
Google Brain researchers have proposed LAMB (Layer-wise Adaptive Moments optimizer for Batch training), a new optimizer which reduces training time for its NLP training model BERT (Bidirectional Encoder Representations from Transformers) from three days to just 76 minutes.
لینک مقاله: https://arxiv.org/abs/1904.00962
لینک بلاگ پست: https://medium.com/syncedreview/new-google-brain-optimizer-reduces-bert-pre-training-time-from-days-to-minutes-b454e54eda1d
#BERT #language_model #optimizer
arXiv.org
Large Batch Optimization for Deep Learning: Training BERT in 76 minutes
Training large deep neural networks on massive datasets is computationally very challenging. There has been recent surge in interest in using large batch stochastic optimization methods to tackle...
یافتن و بهینه سازی پارامتر های مناسب برای آموزش شبکه های عمیق با keras
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
https://towardsdatascience.com/hyperparameter-optimization-with-keras-b82e6364ca53
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
https://towardsdatascience.com/hyperparameter-optimization-with-keras-b82e6364ca53
Medium
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
#ترجمه
یکی از اعضای کانال پیام دادند که از دوستانی که میتونند در کار ویرایش کتاب Andrew Ng کمک کنند در فایل گوگل داک کامنت بزارند پس از ویرایش نهایی کل کتاب به صورت رایگان در سایت خود کتاب andrew ng به زبان فارسی منتشر میشه .
و اسامی همه ی مترجمین + ویرایش کننده ها هم ذکر میشود .
https://docs.google.com/document/d/1pQ6m0AWLLDp61_dHa3KzRTJ7guKapUezwClG9731WoY/edit?usp=sharing
یکی از اعضای کانال پیام دادند که از دوستانی که میتونند در کار ویرایش کتاب Andrew Ng کمک کنند در فایل گوگل داک کامنت بزارند پس از ویرایش نهایی کل کتاب به صورت رایگان در سایت خود کتاب andrew ng به زبان فارسی منتشر میشه .
و اسامی همه ی مترجمین + ویرایش کننده ها هم ذکر میشود .
https://docs.google.com/document/d/1pQ6m0AWLLDp61_dHa3KzRTJ7guKapUezwClG9731WoY/edit?usp=sharing
Google Docs
1-5_edited
سلام از دوستان خواهش میکنم متنی که میخواهند ویرایش کنند کامنت بزارند من برای راحتی کارتون هم متن انگلیسی و هم متن ترجمه شده ی فارسی را در اینجا قرار دادم . با توجه با صحبت هایی که با Andrew ng کردم قرار شد کل کتاب بعد از ترجمه در سایت زیر https:/…
Forwarded from School of AI
Facebook AI has just open-sourced their deep learning recommendation model for tackling personalization and recommendation tasks. The model works with both categorical and continuous features and is implemented in PyTorch & Caffe2. You can also easily try it out as it supports interface with Kaggle's Display Advertising Challenge Dataset where you need to predict click-through rates on display ads, actually it's a one-liner. They also wrote a paper about this, especially the parallelism part is interesting which is usually a bottleneck for any recommendation algorithms.
https://ai.facebook.com/blog/dlrm-an-advanced-open-source-deep-learning-recommendation-model/
https://ai.facebook.com/blog/dlrm-an-advanced-open-source-deep-learning-recommendation-model/
Meta
We are open-sourcing a state-of-the-art deep learning recommendation model to help AI researchers and the systems and hardware…
FaceQnet: Quality Assessment for Face Recognition based on Deep Learning (2019)
https://arxiv.org/abs/1904.01740
https://github.com/uam-biometrics/FaceQnet
مرتبط با
https://github.com/Alireza-Akhavan/face-quality-metrics
#face
https://arxiv.org/abs/1904.01740
https://github.com/uam-biometrics/FaceQnet
مرتبط با
https://github.com/Alireza-Akhavan/face-quality-metrics
#face
arXiv.org
FaceQnet: Quality Assessment for Face Recognition based on Deep Learning
In this paper we develop a Quality Assessment approach for face recognition based on deep learning. The method consists of a Convolutional Neural Network, FaceQnet, that is used to predict the...
طبقه بندی متن با استفاده از Flair
Flair delivers state-of-the-art performance in solving NLP problems such as named entity recognition (NER), part-of-speech tagging (PoS), sense disambiguation and text classification. It’s an NLP framework built on top of PyTorch.
لینک پست: https://towardsdatascience.com/text-classification-with-state-of-the-art-nlp-library-flair-b541d7add21f
کد: https://github.com/zalandoresearch/flair
#text_classification #nlp #flair
Flair delivers state-of-the-art performance in solving NLP problems such as named entity recognition (NER), part-of-speech tagging (PoS), sense disambiguation and text classification. It’s an NLP framework built on top of PyTorch.
لینک پست: https://towardsdatascience.com/text-classification-with-state-of-the-art-nlp-library-flair-b541d7add21f
کد: https://github.com/zalandoresearch/flair
#text_classification #nlp #flair
Medium
Text Classification with State of the Art NLP Library — Flair
Exciting news! A new version of Flair - state-of-the-art NLP library has just been released. Learn how to use it for text classification
Gestalt Principles
https://www.interaction-design.org/literature/topics/gestalt-principles
https://www.interaction-design.org/literature/topics/gestalt-principles
The Interaction Design Foundation
What are the Gestalt Principles?
Gestalt Principles are laws of human perception that describe how humans group similar elements, recognize patterns and simplify complex images.
روش فوق العاده اعمال کرنل کانولوشن روی تصویر توسط تنسرفلو
با تبدیل ماتریس کرنل به ماتریس گسترش یافته شامل ترکیب مکان های قرار گیری ماتریس کرنل روی ماتریس تصویر اصلی و ضرب در ماتریس تغییر سایز یافته ورودی و درنهایت تغییر سایز به تصویر خروجی
If we want our network to learn how to up-sample optimally, we can use the transposed convolution. It does not use a predefined interpolation method. It has learnable parameters.
#آموزش
#تنسرفلو
https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0
با تبدیل ماتریس کرنل به ماتریس گسترش یافته شامل ترکیب مکان های قرار گیری ماتریس کرنل روی ماتریس تصویر اصلی و ضرب در ماتریس تغییر سایز یافته ورودی و درنهایت تغییر سایز به تصویر خروجی
If we want our network to learn how to up-sample optimally, we can use the transposed convolution. It does not use a predefined interpolation method. It has learnable parameters.
#آموزش
#تنسرفلو
https://towardsdatascience.com/up-sampling-with-transposed-convolution-9ae4f2df52d0
Medium
Up-sampling with Transposed Convolution
If you’ve heard about the transposed convolution and got confused what it actually means, this article is written for you.
#مقاله
Identifying Emotions from Walking using Affective and Deep Features
قبلا الگوریتمهایی رو دیده بودیم که از روی حالت صورت یا نوع صدا میتونستند احساسات رو تشخیص بدند.
در این مقاله میتونید تشخیص نوع احساسات رو از روی نوع راه رفتن ببینید!
لینک مقاله:
https://arxiv.org/pdf/1906.11884
Identifying Emotions from Walking using Affective and Deep Features
قبلا الگوریتمهایی رو دیده بودیم که از روی حالت صورت یا نوع صدا میتونستند احساسات رو تشخیص بدند.
در این مقاله میتونید تشخیص نوع احساسات رو از روی نوع راه رفتن ببینید!
لینک مقاله:
https://arxiv.org/pdf/1906.11884
❤1
#خبر
Tesla restructures Autopilot software team, Elon takes the reins - Electrek
https://electrek.co/2019/05/10/tesla-autopilot-restructuring-software-elon-takes-over/
مثل اینکه تسلا چند وقت پیش یه خونه تکونی اساسی تو بخش هوش مصنوعیش انجام داده. عدهای معتقد بودن فشار انتظارات بالا و غیرواقعی باعث این قضیه بوده.
توییت ایلان ماسک رو میبینید که ادعا کرده حدود دو سال دیگه قابلیت فراخوانی ماشینهای تسلا که صاحب ماشین باهاش دستور میده ماشین به سمتش بیاد باید تقریباً از همه جا قابل فراخوانی باشه.
توییت مال سه سال پیشه.
https://twitter.com/elonmusk/status/686279251293777920?s=19
🙏Thanks to: @samehraboon
#تسلا #خودرو_بدون_سرنشین
Tesla restructures Autopilot software team, Elon takes the reins - Electrek
https://electrek.co/2019/05/10/tesla-autopilot-restructuring-software-elon-takes-over/
مثل اینکه تسلا چند وقت پیش یه خونه تکونی اساسی تو بخش هوش مصنوعیش انجام داده. عدهای معتقد بودن فشار انتظارات بالا و غیرواقعی باعث این قضیه بوده.
توییت ایلان ماسک رو میبینید که ادعا کرده حدود دو سال دیگه قابلیت فراخوانی ماشینهای تسلا که صاحب ماشین باهاش دستور میده ماشین به سمتش بیاد باید تقریباً از همه جا قابل فراخوانی باشه.
توییت مال سه سال پیشه.
https://twitter.com/elonmusk/status/686279251293777920?s=19
🙏Thanks to: @samehraboon
#تسلا #خودرو_بدون_سرنشین
Electrek
Tesla restructures Autopilot software team, Elon takes the reins - Electrek
Tesla is again restructuring its Autopilot software team, according to sources talking to Electrek. CEO Elon Musk is taking the reins with now even more people reporting directly to him and some senior staff being let go while others being promoted. In general…
❤1
Ubuntu Brings the Latest Nvidia Graphics Drivers to LTS Users --> https://t.co/zWc3F8ERsF
🙏Thanks to: @MH_Sattarian
🙏Thanks to: @MH_Sattarian
How to Train Efficiently with Less Labeled Data: Unsupervised Data Augmentation by Google Brain
https://github.com/google-research/uda
🙏Thanks to: @Alidiba
https://github.com/google-research/uda
🙏Thanks to: @Alidiba
GitHub
GitHub - google-research/uda: Unsupervised Data Augmentation (UDA)
Unsupervised Data Augmentation (UDA). Contribute to google-research/uda development by creating an account on GitHub.
#کتابخانه #پردازش_متن #تنسورفلو
TF.Text - Text processing in Tensorflow
کتابخانه مخصوص پردازش متن در نسخه جدید Tensorflow
TensorFlow Text provides a collection of text related classes and ops ready to use with TensorFlow 2.0. The library can perform the preprocessing regularly required by text-based models, and includes other features useful for sequence modeling not provided by core TensorFlow.
وقتی از سرگروه تیم TF.Text پرسیدند که کراس هم یک API پردازش متن داره که روی تنسورفلو اجرا میشه،پس TF.Text چه فرقی با اون داره؟ گفت:
"Keras has a subset, but not the breadth of TF.Text. We are actively talking with them to fill in gaps we believe language engineers want, but are not provided in the core Keras API, and I wouldn't be surprised if additional Keras layers are provided by TF.Text in the future."
ویژگی های این کتابخانه از زبان سرگروه تیم TF.Text:
- Focusing on the new tools for tokenizing text strings
- Tools for pattern-matching, n-gram creation, unicode normalization, and sequence constraints
- The code is designed to operate on RaggedTensors: Variable-length tensors which are better-suited for processing textual sequences.
- Pre-processing steps are now first-class citizens of the TensorFlow compute graph, which gives them all the advantages of that system. In particular, according to the documentation, "You do not need to worry about tokenization in training being different than the tokenization at inference...."
صفحه گیت هاب این کتابخانه:
https://github.com/tensorflow/text
نوت بوک شروع:
https://storage.googleapis.com/tensorflow_docs/text/examples/intro.ipynb
TF.Text - Text processing in Tensorflow
کتابخانه مخصوص پردازش متن در نسخه جدید Tensorflow
TensorFlow Text provides a collection of text related classes and ops ready to use with TensorFlow 2.0. The library can perform the preprocessing regularly required by text-based models, and includes other features useful for sequence modeling not provided by core TensorFlow.
وقتی از سرگروه تیم TF.Text پرسیدند که کراس هم یک API پردازش متن داره که روی تنسورفلو اجرا میشه،پس TF.Text چه فرقی با اون داره؟ گفت:
"Keras has a subset, but not the breadth of TF.Text. We are actively talking with them to fill in gaps we believe language engineers want, but are not provided in the core Keras API, and I wouldn't be surprised if additional Keras layers are provided by TF.Text in the future."
ویژگی های این کتابخانه از زبان سرگروه تیم TF.Text:
- Focusing on the new tools for tokenizing text strings
- Tools for pattern-matching, n-gram creation, unicode normalization, and sequence constraints
- The code is designed to operate on RaggedTensors: Variable-length tensors which are better-suited for processing textual sequences.
- Pre-processing steps are now first-class citizens of the TensorFlow compute graph, which gives them all the advantages of that system. In particular, according to the documentation, "You do not need to worry about tokenization in training being different than the tokenization at inference...."
صفحه گیت هاب این کتابخانه:
https://github.com/tensorflow/text
نوت بوک شروع:
https://storage.googleapis.com/tensorflow_docs/text/examples/intro.ipynb
GitHub
GitHub - tensorflow/text: Making text a first-class citizen in TensorFlow.
Making text a first-class citizen in TensorFlow. Contribute to tensorflow/text development by creating an account on GitHub.