Facial Recognition Has a Blind Spot
https://zora.medium.com/facial-recognition-has-a-blind-spot-57523b73039e
https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms
#face
https://zora.medium.com/facial-recognition-has-a-blind-spot-57523b73039e
For White men, the software works correctly 99% of the time. For darker-skinned women, there were nearly 35% more errors.سخنرانی TED مرتبط:
https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms
#face
Medium
Facial Recognition Has a Blind Spot
Melanin-biased software leaves a lot of room for error
#مقاله #پیاده_سازی
XLNet: Generalized Autoregressive Pretraining for Language Understanding
#XLNet outperforms #BERT on 20 tasks, often by a large margin, and achieves state-of-the-art results on 18 tasks including question answering, natural language inference, sentiment analysis, and document ranking. Code and comparisons here:
سورس کد (تنسرفلو)
https://github.com/zihangdai/xlnet
مقاله
https://arxiv.org/abs/1906.08237v1
#NLP
XLNet: Generalized Autoregressive Pretraining for Language Understanding
#XLNet outperforms #BERT on 20 tasks, often by a large margin, and achieves state-of-the-art results on 18 tasks including question answering, natural language inference, sentiment analysis, and document ranking. Code and comparisons here:
سورس کد (تنسرفلو)
https://github.com/zihangdai/xlnet
مقاله
https://arxiv.org/abs/1906.08237v1
#NLP
GitHub
GitHub - zihangdai/xlnet: XLNet: Generalized Autoregressive Pretraining for Language Understanding
XLNet: Generalized Autoregressive Pretraining for Language Understanding - zihangdai/xlnet
#مقاله #پیاده_سازی
XLNet: Generalized Autoregressive Pretraining for Language Understanding
#XLNet outperforms #BERT on 20 tasks, often by a large margin, and achieves state-of-the-art results on 18 tasks including question answering, natural language inference, sentiment analysis, and document ranking. Code and comparisons here:
سورس کد (تنسرفلو)
https://github.com/zihangdai/xlnet
مقاله
https://arxiv.org/abs/1906.08237v1
#NLP
XLNet: Generalized Autoregressive Pretraining for Language Understanding
#XLNet outperforms #BERT on 20 tasks, often by a large margin, and achieves state-of-the-art results on 18 tasks including question answering, natural language inference, sentiment analysis, and document ranking. Code and comparisons here:
سورس کد (تنسرفلو)
https://github.com/zihangdai/xlnet
مقاله
https://arxiv.org/abs/1906.08237v1
#NLP
#آموزش #keras
Hyperparameter tuning magic
Note that the search space can be dynamic: here you have a 'for' loop controlled by a hyperparameter, inside which you define new hyperparameters.
You could push this to any level (e.g. searching over a connectivity graph for a dynamic number of nodes). Even recursion...
https://twitter.com/fchollet/status/1141532631810527232
#Hyperparameter
Hyperparameter tuning magic
Note that the search space can be dynamic: here you have a 'for' loop controlled by a hyperparameter, inside which you define new hyperparameters.
You could push this to any level (e.g. searching over a connectivity graph for a dynamic number of nodes). Even recursion...
https://twitter.com/fchollet/status/1141532631810527232
#Hyperparameter
#مقاله #پیاده_سازی
XLNet: Generalized Autoregressive Pretraining for Language Understanding
https://t.iss.one/cvision/1366
XLNet: Generalized Autoregressive Pretraining for Language Understanding
https://t.iss.one/cvision/1366
Forwarded from Hidden layer
Open fully-funded PhD position in cognitive robotics and machine learning at Cognitive Robotics, Interactive Systems & Speech Processing (CNRS) lab
France
The CRISSP Team (Cognitive Robotics, Interactive Systems & Speech Processing) of the GIPSA-Lab at UGA (University Grenoble Alpes) is looking for a PhD student to reinforce our research on cognitive robotics and machine learning. This work will be conducted in partnership with the MARVIN team of the LIG-Lab from the same university. The position will be financed by the new MIAI@UGA (Multidisciplinary Institute for Artificial Intelligence, Grenoble-France), one of the four AI institutes1 selected in France.
More Details: https://www.marktechpost.com/job/open-fully-funded-phd-position-in-cognitive-robotics-and-machine-learning-at-cognitive-robotics-interactive-systems-speech-processing-cnrs-lab/
France
The CRISSP Team (Cognitive Robotics, Interactive Systems & Speech Processing) of the GIPSA-Lab at UGA (University Grenoble Alpes) is looking for a PhD student to reinforce our research on cognitive robotics and machine learning. This work will be conducted in partnership with the MARVIN team of the LIG-Lab from the same university. The position will be financed by the new MIAI@UGA (Multidisciplinary Institute for Artificial Intelligence, Grenoble-France), one of the four AI institutes1 selected in France.
More Details: https://www.marktechpost.com/job/open-fully-funded-phd-position-in-cognitive-robotics-and-machine-learning-at-cognitive-robotics-interactive-systems-speech-processing-cnrs-lab/
MarkTechPost
Open fully-funded PhD position in cognitive robotics and machine learning at Cognitive Robotics, Interactive Systems & Speech Processing…
The CRISSP Team (Cognitive Robotics, Interactive Systems & Speech Processing) of the GIPSA-Lab at UGA (University Grenoble Alpes) is looking for a PhD student to reinforce our research on cognitive robotics and machine learning. This work will be conducted…
#خبر
اظهارات اخیر Andrew Ng فردی تاثیر گذار در حوزه یادگیری ماشینی، و یادگیری عمیق در مورد نرم افزار deep nude که اخیرا ارائه شده، و سوء استفاده ای از روش pix2pix است.
روش pix2pix یک روش بر مبنای #GAN است که برای #Image_to_Image_Translation استفاده میشود. در این روش تصویر ۱ توسط شبکه عصبی عمیق به تصویر متناظر ۲ تبدیل می گردد، که در این نرم افزار تصویر افراد ورودی شبکه، و تصویر بدون لباس فرد را خروجی میدهد.
https://twitter.com/AndrewYNg/status/1144668413140144128?s=19
جادی هم در این رابطه یک پست با عنوان
بالاخره «دوربین لخت کن» ساخته شد، و ما درکش نمی کنیم
نوشته که میتونید بخونیدش...
https://jadi.net/2019/06/deep-nude/
___
مطلب مرتبط:
#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش pix2pix
https://www.aparat.com/v/S9bcT?c
اسلاید:
https://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
https://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
کلاس نوت فارسی pix2pix
https://blog.class.vision/1397/10/pixtopix/
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
#deep_nude
اظهارات اخیر Andrew Ng فردی تاثیر گذار در حوزه یادگیری ماشینی، و یادگیری عمیق در مورد نرم افزار deep nude که اخیرا ارائه شده، و سوء استفاده ای از روش pix2pix است.
روش pix2pix یک روش بر مبنای #GAN است که برای #Image_to_Image_Translation استفاده میشود. در این روش تصویر ۱ توسط شبکه عصبی عمیق به تصویر متناظر ۲ تبدیل می گردد، که در این نرم افزار تصویر افراد ورودی شبکه، و تصویر بدون لباس فرد را خروجی میدهد.
https://twitter.com/AndrewYNg/status/1144668413140144128?s=19
جادی هم در این رابطه یک پست با عنوان
بالاخره «دوربین لخت کن» ساخته شد، و ما درکش نمی کنیم
نوشته که میتونید بخونیدش...
https://jadi.net/2019/06/deep-nude/
___
مطلب مرتبط:
#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش pix2pix
https://www.aparat.com/v/S9bcT?c
اسلاید:
https://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
https://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
کلاس نوت فارسی pix2pix
https://blog.class.vision/1397/10/pixtopix/
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
#deep_nude
Twitter
Andrew Ng
I’m glad DeepNude is dead. As a person and as a father, I thought this was one of the most disgusting applications of AI. To the AI Community: You have superpowers, and what you build matters. Please use your powers on worthy projects that move the world…
#مجموعه_داده
#چالش
Announcing the YouTube-8M Segments Dataset
Friday, June 28, 2019
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
یک چالش کگل هم با این مجموعه داده در حال برگزاری است.
به 10 نفر نخست $2,500 دلار داده میشه تا بتونند در ICCV’19 شرکت کنند.
https://www.kaggle.com/c/youtube8m-2019
#چالش
Announcing the YouTube-8M Segments Dataset
Friday, June 28, 2019
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
یک چالش کگل هم با این مجموعه داده در حال برگزاری است.
به 10 نفر نخست $2,500 دلار داده میشه تا بتونند در ICCV’19 شرکت کنند.
https://www.kaggle.com/c/youtube8m-2019
#آموزش
نزدیک یک ماه پیش مهندس قریشی پستی در کانال منتشر کردند که با این سوال شروع شده بود:
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
سایت pyimagesearch پنج روز پیش پستی با عنوان Change input shape dimensions for fine-tuning with Keras منتشر کرده که همین موضوع را توضیح داده است:
Q. Can I fine-tune a CNN on image dimensions *smaller* than what it was originally trained on?
A. Yes, you can!
https://www.pyimagesearch.com/2019/06/24/change-input-shape-dimensions-for-fine-tuning-with-keras/
مطلب مرتبط در کانال:
https://t.iss.one/cvision/1295
نزدیک یک ماه پیش مهندس قریشی پستی در کانال منتشر کردند که با این سوال شروع شده بود:
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
سایت pyimagesearch پنج روز پیش پستی با عنوان Change input shape dimensions for fine-tuning with Keras منتشر کرده که همین موضوع را توضیح داده است:
Q. Can I fine-tune a CNN on image dimensions *smaller* than what it was originally trained on?
A. Yes, you can!
https://www.pyimagesearch.com/2019/06/24/change-input-shape-dimensions-for-fine-tuning-with-keras/
مطلب مرتبط در کانال:
https://t.iss.one/cvision/1295
Telegram
Tensorflow
#سوال :
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
#پاسخ :
بله. اگر معماری شبکه متشکل از لایه globalAveragePool باشد این کار امکان پذیر میباشد. در این لایه به دلیل نمونه برداری عمقی از لایه کانولوشن مستقل از سایز…
آیا میتوان شبکه ای که با ورودی 224 در 224 آموزش دیده را با سایز ورودی دیگری آموزش داد ؟
#پاسخ :
بله. اگر معماری شبکه متشکل از لایه globalAveragePool باشد این کار امکان پذیر میباشد. در این لایه به دلیل نمونه برداری عمقی از لایه کانولوشن مستقل از سایز…
#کورس
انتشار کورس جدید Deep Learning from the Foundations توسط جرمی هاوارد
5 ویدیو در مورد آموزش مفاهیم و مبانی دیپ لرنینگ با #پایتورچ ، #fastai و پایتون و 2 ویدیو آخر مربوط به #سوئیفت و استفاده از آن در #تنسورفلو می باشد که توسط نویسنده این زبان آموزش داده شده است.
Jeremy Howard:
"Today we are releasing a new course (taught by me), Deep Learning from the Foundations, which shows how to build a state of the art deep learning model from scratch. It takes you all the way from the foundations of implementing matrix multiplication and back-propogation, through to high performance mixed-precision training, to the latest neural network architectures and learning techniques, and everything in between. It covers many of the most important academic papers that form the foundations of modern deep learning, using “code-first” teaching, where each method is implemented from scratch in python and explained in detail (in the process, we’ll discuss many important software engineering techniques too). The whole course, covering around 15 hours of teaching and dozens of interactive notebooks, is entirely free (and ad-free), provided as a service to the community. The first five lessons use Python, PyTorch, and the fastai library; the last two lessons use Swift for TensorFlow, and are co-taught with Chris Lattner, the original creator of Swift, clang, and LLVM."
لینک صفحه کورس: https://course.fast.ai/part2
لینک خبر: https://www.fast.ai/2019/06/28/course-p2v3
انتشار کورس جدید Deep Learning from the Foundations توسط جرمی هاوارد
5 ویدیو در مورد آموزش مفاهیم و مبانی دیپ لرنینگ با #پایتورچ ، #fastai و پایتون و 2 ویدیو آخر مربوط به #سوئیفت و استفاده از آن در #تنسورفلو می باشد که توسط نویسنده این زبان آموزش داده شده است.
Jeremy Howard:
"Today we are releasing a new course (taught by me), Deep Learning from the Foundations, which shows how to build a state of the art deep learning model from scratch. It takes you all the way from the foundations of implementing matrix multiplication and back-propogation, through to high performance mixed-precision training, to the latest neural network architectures and learning techniques, and everything in between. It covers many of the most important academic papers that form the foundations of modern deep learning, using “code-first” teaching, where each method is implemented from scratch in python and explained in detail (in the process, we’ll discuss many important software engineering techniques too). The whole course, covering around 15 hours of teaching and dozens of interactive notebooks, is entirely free (and ad-free), provided as a service to the community. The first five lessons use Python, PyTorch, and the fastai library; the last two lessons use Swift for TensorFlow, and are co-taught with Chris Lattner, the original creator of Swift, clang, and LLVM."
لینک صفحه کورس: https://course.fast.ai/part2
لینک خبر: https://www.fast.ai/2019/06/28/course-p2v3
رد شدن مقاله های هینتون، یوشیا بنجیو و یان لکان توی NIPS ، ICML و CVPR توی سال های 2007، 2009 و 2010 به خاطر دلیل های مسخره. مثلا به هینتون گفتن چون یه مقاله دیپ لرنیگی قبل از اون پذیرفتند دیگه نمیتونند یه مقاله دیگه توی یه فیلد بپذیرند یا به یان لکان گفتن مقاله ات اصن ربطی به کامپیوتر ویژن نداره چون همه چی مبتنی بر لرنینگه با اینکه روشش از بقیه روش ها بهتر بوده!
لیست شبکه ها و الگوریتم های ارائه شده برای تشخیص اشیا ( object detection ) در تصویر به همراه مقاله ها و پیاده سازی های متنوع
This is a list of awesome articles about object detection. If you want to read the paper according to time, you can refer to Date.
https://github.com/amusi/awesome-object-detection
This is a list of awesome articles about object detection. If you want to read the paper according to time, you can refer to Date.
https://github.com/amusi/awesome-object-detection
GitHub
GitHub - amusi/awesome-object-detection: Awesome Object Detection based on handong1587 github: https://handong1587.github.io/d…
Awesome Object Detection based on handong1587 github: https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html - amusi/awesome-object-detection
#خبر
https://www.instagram.com/p/BzVQBkaJ6Ap/?igshid=1sxd9om4ifno5
این اپ از روش pix2pix استفاده میکرد که برای جلویری از سوء استفاده حذف شد.
البته جمله اول توئیت اندرو انگ که نوشته بود "I’m glad DeepNude is dead. " به همین خبر اشاره داشته...
مرتبط با
https://t.iss.one/cvision/1371
https://www.instagram.com/p/BzVQBkaJ6Ap/?igshid=1sxd9om4ifno5
این اپ از روش pix2pix استفاده میکرد که برای جلویری از سوء استفاده حذف شد.
البته جمله اول توئیت اندرو انگ که نوشته بود "I’m glad DeepNude is dead. " به همین خبر اشاره داشته...
مرتبط با
https://t.iss.one/cvision/1371
Instagram
BBC NEWS فارسی
اپلیکیشنی که ادعا میکرد قادر به حذف دیجیتالی لباس از تصاویر زنان برای ایجاد تصاویر جعلی برهنه است، بهدست سازندگانش حذف شد. این برنامهنویسان در توییتر خود نوشتند: "احتمال این که مردم از آن سوء استفاده کنند بسیار بالاست» و «ما نمیخواهیم از این راه پول در…
This media is not supported in your browser
VIEW IN TELEGRAM
#آموزش + #سورس_کد فارسی
آموزش تراز کردن کارت ملی (ایرانی) + سورس کد
آموزش:
https://blog.class.vision/1398/04/2541/
سورس کد:
https://github.com/ElmiiiRaa/align_iranian_national_id_card
با تشکر از مهندس المیرا قربانی
#تراز #کارت_ملی
#face #mtcnn
آموزش تراز کردن کارت ملی (ایرانی) + سورس کد
آموزش:
https://blog.class.vision/1398/04/2541/
سورس کد:
https://github.com/ElmiiiRaa/align_iranian_national_id_card
با تشکر از مهندس المیرا قربانی
#تراز #کارت_ملی
#face #mtcnn
New Google Brain Optimizer Reduces BERT Pre-Training Time From Days to Minutes
کاهش مدت زمان pre-training مدل زبانی BERT از سه روز به 76 دقیقه با ارائه یک تابع بهینه ساز جدید!
Google Brain researchers have proposed LAMB (Layer-wise Adaptive Moments optimizer for Batch training), a new optimizer which reduces training time for its NLP training model BERT (Bidirectional Encoder Representations from Transformers) from three days to just 76 minutes.
لینک مقاله: https://arxiv.org/abs/1904.00962
لینک بلاگ پست: https://medium.com/syncedreview/new-google-brain-optimizer-reduces-bert-pre-training-time-from-days-to-minutes-b454e54eda1d
#BERT #language_model #optimizer
کاهش مدت زمان pre-training مدل زبانی BERT از سه روز به 76 دقیقه با ارائه یک تابع بهینه ساز جدید!
Google Brain researchers have proposed LAMB (Layer-wise Adaptive Moments optimizer for Batch training), a new optimizer which reduces training time for its NLP training model BERT (Bidirectional Encoder Representations from Transformers) from three days to just 76 minutes.
لینک مقاله: https://arxiv.org/abs/1904.00962
لینک بلاگ پست: https://medium.com/syncedreview/new-google-brain-optimizer-reduces-bert-pre-training-time-from-days-to-minutes-b454e54eda1d
#BERT #language_model #optimizer
arXiv.org
Large Batch Optimization for Deep Learning: Training BERT in 76 minutes
Training large deep neural networks on massive datasets is computationally very challenging. There has been recent surge in interest in using large batch stochastic optimization methods to tackle...
یافتن و بهینه سازی پارامتر های مناسب برای آموزش شبکه های عمیق با keras
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
https://towardsdatascience.com/hyperparameter-optimization-with-keras-b82e6364ca53
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
https://towardsdatascience.com/hyperparameter-optimization-with-keras-b82e6364ca53
Medium
Hyperparameter Optimization with Keras
Finding the right hyperparameters for your deep learning model can be a tedious process. It doesn’t have to.
#ترجمه
یکی از اعضای کانال پیام دادند که از دوستانی که میتونند در کار ویرایش کتاب Andrew Ng کمک کنند در فایل گوگل داک کامنت بزارند پس از ویرایش نهایی کل کتاب به صورت رایگان در سایت خود کتاب andrew ng به زبان فارسی منتشر میشه .
و اسامی همه ی مترجمین + ویرایش کننده ها هم ذکر میشود .
https://docs.google.com/document/d/1pQ6m0AWLLDp61_dHa3KzRTJ7guKapUezwClG9731WoY/edit?usp=sharing
یکی از اعضای کانال پیام دادند که از دوستانی که میتونند در کار ویرایش کتاب Andrew Ng کمک کنند در فایل گوگل داک کامنت بزارند پس از ویرایش نهایی کل کتاب به صورت رایگان در سایت خود کتاب andrew ng به زبان فارسی منتشر میشه .
و اسامی همه ی مترجمین + ویرایش کننده ها هم ذکر میشود .
https://docs.google.com/document/d/1pQ6m0AWLLDp61_dHa3KzRTJ7guKapUezwClG9731WoY/edit?usp=sharing
Google Docs
1-5_edited
سلام از دوستان خواهش میکنم متنی که میخواهند ویرایش کنند کامنت بزارند من برای راحتی کارتون هم متن انگلیسی و هم متن ترجمه شده ی فارسی را در اینجا قرار دادم . با توجه با صحبت هایی که با Andrew ng کردم قرار شد کل کتاب بعد از ترجمه در سایت زیر https:/…
Forwarded from School of AI
Facebook AI has just open-sourced their deep learning recommendation model for tackling personalization and recommendation tasks. The model works with both categorical and continuous features and is implemented in PyTorch & Caffe2. You can also easily try it out as it supports interface with Kaggle's Display Advertising Challenge Dataset where you need to predict click-through rates on display ads, actually it's a one-liner. They also wrote a paper about this, especially the parallelism part is interesting which is usually a bottleneck for any recommendation algorithms.
https://ai.facebook.com/blog/dlrm-an-advanced-open-source-deep-learning-recommendation-model/
https://ai.facebook.com/blog/dlrm-an-advanced-open-source-deep-learning-recommendation-model/
Meta
We are open-sourcing a state-of-the-art deep learning recommendation model to help AI researchers and the systems and hardware…
FaceQnet: Quality Assessment for Face Recognition based on Deep Learning (2019)
https://arxiv.org/abs/1904.01740
https://github.com/uam-biometrics/FaceQnet
مرتبط با
https://github.com/Alireza-Akhavan/face-quality-metrics
#face
https://arxiv.org/abs/1904.01740
https://github.com/uam-biometrics/FaceQnet
مرتبط با
https://github.com/Alireza-Akhavan/face-quality-metrics
#face
arXiv.org
FaceQnet: Quality Assessment for Face Recognition based on Deep Learning
In this paper we develop a Quality Assessment approach for face recognition based on deep learning. The method consists of a Convolutional Neural Network, FaceQnet, that is used to predict the...
طبقه بندی متن با استفاده از Flair
Flair delivers state-of-the-art performance in solving NLP problems such as named entity recognition (NER), part-of-speech tagging (PoS), sense disambiguation and text classification. It’s an NLP framework built on top of PyTorch.
لینک پست: https://towardsdatascience.com/text-classification-with-state-of-the-art-nlp-library-flair-b541d7add21f
کد: https://github.com/zalandoresearch/flair
#text_classification #nlp #flair
Flair delivers state-of-the-art performance in solving NLP problems such as named entity recognition (NER), part-of-speech tagging (PoS), sense disambiguation and text classification. It’s an NLP framework built on top of PyTorch.
لینک پست: https://towardsdatascience.com/text-classification-with-state-of-the-art-nlp-library-flair-b541d7add21f
کد: https://github.com/zalandoresearch/flair
#text_classification #nlp #flair
Medium
Text Classification with State of the Art NLP Library — Flair
Exciting news! A new version of Flair - state-of-the-art NLP library has just been released. Learn how to use it for text classification