This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله #سورس_کد
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
سرعت عجیب غریب face detection اونم روی cpu!
طرف به ۱۵۰۰ فریم بر ثانیه رسیده....
https://github.com/ShiqiYu/libfacedetection
طرف به ۱۵۰۰ فریم بر ثانیه رسیده....
https://github.com/ShiqiYu/libfacedetection
GitHub
GitHub - ShiqiYu/libfacedetection: An open source library for face detection in images. The face detection speed can reach 1000FPS.
An open source library for face detection in images. The face detection speed can reach 1000FPS. - GitHub - ShiqiYu/libfacedetection: An open source library for face detection in images. The face ...
DeepPrivacy: A Generative Adversarial Network for Face Anonymization
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
GitHub
GitHub - hukkelas/DeepPrivacy: DeepPrivacy: A Generative Adversarial Network for Face Anonymization
DeepPrivacy: A Generative Adversarial Network for Face Anonymization - hukkelas/DeepPrivacy
Detecting Diminishing Dopamine Firing Cells in Brain Could Reveal Earliest Signs of Alzheimer's - Neuroscience News
https://neurosciencenews.com/alzheimers-dopamine-neuron-8698/
#cognitive #advanced #Neuroscience
https://neurosciencenews.com/alzheimers-dopamine-neuron-8698/
#cognitive #advanced #Neuroscience
Neuroscience News
Detecting Diminishing Dopamine Firing Cells in Brain Could Reveal Earliest Signs of Alzheimer's
According to researchers, if the ventral tegmental area is unable to produce the correct amount of dopamine for the hippocampus, it will not work efficiently and the impairment can result in dementia.
#خبر #سورس_کد
اخیرا #BMW ابزارهای آموزش مدل و ... که برای آموزش مدلهاشون استفاده میکنند و ظاهرا عمدتا bject detection و YOLO هستند را open source کرده
https://github.com/BMW-InnovationLab
اخیرا #BMW ابزارهای آموزش مدل و ... که برای آموزش مدلهاشون استفاده میکنند و ظاهرا عمدتا bject detection و YOLO هستند را open source کرده
https://github.com/BMW-InnovationLab
GitHub
BMW TechOffice MUNICH
This organization contains software for realtime computer vision published by the members, partners and friends of the BMW TechOffice MUNICH and InnovationLab. - BMW TechOffice MUNICH
سری سخنرانی های یادگیری عمیق دانشگاه MIT از 6 ژانویه(16 دی) شروع میشه که میتونید لیست کامل سخنرانان رو در این لینک ببینید.(لیست در روزهای آینده به روز رسانی میشه). همینطور ویدیو هر سخنرانی چند روز بعد از هر سخنرانی در لینک فوق قرار داده میشود.
یکی از سخنرانان مشخص شده، فرانسوا شوله نویسنده کتابخانه کراس میباشد.
یکی از سخنرانان مشخص شده، فرانسوا شوله نویسنده کتابخانه کراس میباشد.
#یادگیری_عمیق دقیقا چیه؟
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
AutoML + GAN = AutoGAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
GitHub
GitHub - VITA-Group/AutoGAN: [ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong…
[ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong, Shiyu Chang, Yifan Jiang and Zhangyang Wang - GitHub - VITA-Group/AutoGAN: [IC...
دیپ لرنیگ در آینده به چه صورت خواهد بود؟
میتونید سخنرانی یوشوآ بنجیو در NeurIPS 2019 در این باره را دنبال کنید.
From System 1 Deep Learning to System 2 Deep Learning
Video: https://www.youtube.com/watch?v=FtUbMG3rlFs
Slide: https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
میتونید سخنرانی یوشوآ بنجیو در NeurIPS 2019 در این باره را دنبال کنید.
From System 1 Deep Learning to System 2 Deep Learning
Video: https://www.youtube.com/watch?v=FtUbMG3rlFs
Slide: https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
YouTube
Yoshua Bengio | From System 1 Deep Learning to System 2 Deep Learning | NeurIPS 2019
Slides: https://www.iro.umontreal.ca/~bengioy/NeurIPS-11dec2019.pdf
Summary:
Past progress in deep learning has concentrated mostly on learning from a static dataset, mostly for perception tasks and other System 1 tasks which are done intuitively and unconsciously…
Summary:
Past progress in deep learning has concentrated mostly on learning from a static dataset, mostly for perception tasks and other System 1 tasks which are done intuitively and unconsciously…
MixNet: Google Brain’s new State of the Art Mobile AI architecture
MixNets are a family of mobile-sizes image classification models equipped with MixConv, a new type of mixed depthwise convolutions. Currently, MixNets achieve better accuracy and efficiency than previous mobile models. In particular, MixNet-L achieves a new state-of-the-art 78.9% ImageNet top-1 accuracy under typical mobile FLOPS (<600M) constraint.
MixNet-M with 5M params matches ResNet-153 accuracy but with 60M params and nearly 31x lower FLOPS!
Paper: https://arxiv.org/abs/1907.09595v3
Code: https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet/mixnet
MixNets are a family of mobile-sizes image classification models equipped with MixConv, a new type of mixed depthwise convolutions. Currently, MixNets achieve better accuracy and efficiency than previous mobile models. In particular, MixNet-L achieves a new state-of-the-art 78.9% ImageNet top-1 accuracy under typical mobile FLOPS (<600M) constraint.
MixNet-M with 5M params matches ResNet-153 accuracy but with 60M params and nearly 31x lower FLOPS!
Paper: https://arxiv.org/abs/1907.09595v3
Code: https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet/mixnet
GitHub
tpu/models/official/mnasnet/mixnet at master · tensorflow/tpu
Reference models and tools for Cloud TPUs. Contribute to tensorflow/tpu development by creating an account on GitHub.
#خبر
#sketch2code
ابزار جدید مایکروسافت برای تبدیل طراحی به کد با استفاده از هوش مصنوعی
https://sketch2code.azurewebsites.net/generated-html/1eb2ac79-5532-43c2-8cfa-9067a195f394
🙏Thanks to : @techinsider_channel
#sketch2code
ابزار جدید مایکروسافت برای تبدیل طراحی به کد با استفاده از هوش مصنوعی
https://sketch2code.azurewebsites.net/generated-html/1eb2ac79-5532-43c2-8cfa-9067a195f394
🙏Thanks to : @techinsider_channel
How to improve your image classifier with Google’s AutoAugment
https://towardsdatascience.com/how-to-improve-your-image-classifier-with-googles-autoaugment-77643f0be0c9
https://towardsdatascience.com/how-to-improve-your-image-classifier-with-googles-autoaugment-77643f0be0c9
Medium
How to improve your image classifier with Google’s AutoAugment
Improved data augmentation yields state-of-the-art on ImageNet. Use it yourself from this Github repo.
ممکنه در آموزش شبکه فقط با ست کردن سید نامپای نتایج تون قابل باز تولید نباشه
برای این کار باید سید های دیگه رو هم ست کنید مثل تنسورفلو و ....
این کد اینکارو میکنه:
# Seed value
# Apparently you may use different seed values at each stage
seed_value= 123
# 1. Set the
import os
os.environ['PYTHONHASHSEED']=str(seed_value)
# 2. Set the
import random
random.seed(seed_value)
# 3. Set the
import numpy as np
np.random.seed(seed_value)
# 4. Set the
import tensorflow as tf
tf.random.set_random_seed(seed_value)
# 5. Configure a new global
from keras import backend as K
session_conf = tf.ConfigProto(intra_op_parallelism_threads=1, inter_op_parallelism_threads=1)
sess = tf.Session(graph=tf.get_default_graph(), config=session_conf)
K.set_session(sess)
برای این کار باید سید های دیگه رو هم ست کنید مثل تنسورفلو و ....
این کد اینکارو میکنه:
# Seed value
# Apparently you may use different seed values at each stage
seed_value= 123
# 1. Set the
PYTHONHASHSEED
environment variable at a fixed valueimport os
os.environ['PYTHONHASHSEED']=str(seed_value)
# 2. Set the
python
built-in pseudo-random generator at a fixed valueimport random
random.seed(seed_value)
# 3. Set the
numpy
pseudo-random generator at a fixed valueimport numpy as np
np.random.seed(seed_value)
# 4. Set the
tensorflow
pseudo-random generator at a fixed valueimport tensorflow as tf
tf.random.set_random_seed(seed_value)
# 5. Configure a new global
tensorflow
sessionfrom keras import backend as K
session_conf = tf.ConfigProto(intra_op_parallelism_threads=1, inter_op_parallelism_threads=1)
sess = tf.Session(graph=tf.get_default_graph(), config=session_conf)
K.set_session(sess)
#سورس_کد
EfficientDet: Scalable and Efficient Object Detection
https://github.com/signatrix/efficientdet
EfficientDet: Scalable and Efficient Object Detection
https://github.com/signatrix/efficientdet
GitHub
GitHub - signatrix/efficientdet: (Pretrained weights provided) EfficientDet: Scalable and Efficient Object Detection implementation…
(Pretrained weights provided) EfficientDet: Scalable and Efficient Object Detection implementation by Signatrix GmbH - signatrix/efficientdet
#آموزش
ابزارهای تنسرفلو برای کاهش زمان inference مدل، این کارها شامل quantization بعد آموزش مدل و همچنین هرس وزنها طی فرایند آموزش است.
Optimize machine learning models
✔️داکیومنت های مرتبط
https://www.tensorflow.org/model_optimization
💬توئیت مرتبط Francois Chollet :
https://twitter.com/fchollet/status/1214225205532323843?s=20
🕰البته قبلا هم در موردش نوشتم:
https://t.iss.one/cvision/1242
https://t.iss.one/cvision/1271
ابزارهای تنسرفلو برای کاهش زمان inference مدل، این کارها شامل quantization بعد آموزش مدل و همچنین هرس وزنها طی فرایند آموزش است.
Optimize machine learning models
✔️داکیومنت های مرتبط
https://www.tensorflow.org/model_optimization
💬توئیت مرتبط Francois Chollet :
https://twitter.com/fchollet/status/1214225205532323843?s=20
🕰البته قبلا هم در موردش نوشتم:
https://t.iss.one/cvision/1242
https://t.iss.one/cvision/1271
This media is not supported in your browser
VIEW IN TELEGRAM
#سورس کد
#blazeface
مدل تشخیص چهره و ویژگی های چهره real-time در مرورگر با tensorflow js
https://www.npmjs.com/package/@tensorflow-models/blazeface?linkId=80168838
#blazeface
مدل تشخیص چهره و ویژگی های چهره real-time در مرورگر با tensorflow js
https://www.npmjs.com/package/@tensorflow-models/blazeface?linkId=80168838
This media is not supported in your browser
VIEW IN TELEGRAM
رونمایی از ایده تایپ با دوربین سلفی سامسونگ در #CES2020
تنها با یک دوربین سلفی به موبایل خود این قابلیت را اضافه کنید. ظاهرا تایپ ۱۰ انگشتی باید بلد باشید و فعلا فقط زبان انگلیسی است...
Samsung has an invisible keyboard that you can use with your phone
تنها با یک دوربین سلفی به موبایل خود این قابلیت را اضافه کنید. ظاهرا تایپ ۱۰ انگشتی باید بلد باشید و فعلا فقط زبان انگلیسی است...
Samsung has an invisible keyboard that you can use with your phone
#fun How to confuse your machine learning model.
#خبر
تنسرفلو 2.1 منتشر شد.
شما میتوانید تغییرات جدید را از اینجا ببینید.
این نسخه آخرین نسخه از تنسرفلو خواهد بود که پایتون 2 هم پشتیبانی میکند.
یکی از مهمترین ویژگیهای اضافه شده به این نسخه لایهی TextVectorization است که یک آموزش استفاده آن در طبقه بندی متن را میتوانید در این نوتبوک ببینید.
https://colab.research.google.com/drive/1RvCnR7h0_l4Ekn5vINWToI9TNJdpUZB3
تنسرفلو 2.1 منتشر شد.
شما میتوانید تغییرات جدید را از اینجا ببینید.
این نسخه آخرین نسخه از تنسرفلو خواهد بود که پایتون 2 هم پشتیبانی میکند.
یکی از مهمترین ویژگیهای اضافه شده به این نسخه لایهی TextVectorization است که یک آموزش استفاده آن در طبقه بندی متن را میتوانید در این نوتبوک ببینید.
https://colab.research.google.com/drive/1RvCnR7h0_l4Ekn5vINWToI9TNJdpUZB3
GitHub
Release TensorFlow 2.1.0 · tensorflow/tensorflow
Release 2.1.0
TensorFlow 2.1 will be the last TF release supporting Python 2. Python 2 support officially ends an January 1, 2020. As announced earlier, TensorFlow will also stop supporting Python ...
TensorFlow 2.1 will be the last TF release supporting Python 2. Python 2 support officially ends an January 1, 2020. As announced earlier, TensorFlow will also stop supporting Python ...