دوستان مقطع کارشناسی که برای گذراندن واحد درس کاراموزی خود تمایل دارند کار مرتبط با هوش مصنوعی و deep learning انجام دهند می توانند رزومه خود را به اینجانب ارسال نمایند.
داشتن نامه دانشگاه ضروری است
@alireza_akhavanpour
[email protected]
داشتن نامه دانشگاه ضروری است
@alireza_akhavanpour
[email protected]
دیگه هر کسی میتونه لاگهای آموزش شبکهاش رو با tensorboard.dev با بقیه به اشتراک بذاره.
https://blog.tensorflow.org/2019/12/introducing-tensorboarddev-new-way-to.html
Make sure you have the latest TensorBoard installed:
pip install -U tensorboard
Then, simply use the upload command:
tensorboard dev upload --logdir {logs}
After following the instructions to authenticate with your Google Account, a TensorBoard.dev link will be provided. You can view the TensorBoard immediately, even during the upload. The uploader will continue running and uploading new logs that appear in the log directory until you stop the process.
🙏Thanks to: @samehraboon
https://blog.tensorflow.org/2019/12/introducing-tensorboarddev-new-way-to.html
Make sure you have the latest TensorBoard installed:
pip install -U tensorboard
Then, simply use the upload command:
tensorboard dev upload --logdir {logs}
After following the instructions to authenticate with your Google Account, a TensorBoard.dev link will be provided. You can view the TensorBoard immediately, even during the upload. The uploader will continue running and uploading new logs that appear in the log directory until you stop the process.
🙏Thanks to: @samehraboon
blog.tensorflow.org
Introducing TensorBoard.dev: a new way to share your ML experiment results
The TensorFlow blog contains regular news from the TensorFlow team and the community, with articles on Python, TensorFlow.js, TF Lite, TFX, and more.
DeepNote، محیط اجرای نوتبوک تحت مرورگر مشابه گوگل کولب است که برروی همکاری همزمان روی نوتبوکها تمرکز دارد و بزودی منتشر میشود.
برای دسترسی زودهنگام میتوانید از لینک زیر استفاده کنید:
https://beta.deepnote.com
برای دسترسی زودهنگام میتوانید از لینک زیر استفاده کنید:
https://beta.deepnote.com
#مقاله
مقاله اخیر OpenAI
تصور عموم این بوده که در روشهای عمیق، با افزایش سایز و پارامترهای شبکه، به شرط وجود داده، دقت افزایش پیدا کند.
اما در واقعیت، با افزایش سایز مدل، سایز ورودی، و زمان آموزش، دقت ابتدا افزایشی، بعد کاهشی و مجدد روال افزایشی خواهد داشت (حداقل برای resnet که آزمایش شده)
https://openai.com/blog/deep-double-descent/
مقاله اخیر OpenAI
تصور عموم این بوده که در روشهای عمیق، با افزایش سایز و پارامترهای شبکه، به شرط وجود داده، دقت افزایش پیدا کند.
اما در واقعیت، با افزایش سایز مدل، سایز ورودی، و زمان آموزش، دقت ابتدا افزایشی، بعد کاهشی و مجدد روال افزایشی خواهد داشت (حداقل برای resnet که آزمایش شده)
https://openai.com/blog/deep-double-descent/
This media is not supported in your browser
VIEW IN TELEGRAM
#کاربرد #پردازش_تصویر
ایده خوب و ساده که جزو مثالهای کتابهای پردازش تصویر هست (معمولا فصل عملیات مورفولوژی). اما در عین حال اپ کاربردیش مفیده.
این فیلم تبلیغات یوتیوبی بوده...
ایده خوب و ساده که جزو مثالهای کتابهای پردازش تصویر هست (معمولا فصل عملیات مورفولوژی). اما در عین حال اپ کاربردیش مفیده.
این فیلم تبلیغات یوتیوبی بوده...
Forwarded from 10th WSS ☃️
❄️ آغاز ثبتنام در «پنجمین سری سمینارهای زمستانه» همراه کارگاهها
📆 ۱۲ و ۱۳ دیماه
🏛 دانشگاه صنعتی شریف
⏰ مهلت ثبتنام تا ۵ ام دیماه
✨بهرهمندی از تخفیف ویژه ثبتنام در کارگاهها همراه با سمینار
💻 اطلاعات بیشتر و ثبتنام:
🔗 https://wss.ce.sharif.ir/go/WSS2019
@WSS_SUT
@SSC_Public
#WSS2019
📆 ۱۲ و ۱۳ دیماه
🏛 دانشگاه صنعتی شریف
⏰ مهلت ثبتنام تا ۵ ام دیماه
✨بهرهمندی از تخفیف ویژه ثبتنام در کارگاهها همراه با سمینار
💻 اطلاعات بیشتر و ثبتنام:
🔗 https://wss.ce.sharif.ir/go/WSS2019
@WSS_SUT
@SSC_Public
#WSS2019
Forwarded from Python_Labs🐍
#خبر
این هفته ورژن 0.22 از کتابخونه محبوب sklearn منتشر شد.
یکی از Major Feature ها که الان نیاز داشتم و دیدم این هفته اضافه شده اینه که دیگه نیازی نیست برای رسم ROC Curve کد بزنیم و اضافش کرده
داکییومنت رسم:
https://scikit-learn.org/stable/visualizations.html#visualizations
ویژگی های دیگه جدید این نسخه:
https://scikit-learn.org/stable/whats_new/v0.22.html
این هفته ورژن 0.22 از کتابخونه محبوب sklearn منتشر شد.
یکی از Major Feature ها که الان نیاز داشتم و دیدم این هفته اضافه شده اینه که دیگه نیازی نیست برای رسم ROC Curve کد بزنیم و اضافش کرده
داکییومنت رسم:
https://scikit-learn.org/stable/visualizations.html#visualizations
ویژگی های دیگه جدید این نسخه:
https://scikit-learn.org/stable/whats_new/v0.22.html
نظرات Andrew Ng در مورد کنفرانس #NeurIPS2019 که میتونید در این thread دنبال کنید:
https://twitter.com/AndrewYNg/status/1207755421928157184
https://twitter.com/AndrewYNg/status/1207755421928157184
Tensorflow(@CVision)
اگر حتی هیچ آشنایی ندارید، بهترین فرصته که همین الان DeepLearning را شروع کنید و مهارت خود را بالا ببرید! تیزر #فیلم_آموزشی یادگیری عمیق در Python و Keras https://aparat.com/v/Cv2fR مشاهده ی تیز با کیفیت بالاتر اطلاعات بیشتر، مشاهده 2 ساعت و نیم نخست برای…
#پست_موقت
کد تخفیف 20 درصدی شب یلدا، برای دوره مقدماتی با موضوع کراس / تنسرفلو2.0
با 5 روز اعتبار تا چهارشنبه :
کد تخفیف:
yalda98
- تیزر دوره
- نود دقیقه ی نخست دوره برای ارزیابی خریداران
- خرید از سایت
کد تخفیف 20 درصدی شب یلدا، برای دوره مقدماتی با موضوع کراس / تنسرفلو2.0
با 5 روز اعتبار تا چهارشنبه :
کد تخفیف:
yalda98
- تیزر دوره
- نود دقیقه ی نخست دوره برای ارزیابی خریداران
- خرید از سایت
آپارات - سرویس اشتراک ویدیو
تیزر فیلم آموزشی Deep Learning with Python, TensorFlow and Keras
تیزر دوره آموزشی 12 ساعته یادگیری عمیق❓در این دوره یاد میگیریم چگونه+برنامه ای بنویسیم که کامپیوتر مثل انسان ببیند و اشیاء را با وبکم تشخیص دهیم!+قیمت یک خونه را برای مال حدس بزند؟+ارقام دست نویس فارسی را بخواندو ...برای خرید و مشاهده پیش نمایش و همچنین مشاهده…
Forwarded from MVIP 2020
مهلت ارسال مقالات به کنفرانس برای آخرین بار تا ۱۴ دی ۱۳۹۸ تمدید شد.
https://mvip2020.ismvipconf.ir
@mvip_2020
https://mvip2020.ismvipconf.ir
@mvip_2020
This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله #سورس_کد
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
سرعت عجیب غریب face detection اونم روی cpu!
طرف به ۱۵۰۰ فریم بر ثانیه رسیده....
https://github.com/ShiqiYu/libfacedetection
طرف به ۱۵۰۰ فریم بر ثانیه رسیده....
https://github.com/ShiqiYu/libfacedetection
GitHub
GitHub - ShiqiYu/libfacedetection: An open source library for face detection in images. The face detection speed can reach 1000FPS.
An open source library for face detection in images. The face detection speed can reach 1000FPS. - GitHub - ShiqiYu/libfacedetection: An open source library for face detection in images. The face ...
DeepPrivacy: A Generative Adversarial Network for Face Anonymization
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
GitHub
GitHub - hukkelas/DeepPrivacy: DeepPrivacy: A Generative Adversarial Network for Face Anonymization
DeepPrivacy: A Generative Adversarial Network for Face Anonymization - hukkelas/DeepPrivacy
Detecting Diminishing Dopamine Firing Cells in Brain Could Reveal Earliest Signs of Alzheimer's - Neuroscience News
https://neurosciencenews.com/alzheimers-dopamine-neuron-8698/
#cognitive #advanced #Neuroscience
https://neurosciencenews.com/alzheimers-dopamine-neuron-8698/
#cognitive #advanced #Neuroscience
Neuroscience News
Detecting Diminishing Dopamine Firing Cells in Brain Could Reveal Earliest Signs of Alzheimer's
According to researchers, if the ventral tegmental area is unable to produce the correct amount of dopamine for the hippocampus, it will not work efficiently and the impairment can result in dementia.
#خبر #سورس_کد
اخیرا #BMW ابزارهای آموزش مدل و ... که برای آموزش مدلهاشون استفاده میکنند و ظاهرا عمدتا bject detection و YOLO هستند را open source کرده
https://github.com/BMW-InnovationLab
اخیرا #BMW ابزارهای آموزش مدل و ... که برای آموزش مدلهاشون استفاده میکنند و ظاهرا عمدتا bject detection و YOLO هستند را open source کرده
https://github.com/BMW-InnovationLab
GitHub
BMW TechOffice MUNICH
This organization contains software for realtime computer vision published by the members, partners and friends of the BMW TechOffice MUNICH and InnovationLab. - BMW TechOffice MUNICH
سری سخنرانی های یادگیری عمیق دانشگاه MIT از 6 ژانویه(16 دی) شروع میشه که میتونید لیست کامل سخنرانان رو در این لینک ببینید.(لیست در روزهای آینده به روز رسانی میشه). همینطور ویدیو هر سخنرانی چند روز بعد از هر سخنرانی در لینک فوق قرار داده میشود.
یکی از سخنرانان مشخص شده، فرانسوا شوله نویسنده کتابخانه کراس میباشد.
یکی از سخنرانان مشخص شده، فرانسوا شوله نویسنده کتابخانه کراس میباشد.
#یادگیری_عمیق دقیقا چیه؟
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
AutoML + GAN = AutoGAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
GitHub
GitHub - VITA-Group/AutoGAN: [ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong…
[ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong, Shiyu Chang, Yifan Jiang and Zhangyang Wang - GitHub - VITA-Group/AutoGAN: [IC...
دیپ لرنیگ در آینده به چه صورت خواهد بود؟
میتونید سخنرانی یوشوآ بنجیو در NeurIPS 2019 در این باره را دنبال کنید.
From System 1 Deep Learning to System 2 Deep Learning
Video: https://www.youtube.com/watch?v=FtUbMG3rlFs
Slide: https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
میتونید سخنرانی یوشوآ بنجیو در NeurIPS 2019 در این باره را دنبال کنید.
From System 1 Deep Learning to System 2 Deep Learning
Video: https://www.youtube.com/watch?v=FtUbMG3rlFs
Slide: https://drive.google.com/file/d/1zbe_N8TmAEvPiKXmn6yZlRkFehsAUS8Z/view
YouTube
Yoshua Bengio | From System 1 Deep Learning to System 2 Deep Learning | NeurIPS 2019
Slides: https://www.iro.umontreal.ca/~bengioy/NeurIPS-11dec2019.pdf
Summary:
Past progress in deep learning has concentrated mostly on learning from a static dataset, mostly for perception tasks and other System 1 tasks which are done intuitively and unconsciously…
Summary:
Past progress in deep learning has concentrated mostly on learning from a static dataset, mostly for perception tasks and other System 1 tasks which are done intuitively and unconsciously…
MixNet: Google Brain’s new State of the Art Mobile AI architecture
MixNets are a family of mobile-sizes image classification models equipped with MixConv, a new type of mixed depthwise convolutions. Currently, MixNets achieve better accuracy and efficiency than previous mobile models. In particular, MixNet-L achieves a new state-of-the-art 78.9% ImageNet top-1 accuracy under typical mobile FLOPS (<600M) constraint.
MixNet-M with 5M params matches ResNet-153 accuracy but with 60M params and nearly 31x lower FLOPS!
Paper: https://arxiv.org/abs/1907.09595v3
Code: https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet/mixnet
MixNets are a family of mobile-sizes image classification models equipped with MixConv, a new type of mixed depthwise convolutions. Currently, MixNets achieve better accuracy and efficiency than previous mobile models. In particular, MixNet-L achieves a new state-of-the-art 78.9% ImageNet top-1 accuracy under typical mobile FLOPS (<600M) constraint.
MixNet-M with 5M params matches ResNet-153 accuracy but with 60M params and nearly 31x lower FLOPS!
Paper: https://arxiv.org/abs/1907.09595v3
Code: https://github.com/tensorflow/tpu/tree/master/models/official/mnasnet/mixnet
GitHub
tpu/models/official/mnasnet/mixnet at master · tensorflow/tpu
Reference models and tools for Cloud TPUs. Contribute to tensorflow/tpu development by creating an account on GitHub.