Forwarded from Ai Events️ (a b)
VisualData
VisualData Discovery - Search Engine for Computer Vision Datasets
#مقاله
A new research paper from Geoffry E.Hinton
Aidan N. Gomez, Ivan Zhang, Kevin Swersky, Yarin Gal
Learning Sparse Networks Using Targeted Dropout
https://arxiv.org/abs/1905.13678
🙏Thanks to: @ArtificialIntelligenceArticles
A new research paper from Geoffry E.Hinton
Aidan N. Gomez, Ivan Zhang, Kevin Swersky, Yarin Gal
Learning Sparse Networks Using Targeted Dropout
https://arxiv.org/abs/1905.13678
🙏Thanks to: @ArtificialIntelligenceArticles
arXiv.org
Learning Sparse Networks Using Targeted Dropout
Neural networks are easier to optimise when they have many more weights than
are required for modelling the mapping from inputs to outputs. This suggests a
two-stage learning procedure that first...
are required for modelling the mapping from inputs to outputs. This suggests a
two-stage learning procedure that first...
#AGI
این واقعبینی François Chollet نسبت به #AGI باوجود اینکه خودش یکی از شناخته شدههای یادگیری عمیقه خیلی جالبه.
بعضی ها با مشاهده پیشرفت های یادگیری عمیق خیلی تو خیال فرو رفتند! مدیران #OpenAI دقیقا نقطه مقابل هستند؛ از ایلان ماسک معروف گرفته تا ساموئل اچ التمن از اعضای هیات مدیره OpenAI که در این توئیت نقد chollet به این اظهارات را میبینیم که جالبه!
https://twitter.com/fchollet/status/1137788467591565312
این واقعبینی François Chollet نسبت به #AGI باوجود اینکه خودش یکی از شناخته شدههای یادگیری عمیقه خیلی جالبه.
بعضی ها با مشاهده پیشرفت های یادگیری عمیق خیلی تو خیال فرو رفتند! مدیران #OpenAI دقیقا نقطه مقابل هستند؛ از ایلان ماسک معروف گرفته تا ساموئل اچ التمن از اعضای هیات مدیره OpenAI که در این توئیت نقد chollet به این اظهارات را میبینیم که جالبه!
https://twitter.com/fchollet/status/1137788467591565312
#AGI
نقد chollet به اظهارات Sam Altman
در ارتباط با این پست،
تشبیه جالب François Chollet در پاسخ به اظهار نظر سم آلتمن، از اعضای هیئت مدیره اوپن ایآی!
فکر کن کلی هزینه کنی که یه پرینتر سه بعدی بسازی که همه چی پرینت کنه، بعد بگی سودم 100 درصد شده و هر چی تو دنیا بخوام برام پرینت سه بعدی میکنه 😁 ...
https://twitter.com/fchollet/status/1130296481745735680
نقد chollet به اظهارات Sam Altman
در ارتباط با این پست،
تشبیه جالب François Chollet در پاسخ به اظهار نظر سم آلتمن، از اعضای هیئت مدیره اوپن ایآی!
فکر کن کلی هزینه کنی که یه پرینتر سه بعدی بسازی که همه چی پرینت کنه، بعد بگی سودم 100 درصد شده و هر چی تو دنیا بخوام برام پرینت سه بعدی میکنه 😁 ...
https://twitter.com/fchollet/status/1130296481745735680
کانال @unixmens کانالی برای ارتقا ساختار سازمانی و کارایی بالا بر مبنای تجارت و راهکار های متن باز و گنو/لینوکس می باشد ،این کانال کانالی در حوزه های مختلف IT است. کانال خود را به دیگران معرفی کنید .
#آموزش
Keras + Mask R-CNN for instance #segmentation:
https://www.pyimagesearch.com/2019/06/10/keras-mask-r-cnn/
Keras + Mask R-CNN for instance #segmentation:
https://www.pyimagesearch.com/2019/06/10/keras-mask-r-cnn/
#ویدئو و مقالات #ICML2019
فیلمهای کنفرانس ICML 2019
https://www.youtube.com/channel/UCvqEpkx-HQ2nDMT-ob-AADg/videos
فهرست کامل مقالات کنفرانس ICML 2019
https://www.paperdigest.org/2019/05/icml-2019-papers-with-code/
#فیلم #کنفرانس #الگوریتمها #منابع #هوش_مصنوعی #مقاله
🙏Thanks to: @AI_Python
فیلمهای کنفرانس ICML 2019
https://www.youtube.com/channel/UCvqEpkx-HQ2nDMT-ob-AADg/videos
فهرست کامل مقالات کنفرانس ICML 2019
https://www.paperdigest.org/2019/05/icml-2019-papers-with-code/
#فیلم #کنفرانس #الگوریتمها #منابع #هوش_مصنوعی #مقاله
🙏Thanks to: @AI_Python
PyTorch Hub!
Towards Reproducible Research with PyTorch Hub
https://pytorch.org/blog/towards-reproducible-research-with-pytorch-hub/
Towards Reproducible Research with PyTorch Hub
https://pytorch.org/blog/towards-reproducible-research-with-pytorch-hub/
#ویدئو
Meta-Learning: from Few-Shot Learning
to Rapid Reinforcement Learning
slides:
https://drive.google.com/file/d/1DuHyotdwEAEhmuHQWwRosdiVBVGm8uYx/view
Videos of the tutorial :
Part 1: https://www.facebook.com/icml.imls/videos/400619163874853/
Part 2: https://www.facebook.com/icml.imls/videos/2970931166257998/
Meta-Learning: from Few-Shot Learning
to Rapid Reinforcement Learning
slides:
https://drive.google.com/file/d/1DuHyotdwEAEhmuHQWwRosdiVBVGm8uYx/view
Videos of the tutorial :
Part 1: https://www.facebook.com/icml.imls/videos/400619163874853/
Part 2: https://www.facebook.com/icml.imls/videos/2970931166257998/
Forwarded from Python_Labs🐍 (Alireza Akhavan)
mamba is a drop-in replacement for conda.
just did: time conda/mamba install -yc bioconda mosdepth
with uninstall in between. 4.3 seconds for mamba, 31 for conda.
https://medium.com/@wolfv/mamba-development-news-29e32aaa8d6c
just did: time conda/mamba install -yc bioconda mosdepth
with uninstall in between. 4.3 seconds for mamba, 31 for conda.
https://medium.com/@wolfv/mamba-development-news-29e32aaa8d6c
Medium
Mamba Development News
It’s been a while since we’ve communicated on what’s new in mamba-land. Mamba is still fast, supports more of conda’s operations and has…
Tensorflow(@CVision)
PyTorch Hub! Towards Reproducible Research with PyTorch Hub https://pytorch.org/blog/towards-reproducible-research-with-pytorch-hub/
#خبر
در ادامه این خبر:
https://t.iss.one/cvision/1325
و معرفی این سایت:
https://t.iss.one/cvision/976
برای برخی از مقالات در سایت paperswithcode میتونید مستقیم به colab و pytorchhub برید...
https://paperswithcode.com/paper/bert-pre-training-of-deep-bidirectional
در ادامه این خبر:
https://t.iss.one/cvision/1325
و معرفی این سایت:
https://t.iss.one/cvision/976
برای برخی از مقالات در سایت paperswithcode میتونید مستقیم به colab و pytorchhub برید...
https://paperswithcode.com/paper/bert-pre-training-of-deep-bidirectional
#مقاله #سورس_کد #مجموعه_داده
CVPR’19 paper on speech-to-gesture prediction. Given raw speech audio, predict arm/hand motion to go along with it. Check out video, or download 128 hours of video for 10 speakers
Learning Individual Styles of Conversational Gesture
https://people.eecs.berkeley.edu/~shiry/speech2gesture/
#CVPR2019
🙏Thanks to: @ArtificialIntelligenceArticles
CVPR’19 paper on speech-to-gesture prediction. Given raw speech audio, predict arm/hand motion to go along with it. Check out video, or download 128 hours of video for 10 speakers
Learning Individual Styles of Conversational Gesture
https://people.eecs.berkeley.edu/~shiry/speech2gesture/
#CVPR2019
🙏Thanks to: @ArtificialIntelligenceArticles
#آموزش
چرا شبکههایی مانند MobileNet بهینه و سریع هستند؟
Grouped convolution is a variant of convolution where the channels of the input feature map are grouped and convolution is performed independently for each grouped channels.
https://medium.com/@yu4u/why-mobilenet-and-its-variants-e-g-shufflenet-are-fast-1c7048b9618
چرا شبکههایی مانند MobileNet بهینه و سریع هستند؟
Grouped convolution is a variant of convolution where the channels of the input feature map are grouped and convolution is performed independently for each grouped channels.
https://medium.com/@yu4u/why-mobilenet-and-its-variants-e-g-shufflenet-are-fast-1c7048b9618
#آموزش #pix2pix #GAN
همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟
یک راه ریسایز کردن عکس به سایز ورودی شبکه در هنگام فید کردن دیتا به شبکه است که این روش بسیار از لحاظ محاسباتی هزینه بر است.
راه دوم اصلاح معماری شبکه متناسب با سایز ورودی است و خب این راه به دلیل بزرگ بودن فضای مسئله و tricky بودن آموزش GANها کمی زمان بر است و ممکن است به بهترین جواب نرسیم.
جواب یکی از نویسندگان مقاله pix2pix به نحوه و منطق اصلاح معماری شبکه متناسب با سایز 32x32 :
Jun Yan Zhu:
"For the generator, you can remove the first two downsampling layers and their corresponding upsampling layers from defineG_unet_128. For the discriminator, remove one or two downsampling layers."
https://github.com/phillipi/pix2pix/issues/175
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟
یک راه ریسایز کردن عکس به سایز ورودی شبکه در هنگام فید کردن دیتا به شبکه است که این روش بسیار از لحاظ محاسباتی هزینه بر است.
راه دوم اصلاح معماری شبکه متناسب با سایز ورودی است و خب این راه به دلیل بزرگ بودن فضای مسئله و tricky بودن آموزش GANها کمی زمان بر است و ممکن است به بهترین جواب نرسیم.
جواب یکی از نویسندگان مقاله pix2pix به نحوه و منطق اصلاح معماری شبکه متناسب با سایز 32x32 :
Jun Yan Zhu:
"For the generator, you can remove the first two downsampling layers and their corresponding upsampling layers from defineG_unet_128. For the discriminator, remove one or two downsampling layers."
https://github.com/phillipi/pix2pix/issues/175
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
GitHub
Input size 32x32 · Issue #175 · phillipi/pix2pix
Hi, I want to use pix2pix architecture with the Cifar10 dataset and the problem is the input size. I do not want to resize the images because it is computationally expensive and it takes a lot of t...
#مقاله
Text-based Editing of Talking-head Video
Editing talking-head video to change the speech content or to remove filler words is challenging.
Here is a method to edit talking head video based on its transcript to produce a realistic output video in which the dialogue of the speaker has been modified, while maintaining a seamless audio visual flow.
لینک مقاله:
https://www.ohadf.com/projects/text-based-editing/data/text-based-editing.pdf
لینک یوتیوب:
https://youtu.be/0ybLCfVeFL4
لینک مطالب تکمیلی:
https://drive.google.com/open?id=1iv9HHQ-Zd8BTMPsO7fq7op22cSEGSm37
Text-based Editing of Talking-head Video
Editing talking-head video to change the speech content or to remove filler words is challenging.
Here is a method to edit talking head video based on its transcript to produce a realistic output video in which the dialogue of the speaker has been modified, while maintaining a seamless audio visual flow.
لینک مقاله:
https://www.ohadf.com/projects/text-based-editing/data/text-based-editing.pdf
لینک یوتیوب:
https://youtu.be/0ybLCfVeFL4
لینک مطالب تکمیلی:
https://drive.google.com/open?id=1iv9HHQ-Zd8BTMPsO7fq7op22cSEGSm37
YouTube
Text-based Editing of Talking-head Video (SIGGRAPH 2019)
SIGGRAPH 2019 Paper. Read below for important ethical considerations.
Project page: https://www.ohadf.com/projects/text-based-editing/
My webpage (with this and other related projects): https://www.ohadf.com/
Abstract:
Editing talking-head video to change…
Project page: https://www.ohadf.com/projects/text-based-editing/
My webpage (with this and other related projects): https://www.ohadf.com/
Abstract:
Editing talking-head video to change…
#خبر
Experts: Spy used AI-generated face to connect with targets
https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d
Experts: Spy used AI-generated face to connect with targets
https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d
AP News
Experts: Spy used AI-generated face to connect with targets
LONDON (AP) — Katie Jones sure seemed plugged into Washington's political scene. The 30-something redhead boasted a job at a top think tank and a who's-who network of pundits and experts, from the centrist Brookings Institution to the right-wing Heritage…