#مقاله
https://venturebeat.com/2019/09/05/facebook-microsoft-and-academics-launch-deepfake-detection-competition/
Facebook, Microsoft, and academics launch deepfake detection competition
🙏Thanks to: @Kargarisaac
https://venturebeat.com/2019/09/05/facebook-microsoft-and-academics-launch-deepfake-detection-competition/
Facebook, Microsoft, and academics launch deepfake detection competition
🙏Thanks to: @Kargarisaac
VentureBeat
Facebook, Microsoft, and academics launch deepfake detection competition
Facebook, Microsoft, and others are creating a deepfake dataset and detection competition to produce tools to spot fake content and spur innovation.
Forwarded from رویدادهای ملی و بین المللی
#News
خبر:
فرصت مطالعاتی در شرکت انویدیا برای دانشجویان تحصیلات تکمیلی. اطلاعات بیشتر در لینک زیر:
https://www.nvidia.com/en-us/research/graduate-fellowships/
@convent
خبر:
فرصت مطالعاتی در شرکت انویدیا برای دانشجویان تحصیلات تکمیلی. اطلاعات بیشتر در لینک زیر:
https://www.nvidia.com/en-us/research/graduate-fellowships/
@convent
Nvidia
NVIDIA Graduate Fellowship Program | Research
This is the twenty-third year that NVIDIA has invited PhD students to submit their research projects for consideration. Recipients are selected based on their academic achievements, professor nomination, and area of research. We have found this program to…
Forwarded from Deep learning channel (Mohsen Fayyaz)
NeurIPS 2019 Stats - Diego Charrez - Medium
https://medium.com/@dcharrezt/neurips-2019-stats-c91346d31c8f
https://medium.com/@dcharrezt/neurips-2019-stats-c91346d31c8f
Medium
NeurIPS 2019 Stats
The Thirty-third Annual Conference on Neural Information Processing Systems (NeurIPS) is going to be held at the Vancouver Convention…
نمایش بصری گراف معماری شبکه های عصبی یادگیری عمیق و یادگیری ماشین
Visualizer for neural network, deep learning and machine learning models
Netron is a viewer for neural network, deep learning and machine learning models.
Netron supports ONNX (.onnx, .pb, .pbtxt), Keras (.h5, .keras), Core ML (.mlmodel), Caffe (.caffemodel, .prototxt), Caffe2 (predict_net.pb, predict_net.pbtxt), MXNet (.model, -symbol.json), TorchScript (.pt, .pth), NCNN (.param) and TensorFlow Lite (.tflite).
Netron has experimental support for PyTorch (.pt, .pth), Torch (.t7), CNTK (.model, .cntk), Deeplearning4j (.zip), PaddlePaddle (.zip, model), Darknet (.cfg), scikit-learn (.pkl), TensorFlow.js (model.json, .pb) and TensorFlow (.pb, .meta, .pbtxt).
https://github.com/lutzroeder/netron
Visualizer for neural network, deep learning and machine learning models
Netron is a viewer for neural network, deep learning and machine learning models.
Netron supports ONNX (.onnx, .pb, .pbtxt), Keras (.h5, .keras), Core ML (.mlmodel), Caffe (.caffemodel, .prototxt), Caffe2 (predict_net.pb, predict_net.pbtxt), MXNet (.model, -symbol.json), TorchScript (.pt, .pth), NCNN (.param) and TensorFlow Lite (.tflite).
Netron has experimental support for PyTorch (.pt, .pth), Torch (.t7), CNTK (.model, .cntk), Deeplearning4j (.zip), PaddlePaddle (.zip, model), Darknet (.cfg), scikit-learn (.pkl), TensorFlow.js (model.json, .pb) and TensorFlow (.pb, .meta, .pbtxt).
https://github.com/lutzroeder/netron
GitHub
GitHub - lutzroeder/netron: Visualizer for neural network, deep learning and machine learning models
Visualizer for neural network, deep learning and machine learning models - lutzroeder/netron
سلام.
تعدادی از دانشجوهای ورودی 94 دانشگاه رجایی پروژه های پایانی مقطع کارشناسی خود را با موضوعات مرتبط با یادگیری عمیق یا بینایی کامپیوتر انتخاب کرده اند و
یکشنبه مورخ 24 شهریور ساعت 9 الی 12 از موضوعات خود دفاع خواهند کرد.
در صورتی که تمایل دارید حضور یابید لطفا فرم زیر را تکمیل فرمایید.
با توجه به محدودیت ها، بعد از بررسی و هماهنگی با دانشگاه نهایت تا روز شنبه امکان حضور یا عدم حضورتان خدمتتان اعلام خواهد شد.
https://forms.gle/hjNBEaUzuLgJ9VYWA
تعدادی از دانشجوهای ورودی 94 دانشگاه رجایی پروژه های پایانی مقطع کارشناسی خود را با موضوعات مرتبط با یادگیری عمیق یا بینایی کامپیوتر انتخاب کرده اند و
یکشنبه مورخ 24 شهریور ساعت 9 الی 12 از موضوعات خود دفاع خواهند کرد.
در صورتی که تمایل دارید حضور یابید لطفا فرم زیر را تکمیل فرمایید.
با توجه به محدودیت ها، بعد از بررسی و هماهنگی با دانشگاه نهایت تا روز شنبه امکان حضور یا عدم حضورتان خدمتتان اعلام خواهد شد.
https://forms.gle/hjNBEaUzuLgJ9VYWA
#خبر
طبق گزارش نشریه نیچر، ایران در بین پرتولیدترین کشورهای علمی دنیا در هوش مصنوعی قرار گرفته
لینک خبر از خبرگزاری مهر | لینک خبر از خبرگزاری علم و فرهنگ سینا
اسامی ۲۰ محققی که بیشترین پژوهش کاربردی را در میان پژوهشگران هوش مصنوعی کشور داشتهاند در این گزارش اعلام شده است.
به تمامی این محققان و اساتید از جمله دکتر ابراهیم پور، عضو هیات علمی و رئیس دانشکده کامپیوتر دانشگاه رجایی و استاد راهنمای اسبق ارشد خودم تبریک عرض میکنم.
طبق گزارش نشریه نیچر، ایران در بین پرتولیدترین کشورهای علمی دنیا در هوش مصنوعی قرار گرفته
لینک خبر از خبرگزاری مهر | لینک خبر از خبرگزاری علم و فرهنگ سینا
اسامی ۲۰ محققی که بیشترین پژوهش کاربردی را در میان پژوهشگران هوش مصنوعی کشور داشتهاند در این گزارش اعلام شده است.
به تمامی این محققان و اساتید از جمله دکتر ابراهیم پور، عضو هیات علمی و رئیس دانشکده کامپیوتر دانشگاه رجایی و استاد راهنمای اسبق ارشد خودم تبریک عرض میکنم.
خبرگزاری مهر | اخبار ایران و جهان | Mehr News Agency
گزارش آماری مهر؛ ایران در بین ۷ کشور اول تولیدعلم هوش مصنوعی/ اسامی محققان برتر
در گزارشی که نشریه نیچر به آن ارجاع داده است، جمهوری اسلامی ایران در بین پرتولیدترین کشورهای علمی دنیا در هوش مصنوعی است.
وقتی نویسندههای مقاله مدلی ارایه میدهند که میتواند متون را خلاصه کند و برای نوشتن چکیده مقاله همان مدل از آن استفاده میکنند!
لینک مقاله:
https://arxiv.org/abs/1909.03186
لینک مقاله:
https://arxiv.org/abs/1909.03186
سایت o'reilly برای کسانی که تازه ثبتنام کنند ۱۰ روز دسترسی رایگان و آزاد به منابع خود از جمله مطالعه آنلاین کتابها، مشاهده ویدئوهای آموزشی و شرکت در کلاسهای آنلاین و... هدیه میدهد.
از این لینک ثبتنام کنید:
https://learning.oreilly.com/register/
منبع
از این لینک ثبتنام کنید:
https://learning.oreilly.com/register/
منبع
آخرین ریلیز Hugging Face در حوزه #NLP
به روز ترین معماری های عام منظوره مانند (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet...) برای درک زبان طبیعی (NLU) و تولید زبان طبیعی (NLG) برای بیش از 32 مدل از پیش آموزش داده شده و برای بیش از 100 زبان با قابلیت جابهجایی بین دو فریمورک TensorFlow 2.0 و PyTorch
Code: https://github.com/huggingface/transformers
به روز ترین معماری های عام منظوره مانند (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet...) برای درک زبان طبیعی (NLU) و تولید زبان طبیعی (NLG) برای بیش از 32 مدل از پیش آموزش داده شده و برای بیش از 100 زبان با قابلیت جابهجایی بین دو فریمورک TensorFlow 2.0 و PyTorch
Code: https://github.com/huggingface/transformers
GitHub
GitHub - huggingface/transformers: 🤗 Transformers: the model-definition framework for state-of-the-art machine learning models…
🤗 Transformers: the model-definition framework for state-of-the-art machine learning models in text, vision, audio, and multimodal models, for both inference and training. - GitHub - huggingface/t...
#خبر
بلاخره ساعاتی پیش تنسرفلو نسخه ۲ رسما منتشر شد
https://medium.com/tensorflow/tensorflow-2-0-is-now-available-57d706c2a9ab
برای نصب میتوانید به مستندات نصب مراجعه کنید:
https://www.tensorflow.org/install
#tensorflow2
بلاخره ساعاتی پیش تنسرفلو نسخه ۲ رسما منتشر شد
https://medium.com/tensorflow/tensorflow-2-0-is-now-available-57d706c2a9ab
برای نصب میتوانید به مستندات نصب مراجعه کنید:
https://www.tensorflow.org/install
#tensorflow2
Medium
TensorFlow 2.0 is now available!
Earlier this year, we announced TensorFlow 2.0 in alpha at the TensorFlow Dev Summit. Today, we’re delighted to announce that the final…
تغییرات تنسرفلو ۲ برای شبکه های بازگشتی
یکی از تغییرات تنسرفلو ۲ حذف API های اضافی بوده است.
مثلا در تنسرفلو قبلا با دو روش مختلف
TF RNN و Keras RNN
میتوانستیم شبکه ها را تعریف کنیم.
در نسخه جدید تنسرفلو روش TF RNN برای تعریف شبکه های بازگشتی منسوخ شده و کاربردهایی که قبلا داشته و در Keras نبوده به Keras پورت شده است.
حالا از این پس صرفا با API هایی که کراس در اختیارمون میگذاره باید شبکه های RNN را تعریف کنیم.
اطلاعات بیشتر را در این مورد میتوانید از اینجا مطالعه کنید:
https://github.com/tensorflow/community/blob/master/rfcs/20180920-unify-rnn-interface.md
tf.nn.rnn_cell.BasicRNNCell -> tf.keras.SimpleRNNCell
tf.nn.rnn_cell.BasicLSTMCell, tf.keras.LSTMCell -> tf.nn.rnn_cell.LSTMCell
tf.nn.rnn_cell.GRUCell -> tf.keras.GRUCell
tf.nn.rnn_cell.MultiRNNCell -> tf.keras.StackedRNNCells
#RNN, #tensorflow2
یکی از تغییرات تنسرفلو ۲ حذف API های اضافی بوده است.
مثلا در تنسرفلو قبلا با دو روش مختلف
TF RNN و Keras RNN
میتوانستیم شبکه ها را تعریف کنیم.
در نسخه جدید تنسرفلو روش TF RNN برای تعریف شبکه های بازگشتی منسوخ شده و کاربردهایی که قبلا داشته و در Keras نبوده به Keras پورت شده است.
حالا از این پس صرفا با API هایی که کراس در اختیارمون میگذاره باید شبکه های RNN را تعریف کنیم.
اطلاعات بیشتر را در این مورد میتوانید از اینجا مطالعه کنید:
https://github.com/tensorflow/community/blob/master/rfcs/20180920-unify-rnn-interface.md
tf.nn.rnn_cell.BasicRNNCell -> tf.keras.SimpleRNNCell
tf.nn.rnn_cell.BasicLSTMCell, tf.keras.LSTMCell -> tf.nn.rnn_cell.LSTMCell
tf.nn.rnn_cell.GRUCell -> tf.keras.GRUCell
tf.nn.rnn_cell.MultiRNNCell -> tf.keras.StackedRNNCells
#RNN, #tensorflow2
GitHub
community/rfcs/20180920-unify-rnn-interface.md at master · tensorflow/community
Stores documents used by the TensorFlow developer community - tensorflow/community
معادل rnn ها در api کراس تنسرفلو
https://t.iss.one/cvision/1444
https://t.iss.one/cvision/1444
☑️تغییرات RNN ها در تنسرفلو۲
اگر خاطرتون باشه قبلا برای استفاده از GPU در مدلهای RNN باید شرط مینوشتیم و از لایه معادل CUDNN آن استفاده میکردیم که کد واقعا کثیف میشد!
مثلا برای تولید اشعاری شبیه شاهنامه کد زیر را که در عکس مشخص شده داشتیم
https://nbviewer.jupyter.org/github/Alireza-Akhavan/class.vision/blob/master/48-text-generation-on-shahnameh-tensorflow.ipynb
#tensorflow2 #rnn
اگر خاطرتون باشه قبلا برای استفاده از GPU در مدلهای RNN باید شرط مینوشتیم و از لایه معادل CUDNN آن استفاده میکردیم که کد واقعا کثیف میشد!
مثلا برای تولید اشعاری شبیه شاهنامه کد زیر را که در عکس مشخص شده داشتیم
https://nbviewer.jupyter.org/github/Alireza-Akhavan/class.vision/blob/master/48-text-generation-on-shahnameh-tensorflow.ipynb
#tensorflow2 #rnn
در تنسرفلو ۲، به صورت پیش فرض اگر GPU در دسترس باشه و اگر از لایه های RNN ی استفاده کنید، از GPU استفاده خواهد شد.
اگر یادتون باشه قبلا اینطوری نبود که اینجا مثال زدم:
https://t.iss.one/cvision/1446
پس به همین دلیل دیگه دو لایه ی keras.layers.CuDNNLSTM/CuDNNGRU layers
منقضی شدند. و میتونید بدون نگرانی به نوع سخت افزار کد بنویسید.
اما از اونجایی که لایه های rnn در کرنل CUDNN تحت شرایط خاص نوشته شده، نمیتونیم هر پارامتری که میخوایم را بهش پاس بدیم، در غیر این صورت کدمون فقط رو cpu ران میشه!
شرایطی که باعث میشه لایه های RNN ی روی GPU نره و فقط رو CPU اجرا شه!
🔴Changing the activation function from tanh to something else.
🔴Changing the recurrent_activation function from sigmoid to something else.
🔴Using recurrent_dropout > 0.
Setting unroll to True, which forces LSTM/GRU to decompose the inner tf.while_loop into an unrolled for loop.
🔴Setting use_bias to False.
🔴Using masking when the input data is not strictly right padded (if the mask corresponds to strictly right padded data, CuDNN can still be used. This is the most common case).
https://www.tensorflow.org/guide/keras/rnn
@cvision
#tensorflow2 #rnn
اگر یادتون باشه قبلا اینطوری نبود که اینجا مثال زدم:
https://t.iss.one/cvision/1446
پس به همین دلیل دیگه دو لایه ی keras.layers.CuDNNLSTM/CuDNNGRU layers
منقضی شدند. و میتونید بدون نگرانی به نوع سخت افزار کد بنویسید.
اما از اونجایی که لایه های rnn در کرنل CUDNN تحت شرایط خاص نوشته شده، نمیتونیم هر پارامتری که میخوایم را بهش پاس بدیم، در غیر این صورت کدمون فقط رو cpu ران میشه!
شرایطی که باعث میشه لایه های RNN ی روی GPU نره و فقط رو CPU اجرا شه!
🔴Changing the activation function from tanh to something else.
🔴Changing the recurrent_activation function from sigmoid to something else.
🔴Using recurrent_dropout > 0.
Setting unroll to True, which forces LSTM/GRU to decompose the inner tf.while_loop into an unrolled for loop.
🔴Setting use_bias to False.
🔴Using masking when the input data is not strictly right padded (if the mask corresponds to strictly right padded data, CuDNN can still be used. This is the most common case).
https://www.tensorflow.org/guide/keras/rnn
@cvision
#tensorflow2 #rnn
Telegram
Tensorflow
☑️تغییرات RNN ها در تنسرفلو۲
اگر خاطرتون باشه قبلا برای استفاده از GPU در مدلهای RNN باید شرط مینوشتیم و از لایه معادل CUDNN آن استفاده میکردیم که کد واقعا کثیف میشد!
مثلا برای تولید اشعاری شبیه شاهنامه کد زیر را که در عکس مشخص شده داشتیم
https://nbview…
اگر خاطرتون باشه قبلا برای استفاده از GPU در مدلهای RNN باید شرط مینوشتیم و از لایه معادل CUDNN آن استفاده میکردیم که کد واقعا کثیف میشد!
مثلا برای تولید اشعاری شبیه شاهنامه کد زیر را که در عکس مشخص شده داشتیم
https://nbview…
👍1
#آموزش
نوت بوک آموزشی تنسرفلو 2 که توسط Chollet منتشر شد
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO#scrollTo=fxINLLGitX_n
#tensorflow2 #Keras
نوت بوک آموزشی تنسرفلو 2 که توسط Chollet منتشر شد
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO#scrollTo=fxINLLGitX_n
#tensorflow2 #Keras
#پیاده_سازی #سورس_کد
Tensorflow 2.0 based implementation of EDSR, WDSR and SRGAN for single image super-resolution
https://github.com/krasserm/super-resolution
#super_resolution
#tensorflow2 #keras
Tensorflow 2.0 based implementation of EDSR, WDSR and SRGAN for single image super-resolution
https://github.com/krasserm/super-resolution
#super_resolution
#tensorflow2 #keras
#آموزش استفاده از مدل تنسرفلویی tf.keras در اندروید با استفاده از TFLite تنسرفلو
https://medium.com/@margaretmz/e2e-tfkeras-tflite-android-273acde6588
https://medium.com/@margaretmz/e2e-tfkeras-tflite-android-273acde6588
YOLO Nano: a Highly Compact You Only Look Once Convolutional Neural Network for Object Detection
YOLO Nano possesses a model size of ~4.0MB (>15.1x and >8.3x smaller than Tiny YOLOv2 and Tiny YOLOv3, respectively) and requires 4.57B operations for inference (>34% and ~17% lower than Tiny YOLOv2 and Tiny YOLOv3, respectively) while still achieving an mAP of ~69.1% on the VOC 2007 dataset (~12% and ~10.7% higher than Tiny YOLOv2 and Tiny YOLOv3, respectively).
Paper: https://arxiv.org/pdf/1910.01271
#paper #object_detection #YOLO_Nano
YOLO Nano possesses a model size of ~4.0MB (>15.1x and >8.3x smaller than Tiny YOLOv2 and Tiny YOLOv3, respectively) and requires 4.57B operations for inference (>34% and ~17% lower than Tiny YOLOv2 and Tiny YOLOv3, respectively) while still achieving an mAP of ~69.1% on the VOC 2007 dataset (~12% and ~10.7% higher than Tiny YOLOv2 and Tiny YOLOv3, respectively).
Paper: https://arxiv.org/pdf/1910.01271
#paper #object_detection #YOLO_Nano