@Machine_learn
Rank-consistent Ordinal Regression for Neural Networks
Article: https://arxiv.org/abs/1901.07884
PyTorch: https://github.com/Raschka-research-group/coral-cnn
Rank-consistent Ordinal Regression for Neural Networks
Article: https://arxiv.org/abs/1901.07884
PyTorch: https://github.com/Raschka-research-group/coral-cnn
arXiv.org
Rank consistent ordinal regression for neural networks with...
In many real-world prediction tasks, class labels include information about the relative ordering between labels, which is not captured by commonly-used loss functions such as multi-category...
@Machine_leaen
ai ,machine learning
#code #datasets #paper
• 1146 leaderboards
• 1223 tasks
• 1105 datasets
• 14779 papers with code
https://paperswithcode.com/sota
ai ,machine learning
#code #datasets #paper
• 1146 leaderboards
• 1223 tasks
• 1105 datasets
• 14779 papers with code
https://paperswithcode.com/sota
GitHub
Papers with code
Papers with code has 13 repositories available. Follow their code on GitHub.
@Machine_learn
Memory-Efficient Adaptive Optimization
Source: https://arxiv.org/abs/1901.11150
Code: https://github.com/google-research/google-research/tree/master/sm3
Memory-Efficient Adaptive Optimization
Source: https://arxiv.org/abs/1901.11150
Code: https://github.com/google-research/google-research/tree/master/sm3
arXiv.org
Memory-Efficient Adaptive Optimization
Adaptive gradient-based optimizers such as Adagrad and Adam are crucial for achieving state-of-the-art performance in machine translation and language modeling. However, these methods maintain...
@Machine_learn
🚀 Introducing TF-GAN: A lightweight GAN library for TensorFlow 2.0
Tensorflow blog: https://medium.com/tensorflow/introducing-tf-gan-a-lightweight-gan-library-for-tensorflow-2-0-36d767e1abae
Code: https://github.com/tensorflow/gan
Free course: https://developers.google.com/machine-learning/gan/
Paper: https://arxiv.org/abs/1805.08318
🚀 Introducing TF-GAN: A lightweight GAN library for TensorFlow 2.0
Tensorflow blog: https://medium.com/tensorflow/introducing-tf-gan-a-lightweight-gan-library-for-tensorflow-2-0-36d767e1abae
Code: https://github.com/tensorflow/gan
Free course: https://developers.google.com/machine-learning/gan/
Paper: https://arxiv.org/abs/1805.08318
Medium
Introducing TF-GAN: A lightweight GAN library for TensorFlow 2.0
Posted by Joel Shor, Yoel Drori, Google Research Tel Aviv, Aaron Sarna, David Westbrook, Paige Bailey
@Machine_learn
DeepMind's OpenSpiel is a collection of environments and algorithms for research in general reinforcement learning and search/planning in games.
code: https://github.com/deepmind/open_spiel
article: https://arxiv.org/abs/1908.09453
DeepMind's OpenSpiel is a collection of environments and algorithms for research in general reinforcement learning and search/planning in games.
code: https://github.com/deepmind/open_spiel
article: https://arxiv.org/abs/1908.09453
GitHub
GitHub - google-deepmind/open_spiel: OpenSpiel is a collection of environments and algorithms for research in general reinforcement…
OpenSpiel is a collection of environments and algorithms for research in general reinforcement learning and search/planning in games. - google-deepmind/open_spiel
Deep Learning with Python
The ultimate beginners guide to Learn Deep Learning with Python Step by Step
#book #DL #python
@Machine_learn
The ultimate beginners guide to Learn Deep Learning with Python Step by Step
#book #DL #python
@Machine_learn
4_5994449442294466012.pdf
1.9 MB
Deep Learning with Python
The ultimate beginners guide to Learn Deep Learning with Python Step by Step
#book #DL #python
@Machine_learn
The ultimate beginners guide to Learn Deep Learning with Python Step by Step
#book #DL #python
@Machine_learn
@Machine_learn
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
How normalization applied to layers helps to reach faster convergence.
ArXiV: https://arxiv.org/abs/1502.03167
#NeuralNetwork #nn #normalization #DL
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
How normalization applied to layers helps to reach faster convergence.
ArXiV: https://arxiv.org/abs/1502.03167
#NeuralNetwork #nn #normalization #DL
arXiv.org
Batch Normalization: Accelerating Deep Network Training by...
Training Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows down the...
@Machine_learn
The largest publicly available language model: CTRL has 1.6B parameters and can be guided by control codes for style, content, and task-specific behavior.
code: https://github.com/salesforce/ctrl
article: https://einstein.ai/presentations/ctrl.pdf
C-write:ai_machinelearning_big_data
https://blog.einstein.ai/introducing-a-conditional-transformer-language-model-for-controllable-generation/
The largest publicly available language model: CTRL has 1.6B parameters and can be guided by control codes for style, content, and task-specific behavior.
code: https://github.com/salesforce/ctrl
article: https://einstein.ai/presentations/ctrl.pdf
C-write:ai_machinelearning_big_data
https://blog.einstein.ai/introducing-a-conditional-transformer-language-model-for-controllable-generation/
GitHub
GitHub - salesforce/ctrl: Conditional Transformer Language Model for Controllable Generation
Conditional Transformer Language Model for Controllable Generation - salesforce/ctrl
@Machine_learn
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
How normalization applied to layers helps to reach faster convergence.
ArXiV: https://arxiv.org/abs/1502.03167
#NeuralNetwork #nn #normalization #DL
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
How normalization applied to layers helps to reach faster convergence.
ArXiV: https://arxiv.org/abs/1502.03167
#NeuralNetwork #nn #normalization #DL
arXiv.org
Batch Normalization: Accelerating Deep Network Training by...
Training Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows down the...
Forwarded from Machine learning books and papers (Ramin Mousa)
discriminative :
1:#Regression
2:#Logistic regression
3:#decision tree(Hunt)
4:#neural network(traditional network, deep network)
5:#Support Vector Machine(SVM)
Generative:
1:#Hidden Markov model
2:#Naive bayes
3:#K-nearest neighbor(KNN)
4:#Generative adversarial networks(GANs)
Deep learning:
1:CNN
R_CNN
Fast-RCNN
Mask-RCNN
2:RNN
3:LSTM
4:CapsuleNet
5:Siamese:
siamese cnn
siamese lstm
siamese bi-lstm
siamese CapsuleNet
6:time series data
SVR
DT(cart)
Random Forest linear
Bagging
Boosting
جهت درخواست و راهنمایی در رابطه با پیاده سازی مقالات و پایان نامه ها در رابطه با مباحث deep learning و machine learning با ایدی زیر در ارتباط باشید
@Raminmousa
1:#Regression
2:#Logistic regression
3:#decision tree(Hunt)
4:#neural network(traditional network, deep network)
5:#Support Vector Machine(SVM)
Generative:
1:#Hidden Markov model
2:#Naive bayes
3:#K-nearest neighbor(KNN)
4:#Generative adversarial networks(GANs)
Deep learning:
1:CNN
R_CNN
Fast-RCNN
Mask-RCNN
2:RNN
3:LSTM
4:CapsuleNet
5:Siamese:
siamese cnn
siamese lstm
siamese bi-lstm
siamese CapsuleNet
6:time series data
SVR
DT(cart)
Random Forest linear
Bagging
Boosting
جهت درخواست و راهنمایی در رابطه با پیاده سازی مقالات و پایان نامه ها در رابطه با مباحث deep learning و machine learning با ایدی زیر در ارتباط باشید
@Raminmousa
👍1
Forwarded from Artificial Intelligence
Depth Hints are complementary depth suggestions which improve monocular depth estimation algorithms trained from stereo pairs
code: https://github.com/nianticlabs/depth-hints
paper: https://arxiv.org/abs/1909.09051
dataset : https://lmb.informatik.uni-freiburg.de/resources/datasets/SceneFlowDatasets.en.html
code: https://github.com/nianticlabs/depth-hints
paper: https://arxiv.org/abs/1909.09051
dataset : https://lmb.informatik.uni-freiburg.de/resources/datasets/SceneFlowDatasets.en.html
GitHub
GitHub - nianticlabs/depth-hints: [ICCV 2019] Depth Hints are complementary depth suggestions which improve monocular depth estimation…
[ICCV 2019] Depth Hints are complementary depth suggestions which improve monocular depth estimation algorithms trained from stereo pairs - nianticlabs/depth-hints
Forwarded from Just Xor
🖥 @pythonl Welcome to world of Django , Python programming ,AI, Deep Learning, Machine Learning, Data Science by using Python Programming language.
You will find up-to-date books📚 links🔗 and more you wanted. Join us and learn hot topics of Python and Machine Learning.
👉 Follow to improve your python skills @pythonl
You will find up-to-date books📚 links🔗 and more you wanted. Join us and learn hot topics of Python and Machine Learning.
👉 Follow to improve your python skills @pythonl
Continuous Probability Distributions for Machine Learning
@Machine_learn
https://machinelearningmastery.com/continuous-probability-distributions-for-machine-learning/
@Machine_learn
https://machinelearningmastery.com/continuous-probability-distributions-for-machine-learning/
با عرض سلام
جهت کمک به کودکان بی بضاعت تصمیم بر این شد که از این به بعد تمامی هزینه های فروش دوره یادگیری ماشین و پایتون صرف خرید#لوازم_تحریر شود. #تعداد_فروش و #اقلام_تهیه شده از طریق همین کانال اعلام میشود.
مجموعه آموزشی #یادگیری_ماشین و پایتون به زبان فارسی برای دوستانی که می خواهند در این زمینه علمی قدم بگذارند تهیه شده است. قابل توجه است که تمامی سرفصل ها با پیاده سازی عملی توضیح داده شده اند. سرفصل ها از قرار زیر می باشند.
پایتون:
1:print formatting
2:strings
3:advance strings
4:Range
5:list and list comprehension
6:list methods
7:numbers
8:comparison operations
9:chain operations
10:dictionary
11:collection module
12:Tuple
13:complex
14:advance sets
15:Basic Functions
16:sets and boolean
17:if,elif,else
18:for loop
19:while loop
20:Enumerate
21:iteration and generators
22:all and any
23:lambda expression
24:map
25:Reduce
26:filter
29:modules and packages
30:Functions
31:Decorators
32:File
33:object oriented programming
جلسات ماشین:
۱:مقدمه ای بر یادگیری ماشین
۲: رگرسیون خطی
۳: مقدمه ای بر Numpy
۴:پیاده سازه رگرسیون خطی با Numpy
۵:نصب tensorflow
۶:مقدمه ای بر tensorflow
۶:پیاده سازی رگرسیون خطی با tensorflow
۷: درخت تصمیم گیری
۸:پیاده سازی درخت تصمیم با Numpy
۹:الگوریتم K-nearest neighbor
۱۰: الگوریتم K-means
۱۱: الگوریتم GMM(gaussian mixtural model)
۱۲: پیاده سازی GMM با numpy
۱۳:پیاده سازی GMM در SKlearn
۱۴:مقدمه ای بر شبکه های عصبی (perceptron)
۱۵: شبکه های عصبی Fully connected و error back propagation
۱۶: پیاده سازی Fully connected network در tensorflow
۱۷: مقدمه ای بر شبکه های کانولوشن
۱۸: پیاده سازی کانولوشن در tensorflow
تمامی ویدیوها به همراه jupyter notebook و اسلایدهای مرتبط با هر فصل ضبط و تهیه شده اند.
قیمت دوره ۱۰۰ هزار تومن
#حمایت_از _کودکان
برای تهیه این مجموعه با ایدی
@RaminMousa
در ارتباط باشید.
مدرس جلسات رامین موسی 🎬🎬
جهت کمک به کودکان بی بضاعت تصمیم بر این شد که از این به بعد تمامی هزینه های فروش دوره یادگیری ماشین و پایتون صرف خرید#لوازم_تحریر شود. #تعداد_فروش و #اقلام_تهیه شده از طریق همین کانال اعلام میشود.
مجموعه آموزشی #یادگیری_ماشین و پایتون به زبان فارسی برای دوستانی که می خواهند در این زمینه علمی قدم بگذارند تهیه شده است. قابل توجه است که تمامی سرفصل ها با پیاده سازی عملی توضیح داده شده اند. سرفصل ها از قرار زیر می باشند.
پایتون:
1:print formatting
2:strings
3:advance strings
4:Range
5:list and list comprehension
6:list methods
7:numbers
8:comparison operations
9:chain operations
10:dictionary
11:collection module
12:Tuple
13:complex
14:advance sets
15:Basic Functions
16:sets and boolean
17:if,elif,else
18:for loop
19:while loop
20:Enumerate
21:iteration and generators
22:all and any
23:lambda expression
24:map
25:Reduce
26:filter
29:modules and packages
30:Functions
31:Decorators
32:File
33:object oriented programming
جلسات ماشین:
۱:مقدمه ای بر یادگیری ماشین
۲: رگرسیون خطی
۳: مقدمه ای بر Numpy
۴:پیاده سازه رگرسیون خطی با Numpy
۵:نصب tensorflow
۶:مقدمه ای بر tensorflow
۶:پیاده سازی رگرسیون خطی با tensorflow
۷: درخت تصمیم گیری
۸:پیاده سازی درخت تصمیم با Numpy
۹:الگوریتم K-nearest neighbor
۱۰: الگوریتم K-means
۱۱: الگوریتم GMM(gaussian mixtural model)
۱۲: پیاده سازی GMM با numpy
۱۳:پیاده سازی GMM در SKlearn
۱۴:مقدمه ای بر شبکه های عصبی (perceptron)
۱۵: شبکه های عصبی Fully connected و error back propagation
۱۶: پیاده سازی Fully connected network در tensorflow
۱۷: مقدمه ای بر شبکه های کانولوشن
۱۸: پیاده سازی کانولوشن در tensorflow
تمامی ویدیوها به همراه jupyter notebook و اسلایدهای مرتبط با هر فصل ضبط و تهیه شده اند.
قیمت دوره ۱۰۰ هزار تومن
#حمایت_از _کودکان
برای تهیه این مجموعه با ایدی
@RaminMousa
در ارتباط باشید.
مدرس جلسات رامین موسی 🎬🎬
👍1
Machine learning books and papers pinned «با عرض سلام جهت کمک به کودکان بی بضاعت تصمیم بر این شد که از این به بعد تمامی هزینه های فروش دوره یادگیری ماشین و پایتون صرف خرید#لوازم_تحریر شود. #تعداد_فروش و #اقلام_تهیه شده از طریق همین کانال اعلام میشود. مجموعه آموزشی #یادگیری_ماشین و پایتون به زبان…»