#language_modeling #named_entity_recognition #part_of_speech_tagging #text_classification #pytorch
BERTweet: A pre-trained language model for English Tweets
We present BERTweet, the first public large-scale pre-trained language model for English Tweets.
20 May 2020
Github Star: 68 (0.90 stars/hour)
Paper | Code
@pytorch_howsam
#instance_segmentation #panoptic_segmentation #pytorch
EfficientPS: Efficient Panoptic Segmentation
Understanding the scene in which an autonomous robot operates is critical for its competent functioning.
5 Apr 2020
Gihub Star: 124 (0.61 stars/hour)
Paper | Code
@pytorch_howsam
INT8 Quantization for x86 CPU in #PyTorch
Looking to speed up deep learning inference on x86 CPU ?
در معماری x86، پردازندهها به طور پیشفرض از فرمتهای داده با دقت بالاتر استفاده میکنند که باعث مصرف بیشتر منابع سختافزاری و کاهش کارایی میشود.
اما با استفاده از کوانتیزیشن INT8، میتوان دقت دادهها را به 8 بیت تقلیل داده و در عوض سرعت اجرای مدلها را افزایش داد.
این کار به ویژه برای برنامهها و سناریوهایی که نیاز به پردازش سریع تصاویر، صدا یا دادههای مشابه دارند، مفید است.
Looking to speed up deep learning inference on x86 CPU ?
در معماری x86، پردازندهها به طور پیشفرض از فرمتهای داده با دقت بالاتر استفاده میکنند که باعث مصرف بیشتر منابع سختافزاری و کاهش کارایی میشود.
اما با استفاده از کوانتیزیشن INT8، میتوان دقت دادهها را به 8 بیت تقلیل داده و در عوض سرعت اجرای مدلها را افزایش داد.
این کار به ویژه برای برنامهها و سناریوهایی که نیاز به پردازش سریع تصاویر، صدا یا دادههای مشابه دارند، مفید است.