PyTorch Howsam
3.25K subscribers
369 photos
48 videos
6 files
507 links
از هوش مصنوعی میگیم...

ارتباط با ادمین
@howsam_support
Download Telegram

#language_modeling #named_entity_recognition #part_of_speech_tagging #text_classification #pytorch

BERTweet: A pre-trained language model for English Tweets

We present BERTweet, the first public large-scale pre-trained language model for English Tweets.

20 May 2020

Github Star: 68 (0.90 stars/hour)

Paper | Code

@pytorch_howsam

#instance_segmentation #panoptic_segmentation #pytorch

EfficientPS: Efficient Panoptic Segmentation

Understanding the scene in which an autonomous robot operates is critical for its competent functioning.

5 Apr 2020

Gihub Star: 124 (0.61 stars/hour)

Paper | Code

@pytorch_howsam
INT8 Quantization for x86 CPU in #PyTorch

Looking to speed up deep learning inference on x86 CPU ?

در معماری x86، پردازنده‌ها به طور پیش‌فرض از فرمت‌های داده با دقت بالاتر استفاده می‌کنند که باعث مصرف بیشتر منابع سخت‌افزاری و کاهش کارایی می‌شود.

اما با استفاده از کوانتیزیشن INT8، می‌توان دقت داده‌ها را به 8 بیت تقلیل داده و در عوض سرعت اجرای مدل‌ها را افزایش داد.

این کار به ویژه برای برنامه‌ها و سناریوهایی که نیاز به پردازش سریع تصاویر، صدا یا داده‌های مشابه دارند، مفید است.