مصاحبه با برندگان جایزهی تورینگ ۲۰۱۸ (Hinton ،LeCun و Bengio). نکتهی جالب این مصاحبهها این است که به بریدههایی از زندگی این افراد از زمان کودکی تا بزرگسالی آنها پرداخته شده است.
https://www.youtube.com/watch?v=z9Fz96Mr4bM
https://www.youtube.com/watch?v=oUa8Jk04tZQ
https://www.youtube.com/watch?v=PHhFI8JexLg
https://www.youtube.com/watch?v=z9Fz96Mr4bM
https://www.youtube.com/watch?v=oUa8Jk04tZQ
https://www.youtube.com/watch?v=PHhFI8JexLg
YouTube
HLF Laureate Portraits: Geoffrey E. Hinton
The Heidelberg Laureate Forum Foundation presents the HLF Laureate Portraits: Geoffrey E. Hinton; ACM A.M. Turing Award, 2018.
Interview recorded in 2020.
In this series, join us as we meet with the top mathematicians and computer scientists – recipients…
Interview recorded in 2020.
In this series, join us as we meet with the top mathematicians and computer scientists – recipients…
بریدهای از مصاحبه با پروفسور بنجیو (دقیقهی ۴۴:۴۳ تا ۴۷:۱۰). توجه کنید که این یک ترجمهی کلمه به کلمه از مصاحبه نیست.
سوال: آیا این درست است که ما هنوز ماشینی با سطح هوش یک بچهی دوساله نداریم؟
پاسخ: این سوال از اینجا ناشی میشود که ما فکر میکنیم هوش در یک بُعد قابل سنجش است (مثل آیکیو). اگر من شما را الان در بدن یک موش قرار دهم شما بهزودی از گرسنگی میمیرید یا توسط اولین گربه خورده میشوید. آیا این به این معنی است که موش از شما باهوشتر است؟ خیر! او هوشی را دارد که برای حیات در دنیای خودش نیاز دارد و شما هوشی که برای حیات در دنیای خودتان نیاز دارید. بنابراین، او از ابعادی هوشمند است و شما از ابعادی دیگر. حتی انسانها هم در ابعاد مختلف هوشمند هستند. در مورد ماشین هم ما الان ماشینی داریم که میتواند در بعضی از بازیهای فکری (مثل گو) انسان را شکست دهد ولی در بسیاری دیگر از ابعاد از انسان به مراتب عقبتر است. البته محققین تلاش میکنند در ابعاد بیشتری سطح هوشمندی ماشین به انسان نزدیک شود و هیچ دلیل موجهی نداریم که ثابت کند ماشین نمیتواند در همهی ابعاد به هوشمندی انسان یا بیشتر دست پیدا کند.
https://www.youtube.com/watch?v=PHhFI8JexLg
سوال: آیا این درست است که ما هنوز ماشینی با سطح هوش یک بچهی دوساله نداریم؟
پاسخ: این سوال از اینجا ناشی میشود که ما فکر میکنیم هوش در یک بُعد قابل سنجش است (مثل آیکیو). اگر من شما را الان در بدن یک موش قرار دهم شما بهزودی از گرسنگی میمیرید یا توسط اولین گربه خورده میشوید. آیا این به این معنی است که موش از شما باهوشتر است؟ خیر! او هوشی را دارد که برای حیات در دنیای خودش نیاز دارد و شما هوشی که برای حیات در دنیای خودتان نیاز دارید. بنابراین، او از ابعادی هوشمند است و شما از ابعادی دیگر. حتی انسانها هم در ابعاد مختلف هوشمند هستند. در مورد ماشین هم ما الان ماشینی داریم که میتواند در بعضی از بازیهای فکری (مثل گو) انسان را شکست دهد ولی در بسیاری دیگر از ابعاد از انسان به مراتب عقبتر است. البته محققین تلاش میکنند در ابعاد بیشتری سطح هوشمندی ماشین به انسان نزدیک شود و هیچ دلیل موجهی نداریم که ثابت کند ماشین نمیتواند در همهی ابعاد به هوشمندی انسان یا بیشتر دست پیدا کند.
https://www.youtube.com/watch?v=PHhFI8JexLg
YouTube
HLF Laureate Portraits: Yoshua Bengio
The Heidelberg Laureate Forum Foundation presents the HLF Laureate Portraits: Yoshua Bengio; ACM A.M. Turing Award, 2018.
Interview recorded in 2020.
In this series, join us as we meet with the top mathematicians and computer scientists – recipients of…
Interview recorded in 2020.
In this series, join us as we meet with the top mathematicians and computer scientists – recipients of…
معماری transformer که در مقالهای با عنوان attention is all you need در سال ۲۰۱۷ معرفی شد، یکی از مدلهای بسیار موفق در پردازش زبانهای طبیعی بوده است. بعنوان مثال، BERT یکی از کاربردهای transformer بود که در تعداد زیادی از وظایف پردازش زبان دقتهای مدلهای پیشین را بهبود بخشید. با این وجود، آموزش transformerها برروی دنبالههای بزرگ از لحاظ پیچیدگی محاسباتی و حافظهی مورد نیاز بسیار پرهزینه است. اخیرا گوگل یک مدل جدید به نام reformer معرفی کرده است که نسبت به transformer از لحاظ سرعت و حافظه بسیار کاراتر است. مقالهی reformer در لینک زیر قابل دریافت است:
https://arxiv.org/pdf/2001.04451.pdf
پست مربوطه را در بلاگ هوش مصنوعی گوگل میتوانید در لینک زیر مشاهده نمایید:
https://ai.googleblog.com/2020/01/reformer-efficient-transformer.html
و در لینک زیر نیز میتوانید یک اجرا از این مدل برای وظیفهی تولید متون طبیعی پس از پردازش کتاب “جنایت و مکافات” داشته باشید:
https://colab.research.google.com/github/google/trax/blob/master/trax/models/reformer/text_generation.ipynb
https://arxiv.org/pdf/2001.04451.pdf
پست مربوطه را در بلاگ هوش مصنوعی گوگل میتوانید در لینک زیر مشاهده نمایید:
https://ai.googleblog.com/2020/01/reformer-efficient-transformer.html
و در لینک زیر نیز میتوانید یک اجرا از این مدل برای وظیفهی تولید متون طبیعی پس از پردازش کتاب “جنایت و مکافات” داشته باشید:
https://colab.research.google.com/github/google/trax/blob/master/trax/models/reformer/text_generation.ipynb
research.google
Reformer: The Efficient Transformer
Posted by Nikita Kitaev, Student Researcher, UC Berkeley and Łukasz Kaiser, Research Scientist, Google Research Understanding sequential data — s...
برای محققینی که در حوزهی یادگیری ماشین فعالیت میکنند، مقایسهی توانایی ماشین در یادگیری با رقیب سرسخت ماشینها یعنی انسانها نه تنها جذاب بلکه الهامبخش است. یکی از بهترین منابعی که در سال ۲۰۲۰ منتشر شده و به این موضوع میپردازد کتاب زیر است. نویسندهی این کتاب، آقای استانیسلاس دوآن از نظریهپردازان سرشناس جهان در حوزهی روانشناسی و علوم اعصاب شناختی است که با آشنایی با حوزهی یادگیری ماشین و تسلط بر حوزهی یادگیری انسان به خوبی به مقایسهی یادگیری ماشین و انسان پرداخته است.
دو فایل پیدیاف زیر، دو اسلاید از کورس مرتبط با پردازش زبانهای طبیعی ارائه شده در دانشگاه نیویورک در ترم جاری است.
موضوع اسلایدها این است: اگر میخواهید یک مقالهی تاثیرگذار در حوزهی پردازش زبانهای طبیعی منتشر کنید، مهندسی فقط نیمی از کار است. نیمهی دیگر شامل مواردی از جمله یافتن و مرور کارهای پیشین، طراحی آزمایشهای موثر و تحلیل نتایج، مسائل اخلاقی و نگارش و انتشار مقاله است که در این دو اسلاید به آنها پرداخته شده است.
موضوع اسلایدها این است: اگر میخواهید یک مقالهی تاثیرگذار در حوزهی پردازش زبانهای طبیعی منتشر کنید، مهندسی فقط نیمی از کار است. نیمهی دیگر شامل مواردی از جمله یافتن و مرور کارهای پیشین، طراحی آزمایشهای موثر و تحلیل نتایج، مسائل اخلاقی و نگارش و انتشار مقاله است که در این دو اسلاید به آنها پرداخته شده است.
مدل GPT-3 بعنوان جدیدترین مدل زبانی ارائه شده ۱۷۵ میلیارد پارامتر دارد. برای اینکه به حجم این تعداد پارامتر پی ببرید توجه کنید که نسخهی Large مدل معروف BERT دارای ۳۴۰ میلیون پارامتر است، یعنی کمتر از ۰.۲ درصد پارامترهای GPT-3.
نکتهی جالب مقالهی GPT-3 که در عنوان مقاله نیز به آن اشاره شده است
(Language Models are Few-Shot Learners)
این است که نشان دادهاند بدون نیاز به اصلاح کردن وزنهای موجود در GPT-3 میتوان این مدل را برای بسیاری از مسائل پردازش زبان طبیعی مورد استفاده قرار داد. فقط کافی است به GPT-3 متنی بدهید که شامل تعریف مسئله و چند نمونهی پاسخدار از آن مسئله به همراه ورودی مورد نظر باشد، و مدل زبانی با تکمیل کردن آن متن میتواند خروجیای برای آن ورودی ارائه دهد. بعنوان مثال، برای ترجمهی یک جملهی فارسی به انگلیسی کافی است به GPT-3 بعنوان ورودی متن زیر را وارد کنید (بدون نیاز به اصلاح وزنهای آن براساس نمونههای آموزشی):
Translation Persian to English
جملهی نمونهی اول به فارسی => ترجمهی جملهی اول به انگلیسی
جملهی نمونهی دوم به فارسی => ترجمهی جملهی دوم به انگلیسی
جملهی نمونهی آخر به فارسی => ترجمهی جملهی آخر به انگلیسی
جملهای که به دنبال ترجمهی آن هستیم =>
در اینصورت، مدل GPT-3 با تکمیل متن فوق، ترجمهی جملهی آخر را تحویل میدهد. دقتهای گزارش شده در مقاله برای تعدادی از مسائل پردازش زبان طبیعی نزدیک مدلهایی است که بطور خاص منظوره برای آن وظایف آموزش داده شدهاند.
برای یک مرور انتقادی بر مقاله، ویدئوی زیر را مشاهده کنید:
https://www.youtube.com/watch?v=SY5PvZrJhLE
نکتهی جالب مقالهی GPT-3 که در عنوان مقاله نیز به آن اشاره شده است
(Language Models are Few-Shot Learners)
این است که نشان دادهاند بدون نیاز به اصلاح کردن وزنهای موجود در GPT-3 میتوان این مدل را برای بسیاری از مسائل پردازش زبان طبیعی مورد استفاده قرار داد. فقط کافی است به GPT-3 متنی بدهید که شامل تعریف مسئله و چند نمونهی پاسخدار از آن مسئله به همراه ورودی مورد نظر باشد، و مدل زبانی با تکمیل کردن آن متن میتواند خروجیای برای آن ورودی ارائه دهد. بعنوان مثال، برای ترجمهی یک جملهی فارسی به انگلیسی کافی است به GPT-3 بعنوان ورودی متن زیر را وارد کنید (بدون نیاز به اصلاح وزنهای آن براساس نمونههای آموزشی):
Translation Persian to English
جملهی نمونهی اول به فارسی => ترجمهی جملهی اول به انگلیسی
جملهی نمونهی دوم به فارسی => ترجمهی جملهی دوم به انگلیسی
جملهی نمونهی آخر به فارسی => ترجمهی جملهی آخر به انگلیسی
جملهای که به دنبال ترجمهی آن هستیم =>
در اینصورت، مدل GPT-3 با تکمیل متن فوق، ترجمهی جملهی آخر را تحویل میدهد. دقتهای گزارش شده در مقاله برای تعدادی از مسائل پردازش زبان طبیعی نزدیک مدلهایی است که بطور خاص منظوره برای آن وظایف آموزش داده شدهاند.
برای یک مرور انتقادی بر مقاله، ویدئوی زیر را مشاهده کنید:
https://www.youtube.com/watch?v=SY5PvZrJhLE
YouTube
GPT-3: Language Models are Few-Shot Learners (Paper Explained)
#gpt3 #openai #gpt-3
How far can you go with ONLY language modeling? Can a large enough language model perform NLP task out of the box? OpenAI take on these and other questions by training a transformer that is an order of magnitude larger than anything…
How far can you go with ONLY language modeling? Can a large enough language model perform NLP task out of the box? OpenAI take on these and other questions by training a transformer that is an order of magnitude larger than anything…
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
خواندن و حل سودوکو توسط هوش مصنوعی
مجموعه دادهی فارستیل (FarsTail) بعنوان اولین مجموعه دادهی فارسی برای مسئلهی استنتاج زبانی با بیش از ۱۰۰۰۰ نمونه در قالب یک پروژه ۲ ساله توسط یک تیم ۶ نفره در آزمایشگاه دادهکاوی و یادگیری ماشین دانشگاه قم تهیه شده است. برای اطمینان از کیفیت فارستیل، مراحل تهیهی داده براساس مجموعه دادههای معتبر بینالمللی (مانند SciTail) انجام شده و چند مرحله پاکسازی و برچسبزنی مجدد صورت پذیرفته است.
مقاله در آرکایو:
https://arxiv.org/pdf/2009.08820.pdf
لینک در paperswithcode:
https://paperswithcode.com/sota/natural-language-inference-on-farstail
دانلود داده برای کارهای غیرتجاری:
https://github.com/dml-qom/FarsTail
مقاله در آرکایو:
https://arxiv.org/pdf/2009.08820.pdf
لینک در paperswithcode:
https://paperswithcode.com/sota/natural-language-inference-on-farstail
دانلود داده برای کارهای غیرتجاری:
https://github.com/dml-qom/FarsTail
Paperswithcode
Papers with Code - FarsTail Benchmark (Natural Language Inference)
The current state-of-the-art on FarsTail is mBERT. See a full comparison of 10 papers with code.
مجموعه دادههای پردازش زبان فارسی:
وبسایتی برای ساماندهی مجموعههای موجود:
https://nlpdataset.ir
مجموعهی ParsiNLU شامل شش وظیفهی مختلف:
https://github.com/persiannlp/parsinlu
وبسایتی برای ساماندهی مجموعههای موجود:
https://nlpdataset.ir
مجموعهی ParsiNLU شامل شش وظیفهی مختلف:
https://github.com/persiannlp/parsinlu
GitHub
GitHub - persiannlp/parsinlu: A comprehensive suite of high-level NLP tasks for Persian language
A comprehensive suite of high-level NLP tasks for Persian language - persiannlp/parsinlu