Forwarded from زانکو (Javad Amirian)
کتابخانه PyTorch نسخه 2.0 معرفی شده و فعلا نسخهی unstable منتشر شده. به گفتهی Yann Lecun یکی از مهمترین تغییرات ارائه شده امکان کامپایل کردن شبکههاست که ادعا شده میتونه سرعت مدلها رو بین 38-76% افزایش بده.
www.linkedin.com/posts/yann-lecun_pytorchconference-activity-7004476955819470849-86ip
@zankoo_ai
www.linkedin.com/posts/yann-lecun_pytorchconference-activity-7004476955819470849-86ip
@zankoo_ai
Linkedin
Yann LeCun on LinkedIn: PyTorch 2.0 is announced!
Main new feature:
cmodel =… | 54 comments
Main new feature:
cmodel =… | 54 comments
PyTorch 2.0 is announced!
Main new feature:
cmodel = torch.compile(model)
Faster training with no code modification.
Available in nightly build.
Stable… | 54 comments on LinkedIn
Main new feature:
cmodel = torch.compile(model)
Faster training with no code modification.
Available in nightly build.
Stable… | 54 comments on LinkedIn
در مورد کاربردهای #gpt_3 بسیار گفتهایم. یکی دیگر از موارد استفاده کاربردی و جالباش را میتوانید اینجا ملاحظه کنید.
#nlp #nlu
@ml_nlp_cv
#nlp #nlu
@ml_nlp_cv
Forwarded from Meysam
There is a claim that #ChatGPT is capable of writing a code based on a text input
Why does it matter: it potentially can lower the barrier for programmers and allow more tools for efficient software development to emerge.
Source: tweet
#GPT_3 #NLU #NLP #codegeneration
@ml_nlp_cv
Why does it matter: it potentially can lower the barrier for programmers and allow more tools for efficient software development to emerge.
Source: tweet
#GPT_3 #NLU #NLP #codegeneration
@ml_nlp_cv
For your next Google search, use this ChatGPT Google Chrome Extension.
✅ Found this Chatgpt extension few days back while browsing extensions for Chrome. I have since installed it and used it for Google searches.
https://chrome.google.com/webstore/detail/chatgpt-for-google/jgjaeacdkonaoafenlfkkkmbaopkbilf/related
✅ Found this Chatgpt extension few days back while browsing extensions for Chrome. I have since installed it and used it for Google searches.
https://chrome.google.com/webstore/detail/chatgpt-for-google/jgjaeacdkonaoafenlfkkkmbaopkbilf/related
Google
ChatGPT for Google - Chrome Web Store
Display ChatGPT response alongside search engine results
Forwarded from زانکو (Javad Amirian)
ایده اخیر Geoffrey Hinton برای شبکههای عمیق و پیشنهاد جایگزین کردن الگوریتم Forward Forward به جای backpropagation
این ایده اولین بار در حین سخنرانی امسال ایشون در کنفرانس #NeurIPS2022 مطرح شد. احتمال داره FF انقلاب جدیدی در زمینه یادگیری عمیق ایجاد کنه. دسترسی به این مقاله در سایت دانشگاه تورنتو
ضمنا قبل از این سخنرانی و در همین دوره از کنفرانس، هینتون و شاگردانش جایزهی Test of Time (این جایزه به یک مقاله مربوط به 10 سال پیش تعلق میگیره که گذر زمان بازگوکننده تاثیرگذریاش بوده) را هم به خاطر مقاله معروفشون یعنی ImageNet دریافت کرده بودند.
@ml_nlp_cv
این ایده اولین بار در حین سخنرانی امسال ایشون در کنفرانس #NeurIPS2022 مطرح شد. احتمال داره FF انقلاب جدیدی در زمینه یادگیری عمیق ایجاد کنه. دسترسی به این مقاله در سایت دانشگاه تورنتو
ضمنا قبل از این سخنرانی و در همین دوره از کنفرانس، هینتون و شاگردانش جایزهی Test of Time (این جایزه به یک مقاله مربوط به 10 سال پیش تعلق میگیره که گذر زمان بازگوکننده تاثیرگذریاش بوده) را هم به خاطر مقاله معروفشون یعنی ImageNet دریافت کرده بودند.
@ml_nlp_cv
Forwarded from NLP stuff
یادگیری قلقهای ریسرچ هوش با کورس CS197 هاروارد
عموما اگر هم صنعت و هم آکادمی را تجربه کرده باشید این تفاوت را مشاهده کردهاید که به نظر فضای صنعت فضای سرراستتری است و روند آغاز تا انجام یک تسک یا پروژه بسیار شفافتر و آشناتر است تا روند اجرای یک پژوهش در آکادمی. به علاوه در فضای صنعت نیروها به علت پیشزمینه مهندسی که دارند آشنا به رعایت یکسری قواعد و الگووارههایی هستند، حال آن که این قواعد و الگوها در سمت ریسرچ به صورت مدونی وجود ندارد. حال آقای Rajpurkar استادیار دانشگاه هاروارد آمده و یک کتاب الکترونیکی از درسی که تحت عنوان "تجربیات پژوهشی هوش مصنوعی"در هاروارد ارائه کرده، منتشر کرده است. در این کتاب راجع به مباحثی همچون استفاده درست و موثر از python و pytorch و lightning و HF و streamlite و vscode و git و ... توضیحات خوبی داده شده است. اما این کل ماجرا نیست، بلکه کتاب در ادامه صحبت کرده که چگونه میتوان به صورت سیستماتیک مقالات را خواند، ایدههای جدید زد، یک مقاله را ساختاربندی و منتشر کرد و اسلایدهای باکیفیتی ساخت. اما باز هم این تمام ماجرا نیست و راجپورکار برایمان راجع به نحوه مدیریت زمان و انرژیمان و همچنین نحوه مدیریت تعاملاتمان با استاد راهنما و یا سایر اعضای تیم نیز توضیح داده است. این منبع عالی را از دست نباید داد.
لینک کتاب:
https://docs.google.com/document/d/1uvAbEhbgS_M-uDMTzmOWRlYxqCkogKRXdbKYYT98ooc
#link
#coach
#course
@nlp_stuff
عموما اگر هم صنعت و هم آکادمی را تجربه کرده باشید این تفاوت را مشاهده کردهاید که به نظر فضای صنعت فضای سرراستتری است و روند آغاز تا انجام یک تسک یا پروژه بسیار شفافتر و آشناتر است تا روند اجرای یک پژوهش در آکادمی. به علاوه در فضای صنعت نیروها به علت پیشزمینه مهندسی که دارند آشنا به رعایت یکسری قواعد و الگووارههایی هستند، حال آن که این قواعد و الگوها در سمت ریسرچ به صورت مدونی وجود ندارد. حال آقای Rajpurkar استادیار دانشگاه هاروارد آمده و یک کتاب الکترونیکی از درسی که تحت عنوان "تجربیات پژوهشی هوش مصنوعی"در هاروارد ارائه کرده، منتشر کرده است. در این کتاب راجع به مباحثی همچون استفاده درست و موثر از python و pytorch و lightning و HF و streamlite و vscode و git و ... توضیحات خوبی داده شده است. اما این کل ماجرا نیست، بلکه کتاب در ادامه صحبت کرده که چگونه میتوان به صورت سیستماتیک مقالات را خواند، ایدههای جدید زد، یک مقاله را ساختاربندی و منتشر کرد و اسلایدهای باکیفیتی ساخت. اما باز هم این تمام ماجرا نیست و راجپورکار برایمان راجع به نحوه مدیریت زمان و انرژیمان و همچنین نحوه مدیریت تعاملاتمان با استاد راهنما و یا سایر اعضای تیم نیز توضیح داده است. این منبع عالی را از دست نباید داد.
لینک کتاب:
https://docs.google.com/document/d/1uvAbEhbgS_M-uDMTzmOWRlYxqCkogKRXdbKYYT98ooc
#link
#coach
#course
@nlp_stuff
Google Docs
Harvard CS197: AI Research Experiences – The Course Book
The Course Book Harvard CS197 AI Research Experiences GPT-3 · Large Language Models · VSCode · Git · Conda · Debugging · Linting · Reading AI papers · Literature Search · Hugging Face · Lightning · Vision Transformer · PyTorch · Autograd · Experiment Organization…
Transformer models: an introduction and catalog
کاتالوگی ساده و کامل از مقایسه و طبقهبندی محبوبترین مدلهای ترنسفورمر
جدول: https://docs.google.com/spreadsheets/d/1ltyrAB6BL29cOv2fSpNQnnq2vbX8UrHl47d7FkIf6t4/
@ml_nlp_cv
کاتالوگی ساده و کامل از مقایسه و طبقهبندی محبوبترین مدلهای ترنسفورمر
جدول: https://docs.google.com/spreadsheets/d/1ltyrAB6BL29cOv2fSpNQnnq2vbX8UrHl47d7FkIf6t4/
@ml_nlp_cv
Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models
ChatGPT is a language interface with distinctive conversational competency and reasoning capabilities across many domains. However, it is currently unable to process or generate images from the visual world. To address this limitation, the authors propose a system called Visual ChatGPT that incorporates different Visual Foundation Models to enable users to interact with ChatGPT using both language and images. The system is capable of handling complex visual questions or instructions that require multiple AI models and steps. Additionally, it allows for feedback and corrections.
Rather than creating a new multimodal ChatGPT from scratch, the authors propose building Visual ChatGPT by incorporating various (22) Visual Foundation Models (VFMs) directly into ChatGPT. To facilitate the integration of these VFMs, the authors introduce a Prompt Manager that supports several functions. These include specifying the input-output formats of each VFM, converting visual information to language format, and managing the histories, priorities, and conflicts of different VFMs. With the Prompt Manager's help, ChatGPT can use these VFMs iteratively and receive their feedback until it satisfies the users' requirements or reaches the end condition.
Paper: https://arxiv.org/abs/2303.04671
Code link: https://github.com/microsoft/visual-chatgpt
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-palme
@ml_nlp_cv
ChatGPT is a language interface with distinctive conversational competency and reasoning capabilities across many domains. However, it is currently unable to process or generate images from the visual world. To address this limitation, the authors propose a system called Visual ChatGPT that incorporates different Visual Foundation Models to enable users to interact with ChatGPT using both language and images. The system is capable of handling complex visual questions or instructions that require multiple AI models and steps. Additionally, it allows for feedback and corrections.
Rather than creating a new multimodal ChatGPT from scratch, the authors propose building Visual ChatGPT by incorporating various (22) Visual Foundation Models (VFMs) directly into ChatGPT. To facilitate the integration of these VFMs, the authors introduce a Prompt Manager that supports several functions. These include specifying the input-output formats of each VFM, converting visual information to language format, and managing the histories, priorities, and conflicts of different VFMs. With the Prompt Manager's help, ChatGPT can use these VFMs iteratively and receive their feedback until it satisfies the users' requirements or reaches the end condition.
Paper: https://arxiv.org/abs/2303.04671
Code link: https://github.com/microsoft/visual-chatgpt
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-palme
@ml_nlp_cv
Count anything
An empirical study on few-shot counting using 'segment anything' (SAM)
Github: https://github.com/vision-intelligence-and-robots-group/count-anything
Paper: https://arxiv.org/abs/2304.10817v1
Hugging face: https://huggingface.co/spaces/nebula/counting-anything
Dataset: https://drive.google.com/file/d/1ymDYrGs9DSRicfZbSCDiOu0ikGDh5k6S/view?usp=sharing
@ml_nlp_cv
An empirical study on few-shot counting using 'segment anything' (SAM)
Github: https://github.com/vision-intelligence-and-robots-group/count-anything
Paper: https://arxiv.org/abs/2304.10817v1
Hugging face: https://huggingface.co/spaces/nebula/counting-anything
Dataset: https://drive.google.com/file/d/1ymDYrGs9DSRicfZbSCDiOu0ikGDh5k6S/view?usp=sharing
@ml_nlp_cv
کورس جدید دانشگاه استنفورد:
Stanford CS330: Deep Multi-Task and Meta Learning.
برنامه و محتوای کلاس در این لینک:
https://cs330.stanford.edu/
مشاهده ویدیوی جلسات برگزار شده
@ml_nlp_cv
Stanford CS330: Deep Multi-Task and Meta Learning.
برنامه و محتوای کلاس در این لینک:
https://cs330.stanford.edu/
مشاهده ویدیوی جلسات برگزار شده
@ml_nlp_cv
cs330.stanford.edu
CS 330 Deep Multi-Task and Meta Learning
Scaling Transformer to 1M tokens and beyond with RMT
Imagine extending the context length of BERT, one of the most effective Transformer-based models in natural language processing, to an unprecedented two million tokens! This technical report unveils the Recurrent Memory Transformer (RMT) architecture, which achieves this incredible feat while maintaining high memory retrieval accuracy.
The RMT approach enables storage and processing of both local and global information, allowing information flow between segments of the input sequence through recurrence. The experiments showcase the effectiveness of this groundbreaking method, with immense potential to enhance long-term dependency handling in natural language understanding and generation tasks, as well as enable large-scale context processing for memory-intensive applications.
Paper link: https://arxiv.org/abs/2304.11062
Code link: https://github.com/booydar/t5-experiments/tree/scaling-report
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-rmt-1m
@ml_nlp_cv
Imagine extending the context length of BERT, one of the most effective Transformer-based models in natural language processing, to an unprecedented two million tokens! This technical report unveils the Recurrent Memory Transformer (RMT) architecture, which achieves this incredible feat while maintaining high memory retrieval accuracy.
The RMT approach enables storage and processing of both local and global information, allowing information flow between segments of the input sequence through recurrence. The experiments showcase the effectiveness of this groundbreaking method, with immense potential to enhance long-term dependency handling in natural language understanding and generation tasks, as well as enable large-scale context processing for memory-intensive applications.
Paper link: https://arxiv.org/abs/2304.11062
Code link: https://github.com/booydar/t5-experiments/tree/scaling-report
A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-rmt-1m
@ml_nlp_cv
A Brief History of LLaMA Models
The #LLaMA base model was released in February 2023 , and since then, we've seen a flurry of new fine-tuned LLaMA models hit the scene. It's been an exciting time for natural language processing, so let's take a quick trip down memory lane and review some of the key developments.
✔️ The LLaMA base model
✔️ The Alpaca model
✔️ The Vicuna model
✔️ The Koala model
✔️ The GPT4-x-Alpaca model
✔️ The WizardLM model
✔️ The OpenAssistant model
✔️ Software to run LLaMA models locally
https://agi-sphere.com/llama-models/
@ml_nlp_cv
The #LLaMA base model was released in February 2023 , and since then, we've seen a flurry of new fine-tuned LLaMA models hit the scene. It's been an exciting time for natural language processing, so let's take a quick trip down memory lane and review some of the key developments.
✔️ The LLaMA base model
✔️ The Alpaca model
✔️ The Vicuna model
✔️ The Koala model
✔️ The GPT4-x-Alpaca model
✔️ The WizardLM model
✔️ The OpenAssistant model
✔️ Software to run LLaMA models locally
https://agi-sphere.com/llama-models/
@ml_nlp_cv
AGI Sphere
A brief history of LLaMA models - AGI Sphere
LLaMA (Large Language Model Meta AI) is a language model released by Meta (Facebook). It is Meta's answer to OpenAI's GPT models. The LLaMA base model was
Forwarded from انجمن علوم داده
This media is not supported in your browser
VIEW IN TELEGRAM
⭕️ تشخیص همزمان احساسات در ویدیو با استفاده از هوش مصنوعی (AI)
🔰 ویل اسمیت در این ویدیو بسیار سرد به نظر می رسد!
➕ آیا می توانیم فریب حالات چهره افراد را بخوریم؟
در انجمن علوم داده با ما همراه باشید 🌱
| @DataScience_Association |
🔰 ویل اسمیت در این ویدیو بسیار سرد به نظر می رسد!
➕ آیا می توانیم فریب حالات چهره افراد را بخوریم؟
در انجمن علوم داده با ما همراه باشید 🌱
| @DataScience_Association |
ابزارهای تولید محتوای متنی با هوش مصنوعی
· Openai.com/api
· Rytr.me
· Wiritersonic.com
· Anyword.com
· Simplified.com
· Deepstory.ai
· Bing
ابزار های تولید محتوای صوتی با هوش مصنوعی
· Avia.ai
· Ampermusic.com
· Infinitealbum.io
· Voicemaker.in
· Virtualspeech.com
ابزارهای تولید محتوای ویدئویی با هوش مصنوعی
· Veed.io
· Lumens.com
· Wave.video
· Runway
ابزارهای تولید موزیک بکگراند با هوش مصنوعی
· Aiva.ai
· Soundraw.io
تبدیل متن به عکس و ایجاد تصاویر با هوش مصنوعی
· Midjourney
· AI Picasso
· Craiyon
· Bing Image creator
· Dall.E
@ml_nlp_cv
· Openai.com/api
· Rytr.me
· Wiritersonic.com
· Anyword.com
· Simplified.com
· Deepstory.ai
· Bing
ابزار های تولید محتوای صوتی با هوش مصنوعی
· Avia.ai
· Ampermusic.com
· Infinitealbum.io
· Voicemaker.in
· Virtualspeech.com
ابزارهای تولید محتوای ویدئویی با هوش مصنوعی
· Veed.io
· Lumens.com
· Wave.video
· Runway
ابزارهای تولید موزیک بکگراند با هوش مصنوعی
· Aiva.ai
· Soundraw.io
تبدیل متن به عکس و ایجاد تصاویر با هوش مصنوعی
· Midjourney
· AI Picasso
· Craiyon
· Bing Image creator
· Dall.E
@ml_nlp_cv
Openai
API Platform
Our API platform offers our latest models and guides for safety best practices.
Forwarded from NLP stuff
مخزنی از مقالات کلیدی هوش/یادگیریماشین به ترتیب سال
آقای آمان چادها، اومدن و در این لینک لیستی کامل و جامع از مقالات کلیدی در حوزههای بینایی کامپیوتر و پردازش متن و صوت و سیستمهای توصیهگر و یادگیری مولتی مودال و ... رو به ترتیب سال گذاشتند. اما تمام هنر آمان آقا به این جا خلاصه نمیشه و ایشون چیزهای دیگه رو هم تو سایتشون قرار دادند که شامل یکسری لکچرنوتهای نیکو از کورسهای معروف، لکچرنوتهای راجع به کتابخانههای مربوط به کارهای هوش مصنوعی، لیستی از بلاگها و کورسها و یوتیوبهای دیدنی و خلاصه هر چیزی که مربوط به هوش میشه و باید خوند و دید، رو قرار دادند. قشنگ استفاده کنید و حظش رو ببرید.
لینک لیست مقالات:
aman.ai/papers
لینک سایت:
aman.ai
پینوشت: با دنبالکردن #coach میتونید منابع آموزشی معرفیشده رو بیابید.
#coach
#link
@nlp_stuff
آقای آمان چادها، اومدن و در این لینک لیستی کامل و جامع از مقالات کلیدی در حوزههای بینایی کامپیوتر و پردازش متن و صوت و سیستمهای توصیهگر و یادگیری مولتی مودال و ... رو به ترتیب سال گذاشتند. اما تمام هنر آمان آقا به این جا خلاصه نمیشه و ایشون چیزهای دیگه رو هم تو سایتشون قرار دادند که شامل یکسری لکچرنوتهای نیکو از کورسهای معروف، لکچرنوتهای راجع به کتابخانههای مربوط به کارهای هوش مصنوعی، لیستی از بلاگها و کورسها و یوتیوبهای دیدنی و خلاصه هر چیزی که مربوط به هوش میشه و باید خوند و دید، رو قرار دادند. قشنگ استفاده کنید و حظش رو ببرید.
لینک لیست مقالات:
aman.ai/papers
لینک سایت:
aman.ai
پینوشت: با دنبالکردن #coach میتونید منابع آموزشی معرفیشده رو بیابید.
#coach
#link
@nlp_stuff