Forwarded from Meysam
مدل اوپن سورس جایگزین کوپایلت، کلی زبان برنامه نویسی هم بلده:
https://huggingface.co/blog/starcoder
https://huggingface.co/blog/starcoder
👍3👎1
سوال در مورد یادگیری عمیق داشتید اینجا بپرسید:
https://t.iss.one/DeepLearningAIExperts
در مورد پردازش زبان طبیعی هم اینجا:
https://t.iss.one/NLPExperts
مستقیم سوالتون رو بپرسید و از سوالاتی مثل:
کسی یادگیری عمیق بلده؟
جواب: نه ده هزار نفر الکی دور هم جمع شدند. گروه آنلی فنز هستش!
کسی پردازش زبان میدونه؟
جواب: همون بالایی.
کسی میدونه فلان چیز رو؟ سوال داشتم آخه!
جواب: 😐
https://t.iss.one/DeepLearningAIExperts
در مورد پردازش زبان طبیعی هم اینجا:
https://t.iss.one/NLPExperts
مستقیم سوالتون رو بپرسید و از سوالاتی مثل:
کسی یادگیری عمیق بلده؟
جواب: نه ده هزار نفر الکی دور هم جمع شدند. گروه آنلی فنز هستش!
کسی پردازش زبان میدونه؟
جواب: همون بالایی.
کسی میدونه فلان چیز رو؟ سوال داشتم آخه!
جواب: 😐
🥰2👌2
هاگینگ فیس برای موتور بازی سازی یونیتی api داده که از طریقش میتونید یک سری تسکهای پردازش زبان و تصویر رو انجام بدید.
مخصوصا برای وقتی که داخل بازی نیاز دارید به این چیزها.
https://huggingface.co/blog/unity-api
مخصوصا برای وقتی که داخل بازی نیاز دارید به این چیزها.
https://huggingface.co/blog/unity-api
👍1
Forwarded from SKH
📢 دریافت داده از شبکه های اجتماعی را به ما بسپارید 📢
✅ توییتر :
🔰سرچ کوئری،
🔰توییت های یک حساب کاربری،
🔰کامنت های یک پست،
🔰افراد ریتوییت کننده پست،
🔰افراد لایک کننده پست
✅ اینستاگرام :
🔰سرچ کوئری،
🔰پست های یک حساب کاربری،
🔰کامنت های یک پست،
🔰افراد لایک کننده یک پست
📌 نمونه داده های دریافت شده را میتوانید در ریپوی زیر مشاهده بفرمایید.
🌐 : https://github.com/sajad-git/Twitter-Instagram-Crawler
📎جهت دریافت اطلاعات بیشتر و ثبت درخواست به اکانت زیر پیام دهید.
🆔 : @ticra_admin
✅ توییتر :
🔰سرچ کوئری،
🔰توییت های یک حساب کاربری،
🔰کامنت های یک پست،
🔰افراد ریتوییت کننده پست،
🔰افراد لایک کننده پست
✅ اینستاگرام :
🔰سرچ کوئری،
🔰پست های یک حساب کاربری،
🔰کامنت های یک پست،
🔰افراد لایک کننده یک پست
📌 نمونه داده های دریافت شده را میتوانید در ریپوی زیر مشاهده بفرمایید.
🌐 : https://github.com/sajad-git/Twitter-Instagram-Crawler
📎جهت دریافت اطلاعات بیشتر و ثبت درخواست به اکانت زیر پیام دهید.
🆔 : @ticra_admin
👍1🥰1
Forwarded from Meysam
مقاله خوبیه وقت کردید یه نگاه بکنید به آینده شبکه های عصبی کوانتومی:
https://arxiv.org/pdf/2206.03066.pdf
https://arxiv.org/pdf/2206.03066.pdf
👍5
امروز با یک سرویس باحال آشنا شدم، گفتم به شما هم معرفیش کنم. فرضا یه ویدیو زبان اصلی دارید مثل این:
youtu.be/HwRAaywZXAQ
کافیه برید اینجا
neurodub.ai
لینکش رو بدید! تا اونو به زبان فارسی، ترجمه، دوبله و صدا گذاری بکنه!
#خبر #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
youtu.be/HwRAaywZXAQ
کافیه برید اینجا
neurodub.ai
لینکش رو بدید! تا اونو به زبان فارسی، ترجمه، دوبله و صدا گذاری بکنه!
#خبر #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔥6👍2
چندتا سایت مفید
1. fliki.ai
Blog to video in 2 minutes with realistic voice.
2. hoppycopy.co
Write emails 10x faster for marketing, newsletter, etc.
3. magify.design
Text to Figma design files – with code.
1. fliki.ai
Blog to video in 2 minutes with realistic voice.
2. hoppycopy.co
Write emails 10x faster for marketing, newsletter, etc.
3. magify.design
Text to Figma design files – with code.
👍4
اومدن گفتن با هوش مصنوعی (GPT4) میشه در واقع رفتار نورونها رو به زبان طبیعی توضیح داد.
این یکی از بزرگترین کارهایی هست که تو هوش مصنوعی مخصوصا explainable AI انجام شده.
هرچی دستتونه بزارید زمین اینو بخونید:
https://openai.com/research/language-models-can-explain-neurons-in-language-models
شبیه سازی رفتار نورن ها هم بخشی از کارهایی بود که انجام دادند.
این یکی از بزرگترین کارهایی هست که تو هوش مصنوعی مخصوصا explainable AI انجام شده.
هرچی دستتونه بزارید زمین اینو بخونید:
https://openai.com/research/language-models-can-explain-neurons-in-language-models
شبیه سازی رفتار نورن ها هم بخشی از کارهایی بود که انجام دادند.
👍7❤3👎1
کم کم مدلها دارن به صورت اوپن سورس منتشر میشن مدل PaLM
https://github.com/conceptofmind/PaLM
https://github.com/conceptofmind/PaLM
GitHub
GitHub - conceptofmind/PaLM: An open-source implementation of Google's PaLM models
An open-source implementation of Google's PaLM models - conceptofmind/PaLM
ورژن دوم مدل palm گوگل منتشر شد
PaLM 2 is here!
A few exciting highlights:
1/ Used for state-of-the-art models like Med-PaLM2 and integrated into AI features and tools like Bard and the PaLM API.
2/ Lots of evaluations in the technical report for tasks like reasoning and coding. More results and discussion around scaling laws and instruction tuning.
3/ Excited to see such good and competitive performance in mathematical reasoning compared to GPT-4.
4/ Impressive performance by the instruction-tuned model, Flan-PaLM 2, on benchmarks like MMLU and BIG-bench Hard.
5/ A huge section on responsible AI is also included!
https://ai.google/discover/palm2
#مقاله #خبر
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
PaLM 2 is here!
A few exciting highlights:
1/ Used for state-of-the-art models like Med-PaLM2 and integrated into AI features and tools like Bard and the PaLM API.
2/ Lots of evaluations in the technical report for tasks like reasoning and coding. More results and discussion around scaling laws and instruction tuning.
3/ Excited to see such good and competitive performance in mathematical reasoning compared to GPT-4.
4/ Impressive performance by the instruction-tuned model, Flan-PaLM 2, on benchmarks like MMLU and BIG-bench Hard.
5/ A huge section on responsible AI is also included!
https://ai.google/discover/palm2
#مقاله #خبر
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍3
ده #ایده_جذاب در هفته ای ک گذشت:
1) scGPT: Towards Building a Foundation Model for Single-Cell Multi-omics Using Generative AI - a foundation large language model pretrained on 10 million cells for single-cell biology.
2) GPTutor: a ChatGPT-powered programming tool for code explanation - a ChatGPT-powered tool for code explanation provided as a VSCode extension; claims to deliver more concise and accurate explanations than vanilla ChatGPT and Copilot; performance and personalization enhanced via prompt engineering; programmed to use more relevant code in its prompts.
3) Shap-E: Generating Conditional 3D Implicit Functions - a conditional generative model for 3D assets; unlike previous 3D generative models, this model generates implicit functions that enable rendering textured meshes and neural radiance fields.
4) Are Emergent Abilities of Large Language Models a Mirage? - presents an alternative explanation to the emergent abilities of LLMs; suggests that existing claims are creations of the researcher’s analyses and not fundamental changes in model behavior on specific tasks with scale
5. Interpretable Machine Learning for Science with PySR and SymbolicRegression.jl - releases PySR, an open-source library for practical symbolic regression for the sciences; it’s built on a high-performance distributed back-end and interfaces with several deep learning packages; in addition, a new benchmark, “EmpiricalBench”, is released to quantify applicability of symbolic regression algorithms in science.
6) PMC-LLaMA: Further Finetuning LLaMA on Medical Papers - a LLaMA model fine-tuned on 4.8 million medical papers; enhances capabilities in the medical domain and achieves high performance on biomedical QA benchmarks.
7) Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes - a mechanism to extract rationales from LLMs to train smaller models that outperform larger language models with less training data needed by finetuning or distillation.
8) Poisoning Language Models During Instruction Tuning - show that adversaries can poison LLMs during instruction tuning by contributing poison examples to datasets; it can induce degenerate outputs across different held-out tasks.
9) Unlimiformer: Long-Range Transformers with Unlimited Length Input - proposes long-range transformers with unlimited length input by augmenting pre-trained encoder-decoder transformer with external datastore to support unlimited length input; shows usefulness in long-document summarization; could potentially be used to improve the performance of retrieval-enhanced LLMs.
10) Learning to Reason and Memorize with Self-Notes - an approach that enables LLMs to reason and memorize enabling them to deviate from the input sequence at any time to explicitly “think”; this enables the LM to recall information and perform reasoning on the fly; experiments show that this method scales better to longer sequences unseen during training.
#مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
1) scGPT: Towards Building a Foundation Model for Single-Cell Multi-omics Using Generative AI - a foundation large language model pretrained on 10 million cells for single-cell biology.
2) GPTutor: a ChatGPT-powered programming tool for code explanation - a ChatGPT-powered tool for code explanation provided as a VSCode extension; claims to deliver more concise and accurate explanations than vanilla ChatGPT and Copilot; performance and personalization enhanced via prompt engineering; programmed to use more relevant code in its prompts.
3) Shap-E: Generating Conditional 3D Implicit Functions - a conditional generative model for 3D assets; unlike previous 3D generative models, this model generates implicit functions that enable rendering textured meshes and neural radiance fields.
4) Are Emergent Abilities of Large Language Models a Mirage? - presents an alternative explanation to the emergent abilities of LLMs; suggests that existing claims are creations of the researcher’s analyses and not fundamental changes in model behavior on specific tasks with scale
5. Interpretable Machine Learning for Science with PySR and SymbolicRegression.jl - releases PySR, an open-source library for practical symbolic regression for the sciences; it’s built on a high-performance distributed back-end and interfaces with several deep learning packages; in addition, a new benchmark, “EmpiricalBench”, is released to quantify applicability of symbolic regression algorithms in science.
6) PMC-LLaMA: Further Finetuning LLaMA on Medical Papers - a LLaMA model fine-tuned on 4.8 million medical papers; enhances capabilities in the medical domain and achieves high performance on biomedical QA benchmarks.
7) Distilling Step-by-Step! Outperforming Larger Language Models with Less Training Data and Smaller Model Sizes - a mechanism to extract rationales from LLMs to train smaller models that outperform larger language models with less training data needed by finetuning or distillation.
8) Poisoning Language Models During Instruction Tuning - show that adversaries can poison LLMs during instruction tuning by contributing poison examples to datasets; it can induce degenerate outputs across different held-out tasks.
9) Unlimiformer: Long-Range Transformers with Unlimited Length Input - proposes long-range transformers with unlimited length input by augmenting pre-trained encoder-decoder transformer with external datastore to support unlimited length input; shows usefulness in long-document summarization; could potentially be used to improve the performance of retrieval-enhanced LLMs.
10) Learning to Reason and Memorize with Self-Notes - an approach that enables LLMs to reason and memorize enabling them to deviate from the input sequence at any time to explicitly “think”; this enables the LM to recall information and perform reasoning on the fly; experiments show that this method scales better to longer sequences unseen during training.
#مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍8👌1
DeepMind AI Expert
تا حالا شاید براتون سوال شده باشه که چرا در LLMsها Transformersها خوب کار میکنند در این تاک که توسط دکتر Felix Hill محقق DeepMind توضیح میده، که چطور معماری Transformers با مدلهای زبانی تطابق زیادی داره . https://www.youtube.com/watch?v=8zAP2qWAsKg&feature=youtu.be…
ورژن دوم مقاله ویرایش شده را منتشر کردند.
🔸 Attention Is All You Need
https://github.com/karpathy/nanoGPT
🔸 ورژن اول مقاله
#مقاله #ایده_جذاب #مبتدی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 Attention Is All You Need
https://github.com/karpathy/nanoGPT
🔸 ورژن اول مقاله
#مقاله #ایده_جذاب #مبتدی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍4👎1
انویدیا مدل زبانی ریلیز کرده که ۵۳ زبان ساپورت میکنه.
اگه فارسی کار میکنید به نظرم گزینه بهتری هست نسبت به بقیه:
GLU Variants Improve Transformer
https://arxiv.org/abs/2002.05202Ro
Former: Enhanced Transformer with Rotary Position EmbeddingMegatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism
https://arxiv.org/abs/1909.08053
https://huggingface.co/nvidia/GPT-2B-001
فارسی بین لیست زبانهاش هست. سایز مدل هم خیلی بزرگ نیست که نشه تیون کرد
#مقاله #ایده_جذاب #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
اگه فارسی کار میکنید به نظرم گزینه بهتری هست نسبت به بقیه:
GLU Variants Improve Transformer
https://arxiv.org/abs/2002.05202Ro
Former: Enhanced Transformer with Rotary Position EmbeddingMegatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism
https://arxiv.org/abs/1909.08053
https://huggingface.co/nvidia/GPT-2B-001
فارسی بین لیست زبانهاش هست. سایز مدل هم خیلی بزرگ نیست که نشه تیون کرد
#مقاله #ایده_جذاب #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
arXiv.org
Megatron-LM: Training Multi-Billion Parameter Language Models...
Recent work in language modeling demonstrates that training large transformer models advances the state of the art in Natural Language Processing applications. However, very large models can be...
❤3
MLOps is a high-leverage skill, it combines the principles of software engineering and data science.
Applied ML:
🔗 madewithml.com
MLOps Project:
🔗 tinyurl.com/zoomcar-camp
MLOps Book:
🔗 tinyurl.com/ml-system-desi…
The Jarvis of AI & MLOps:
🔗 abacus.ai
#منابع_پیشنهادی #الگوریتمها #هوش_مصنوعی #متوسط
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
Applied ML:
🔗 madewithml.com
MLOps Project:
🔗 tinyurl.com/zoomcar-camp
MLOps Book:
🔗 tinyurl.com/ml-system-desi…
The Jarvis of AI & MLOps:
🔗 abacus.ai
#منابع_پیشنهادی #الگوریتمها #هوش_مصنوعی #متوسط
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤3👍1
DeepMind AI Expert
در ادامه راجب مقاله زیر صحبت شده است و در پایان جوابی برای این صحبت یک مقاله معرفی کرده ام 🔸 SegGPT: Segmenting Everything In Context https://arxiv.org/abs/2304.03284 نکته دیگه مقاله مایکروسافت اینه که: نه تنها متن، نه تنها صوت، نه تنها نشانه، بلکه ترکیب…
در مقاله ای که قبلتر معرفی کردم و پاسخی به یک ایده جدیدی که توسط دکتر عسگری معرفی شد مقاله مشابه اونو معرفی کردم و حالا اومدن ایده قبلی رو گسترش دادند.
𝐓𝐢𝐫𝐞𝐝: pooling to get object-related features
𝐖𝐢𝐫𝐞𝐝: putting red circles or dots on input images
🔸 What does CLIP know about a red circle? Visual prompt engineering for VLMs
🔸 Deep RL at Scale: Sorting Waste in Office Buildings with a Fleet of Mobile Manipulators
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
𝐓𝐢𝐫𝐞𝐝: pooling to get object-related features
𝐖𝐢𝐫𝐞𝐝: putting red circles or dots on input images
🔸 What does CLIP know about a red circle? Visual prompt engineering for VLMs
🔸 Deep RL at Scale: Sorting Waste in Office Buildings with a Fleet of Mobile Manipulators
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍3
Visualize transformer attention!
AttentionViz, created by Catherine Yeh and expanded by Yida Chen, helps you explore transformer self-attention by visualizing query and key vectors in a joint embedding.
Paper: arxiv.org/abs/2305.03210
Website: attentionviz.com
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
AttentionViz, created by Catherine Yeh and expanded by Yida Chen, helps you explore transformer self-attention by visualizing query and key vectors in a joint embedding.
Paper: arxiv.org/abs/2305.03210
Website: attentionviz.com
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
😍6👍1🔥1
تا حالا براتون اگر سوال بوده که یادگیری عمیق را از کجا و چه منبع پایه یادبگیرید کدوم است این منبع رو پیشنهاد میدم/
▪️ Carnegie Mellon University Deep Learning
#یادگیری_عمیق #منابع_پیشنهادی #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
▪️ Carnegie Mellon University Deep Learning
#یادگیری_عمیق #منابع_پیشنهادی #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔥6👍3❤1👌1
اگر هم یادگیری عمیق را مقداری پیشرفته تر برای یادگیری میخواهید مورد مطالعه قرار دهید این کلاس آموزشی را پیشنهاد میدم.
▪️ MIT 6.S191: Introduction to Deep Learning
#یادگیری_عمیق #منابع_پیشنهادی #پیشرفته
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
▪️ MIT 6.S191: Introduction to Deep Learning
#یادگیری_عمیق #منابع_پیشنهادی #پیشرفته
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤4👎1