Microsoft, LinkedIn, and ... released a professional certificate in Generative Al🚀
No prerequisites or fees are required.
LinkedIn Post: https://www.linkedin.com/feed/update/urn:li:activity:7128196033808928773/
Website Link: https://365datascience.com/free-weeks-2023/
No prerequisites or fees are required.
LinkedIn Post: https://www.linkedin.com/feed/update/urn:li:activity:7128196033808928773/
Website Link: https://365datascience.com/free-weeks-2023/
Linkedin
AI on LinkedIn: Microsoft, LinkedIn, and ... released a professional certificate in… | 490 comments
Microsoft, LinkedIn, and ... released a professional certificate in Generative Al🚀
No prerequisites or fees are required.
Here are 15 FREE courses you don't… | 490 comments on LinkedIn
No prerequisites or fees are required.
Here are 15 FREE courses you don't… | 490 comments on LinkedIn
👍1🔥1
Forwarded from DLeX: AI Python (Farzad 🦅)
دوره جدید دانشگاه استنفورد
Stanford.Game Theory Free Course
▪️Game Theory
▪️Game Theory II: Advanced
▪️Deep Multi-Task and Meta Learning
▪️Game Theory for Machine Learning
▪️ Algorithmic Game Theory
#منابع #الگوریتمها #نظریه_بازی #فیلم #آموزش_کلاسی
🗨 @AI_Python
Stanford.Game Theory Free Course
▪️Game Theory
▪️Game Theory II: Advanced
▪️Deep Multi-Task and Meta Learning
▪️Game Theory for Machine Learning
▪️ Algorithmic Game Theory
#منابع #الگوریتمها #نظریه_بازی #فیلم #آموزش_کلاسی
🗨 @AI_Python
👍2
Forwarded from مرکز سیستم های اطلاعات و علوم داده شریف
⚡️ مرکز سیستم های اطلاعات و علوم داده شریف با همکاری انجمن علمی رسانا برگزار میکند:
رمزگشایی مدل های بزرگ زبانی
🔻سخنرانان:
آقای حسین اخلاقپور
مهندس ارشد یادگیری ماشین در سیلیکون ولی
دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق شریف
📌 جلسه به دو صورت حضوری و مجازی میباشد.
🔗جهت آشنایی بیشتر با ارائه دهنده این برنامه و موضوع هایی که در ارائه بحث خواهد شد، می توانید این ویدیو را مشاهده کنید.
🗓 سه شنبه، ۳۰ آبان
🕔ساعت ۱۶ الی ۱۸:۳۰
📝 جهت شرکت رایگان در جلسه، این فرم را تکمیل فرمایید.
🔴 شرکت در جلسه همایش، برای عموم آزاد است.
‼️مهلت ثبت نام جهت شرکت حضوری، دوشنبه ۲۹ آبان ، ۱۲:۰۰ شب
🔍تاریخ و مهلت ثبتنام ورکشاپهای این دوره نیز به زودی اعلام میشود.
📍نشانی محل برگزاری: دانشگاه صنعتی شریف، دانشکده مهندسی برق، سالن کهربا
🔗 لینک شرکت به صورت مجازی
📆 اضافه کردن به تقویم
🔍 جهت اطلاعات بیشتر عضو کانال شوید.
🆔@ISDS_Sharif
🆔@EEResana
رمزگشایی مدل های بزرگ زبانی
🔻سخنرانان:
آقای حسین اخلاقپور
مهندس ارشد یادگیری ماشین در سیلیکون ولی
دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق شریف
📌 جلسه به دو صورت حضوری و مجازی میباشد.
🔗جهت آشنایی بیشتر با ارائه دهنده این برنامه و موضوع هایی که در ارائه بحث خواهد شد، می توانید این ویدیو را مشاهده کنید.
🗓 سه شنبه، ۳۰ آبان
🕔ساعت ۱۶ الی ۱۸:۳۰
📝 جهت شرکت رایگان در جلسه، این فرم را تکمیل فرمایید.
🔴 شرکت در جلسه همایش، برای عموم آزاد است.
‼️مهلت ثبت نام جهت شرکت حضوری، دوشنبه ۲۹ آبان ، ۱۲:۰۰ شب
🔍تاریخ و مهلت ثبتنام ورکشاپهای این دوره نیز به زودی اعلام میشود.
📍نشانی محل برگزاری: دانشگاه صنعتی شریف، دانشکده مهندسی برق، سالن کهربا
🔗 لینک شرکت به صورت مجازی
📆 اضافه کردن به تقویم
🔍 جهت اطلاعات بیشتر عضو کانال شوید.
🆔@ISDS_Sharif
🆔@EEResana
👍1
Forwarded from School of AI
ویدئوهای ضبطشده از کلاس دیپلرنینگ دکتر علی قدسی استاد دانشگاه واترلو
https://youtube.com/playlist?list=PLehuLRPyt1HxuYpdlW4KevYJVOSDG3DEz&si=4eeCBn8S25oaDJbF
https://youtube.com/playlist?list=PLehuLRPyt1HxuYpdlW4KevYJVOSDG3DEz&si=4eeCBn8S25oaDJbF
👍1
فریمورک جدید mlx که توسط Apple برای اجرا روی پردازندههای اپل طراحی شده
https://twitter.com/deliprao/status/1732250132614184970?t=fRv3O5KowpH_JAIDFQ5h0Q&s=19
https://twitter.com/deliprao/status/1732250132614184970?t=fRv3O5KowpH_JAIDFQ5h0Q&s=19
X (formerly Twitter)
Delip Rao e/σ (@deliprao) on X
NEWS: Apple just entered the AI open source arena by quietly releasing their new DL framework called MLX! It runs code natively on Apple Silicon with a single pip install and no other dependencies. https://t.co/UGyoLSg0oj
Sharing what I discovered from this…
Sharing what I discovered from this…
Forwarded from DeepMind AI Expert (Farzad 🦅)
باید با ترنسفورمرها خداحافظی کنیم؟!
What is State Space Sequence Models (SSMs):** SSMs have emerged as a promising architecture for sequence modeling, combining aspects of recurrent neural networks (RNNs), convolutional neural networks (CNNs), and classical state space models. They offer efficient computation, either as a recurrence or convolution, with linear or near-linear scaling in sequence length. Despite their success in continuous signal data like audio and vision, SSMs have been less effective in modeling discrete and information-dense data such as text.
📌 Selective State Space Models (SSMs): The paper introduces a new class of selective SSMs, designed to achieve the modeling power of Transformers while maintaining linear scaling in sequence length. This involves a selection mechanism allowing the model to selectively propagate or forget information along the sequence length dimension, based on the input. The innovation also includes a hardware-aware parallel algorithm to address the computational challenges posed by making SSMs time- and input-variant.
📌 The selection mechanism in Mamba It allows filtering out irrelevant tokens, resetting the state to remove extraneous history, and managing how information propagates or interacts along the sequence dimension. This mechanism is also connected to the gating mechanisms of RNNs and can be applied to traditional RNNs or CNNs.
📌 Empirical Validation: Mamba's effectiveness is empirically validated in several domains, including language modeling, DNA sequencing, and audio waveform modeling. It outperforms previous state-of-the-art models in these domains and shows superior performance in both pretraining quality and domain-specific task performance.
▪️ Mamba: Linear-Time Sequence Modeling with Selective State Spaces
▪️ GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
What is State Space Sequence Models (SSMs):** SSMs have emerged as a promising architecture for sequence modeling, combining aspects of recurrent neural networks (RNNs), convolutional neural networks (CNNs), and classical state space models. They offer efficient computation, either as a recurrence or convolution, with linear or near-linear scaling in sequence length. Despite their success in continuous signal data like audio and vision, SSMs have been less effective in modeling discrete and information-dense data such as text.
📌 Selective State Space Models (SSMs): The paper introduces a new class of selective SSMs, designed to achieve the modeling power of Transformers while maintaining linear scaling in sequence length. This involves a selection mechanism allowing the model to selectively propagate or forget information along the sequence length dimension, based on the input. The innovation also includes a hardware-aware parallel algorithm to address the computational challenges posed by making SSMs time- and input-variant.
📌 The selection mechanism in Mamba It allows filtering out irrelevant tokens, resetting the state to remove extraneous history, and managing how information propagates or interacts along the sequence dimension. This mechanism is also connected to the gating mechanisms of RNNs and can be applied to traditional RNNs or CNNs.
📌 Empirical Validation: Mamba's effectiveness is empirically validated in several domains, including language modeling, DNA sequencing, and audio waveform modeling. It outperforms previous state-of-the-art models in these domains and shows superior performance in both pretraining quality and domain-specific task performance.
▪️ Mamba: Linear-Time Sequence Modeling with Selective State Spaces
▪️ GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥2
Forwarded from Ai Events️ (حمید محمودآبادی)
سایت زیر اومده ابزارهای هوشمصنوعی در حوزههای مختلف رو لیست کرده، اینجوری میتونید راحت بین این ابزارها بگردید و بهترین رو متناسب با نیازتون انتخاب کنید.
https://www.aixploria.com/en/
@Ai_Events
https://www.aixploria.com/en/
@Ai_Events
Forwarded from DeepMind AI Expert (Farzad 🦅)
ظاهرا قرار نیست مدل Mamba پایانی برای سلطه ترنسفورمرها باشد. RWKV مدل جدیدی که اخیرا ادعای بیشتری رو در این حیطه مطرح کرده است خواندنی هست.
▪️ RWKV: Reinventing RNNs for the Transformer Era
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ RWKV: Reinventing RNNs for the Transformer Era
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤1
Forwarded from دستاوردهای یادگیری عمیق(InTec)
نمیگم بهترین توضیح برای این مقاله اما خوب توضیح داده شده و درک مقاله رو سادهتر میکنه (بخصوص برای دوستان تازهکار)
Yannic Kilcher on Mamba
Yannic Kilcher on Mamba
YouTube
Mamba: Linear-Time Sequence Modeling with Selective State Spaces (Paper Explained)
#mamba #s4 #ssm
OUTLINE:
0:00 - Introduction
0:45 - Transformers vs RNNs vs S4
6:10 - What are state space models?
12:30 - Selective State Space Models
17:55 - The Mamba architecture
22:20 - The SSM layer and forward propagation
31:15 - Utilizing GPU memory…
OUTLINE:
0:00 - Introduction
0:45 - Transformers vs RNNs vs S4
6:10 - What are state space models?
12:30 - Selective State Space Models
17:55 - The Mamba architecture
22:20 - The SSM layer and forward propagation
31:15 - Utilizing GPU memory…
Forwarded from DeepMind AI Expert (Farzad 🦅)
پایتورچ را در چهار مرحله یادبگیرید.
▪️ Tutorial: Learn the Basics
1. Tensors
2. Datasets and DataLoaders
3. Transforms
4. Build Model
5. Automatic differentiation
6. Optimization loop
7. Save, Load and Use Model
▪️ Introduction to PyTorch
1. Introduction to PyTorch
2. Introduction to PyTorch Tensors
3. The Fundamentals of Autograd
4. Building Models with PyTorch
5. PyTorch TensorBoard Support
6. Training with PyTorch
7. Model Understanding with Captum
▪️ Learning PyTorch with Examples
▪️ Start writing code
#پایتون #هوش_مصنوعی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Tutorial: Learn the Basics
1. Tensors
2. Datasets and DataLoaders
3. Transforms
4. Build Model
5. Automatic differentiation
6. Optimization loop
7. Save, Load and Use Model
▪️ Introduction to PyTorch
1. Introduction to PyTorch
2. Introduction to PyTorch Tensors
3. The Fundamentals of Autograd
4. Building Models with PyTorch
5. PyTorch TensorBoard Support
6. Training with PyTorch
7. Model Understanding with Captum
▪️ Learning PyTorch with Examples
▪️ Start writing code
#پایتون #هوش_مصنوعی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
Forwarded from دستاوردهای یادگیری عمیق(InTec)
Paper Link
مقاله مربوط به مدل ۷ میلیاردی ماکروسافت برای
Embedding
این مدل در حال حاضر rank 1 هاگینگ فیس هست (به محض انتشار جایگاه اول رو به خودش اختصاص داده)
خیلی مهم هست این قضیه.
مقاله مربوط به مدل ۷ میلیاردی ماکروسافت برای
Embedding
این مدل در حال حاضر rank 1 هاگینگ فیس هست (به محض انتشار جایگاه اول رو به خودش اختصاص داده)
خیلی مهم هست این قضیه.
arXiv.org
Improving Text Embeddings with Large Language Models
In this paper, we introduce a novel and simple method for obtaining high-quality text embeddings using only synthetic data and less than 1k training steps. Unlike existing methods that often...
Forwarded from Ai Events️ (حمید محمودآبادی)
بچه ها این ریپو حسابی توی گیت هاب ترند شده و به نظرم خیلی جالب اومده منابع خوبی رو برای یادگیری ماشین لرنینگ و بعدش LLM معرفی کرده! هم ویدیو
داره هم نمونه کد هست و کلی داکیمونت خوب خلاصه..
حتی اشاره به منابع برای یادگیری ریاضی مورد نیازش هم کرده
https://github.com/mlabonne/llm-course
Sam92
@Ai_Events
داره هم نمونه کد هست و کلی داکیمونت خوب خلاصه..
حتی اشاره به منابع برای یادگیری ریاضی مورد نیازش هم کرده
https://github.com/mlabonne/llm-course
@Ai_Events
Forwarded from DeepMind AI Expert (Farzad 🦅)
جهت علاقه مندان حوزه علوم داده:
مجموعه ای از ویدیوهای آپارات و OCW دانشگاه شریف
هوش مصنوعی - دکتر رهبان
https://lnkd.in/dky6WZeP
ماشین لرنینگ- دکتر رهبان
https://lnkd.in/dKbUXN_x
فرایند تصادفی - دکتر رهبان ( دکتر علیشاهی در مکتبخونه یک کلاس آموزشی راجب فرایندهای تصادفی داره)
https://lnkd.in/d8Ecqw3Q
پردازش هوشمند تصاویر زیست-پزشکی
https://lnkd.in/dwazQNTH
https://lnkd.in/dCDJPeQt
ReACT 2023
https://lnkd.in/dFZXqcew
IWCIT 2022
https://lnkd.in/dH7Hqani
آمار و احتمال مهندسی - دکتر امینی
https://lnkd.in/diuancHJ
#تشخیص_الگو - دکتر فاطمی زاده
https://lnkd.in/dScHFtje
خلاقیت الگوریتمی و برنامهنویسی پایتون (مخصوص دانشآموزان متوسطهی اول و دوم) - در حال تکمیل
https://lnkd.in/d-7C8bdS
الگوریتم های بیوانفورماتیک- دکتر شریفی زارچی
https://lnkd.in/dyWrqGn8
داده ساختارها و مبانی الگوریتم ها-دکتر شریفی زارچی
https://lnkd.in/dG5JhGzC
بیو انفورماتیک پیشرفته - دکتر شریفی زارچی
https://lnkd.in/dQbvnXsm
#یادگیری_ماشین - دکتر سلیمانی
https://lnkd.in/dwPEBD-6
#هوش_مصنوعی- دکتر سلیمانی
https://lnkd.in/dQGsuwjT
یادگیری برخط - محمدهادی فروغمند -کسری علیشاهی
https://lnkd.in/dVCEbguf
مباحثی در علوم داده (یادگیری بندیت)-
https://lnkd.in/dWA8wiKM
بهینه سازی در علوم داده ها- محمدهادی فروغمند
https://lnkd.in/dPtdmGUi
مباحثی در #آمار (روشهای بیزی در آمار و یادگیری)- کسری علیشاهی
https://lnkd.in/dbb6ANd7
بهینه سازی محدب-مجتبی تفاق
https://lnkd.in/d7h4bqs5
#یادگیری_تقویتی - کسری علیشاهی
https://lnkd.in/d8S7m86N
مقدمه ای بر بیوانفورماتیک (تحلیل داده های زیستی) - علی شریفی زارچی
https://lnkd.in/dWkZbMcn
#منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
مجموعه ای از ویدیوهای آپارات و OCW دانشگاه شریف
هوش مصنوعی - دکتر رهبان
https://lnkd.in/dky6WZeP
ماشین لرنینگ- دکتر رهبان
https://lnkd.in/dKbUXN_x
فرایند تصادفی - دکتر رهبان ( دکتر علیشاهی در مکتبخونه یک کلاس آموزشی راجب فرایندهای تصادفی داره)
https://lnkd.in/d8Ecqw3Q
پردازش هوشمند تصاویر زیست-پزشکی
https://lnkd.in/dwazQNTH
https://lnkd.in/dCDJPeQt
ReACT 2023
https://lnkd.in/dFZXqcew
IWCIT 2022
https://lnkd.in/dH7Hqani
آمار و احتمال مهندسی - دکتر امینی
https://lnkd.in/diuancHJ
#تشخیص_الگو - دکتر فاطمی زاده
https://lnkd.in/dScHFtje
خلاقیت الگوریتمی و برنامهنویسی پایتون (مخصوص دانشآموزان متوسطهی اول و دوم) - در حال تکمیل
https://lnkd.in/d-7C8bdS
الگوریتم های بیوانفورماتیک- دکتر شریفی زارچی
https://lnkd.in/dyWrqGn8
داده ساختارها و مبانی الگوریتم ها-دکتر شریفی زارچی
https://lnkd.in/dG5JhGzC
بیو انفورماتیک پیشرفته - دکتر شریفی زارچی
https://lnkd.in/dQbvnXsm
#یادگیری_ماشین - دکتر سلیمانی
https://lnkd.in/dwPEBD-6
#هوش_مصنوعی- دکتر سلیمانی
https://lnkd.in/dQGsuwjT
یادگیری برخط - محمدهادی فروغمند -کسری علیشاهی
https://lnkd.in/dVCEbguf
مباحثی در علوم داده (یادگیری بندیت)-
https://lnkd.in/dWA8wiKM
بهینه سازی در علوم داده ها- محمدهادی فروغمند
https://lnkd.in/dPtdmGUi
مباحثی در #آمار (روشهای بیزی در آمار و یادگیری)- کسری علیشاهی
https://lnkd.in/dbb6ANd7
بهینه سازی محدب-مجتبی تفاق
https://lnkd.in/d7h4bqs5
#یادگیری_تقویتی - کسری علیشاهی
https://lnkd.in/d8S7m86N
مقدمه ای بر بیوانفورماتیک (تحلیل داده های زیستی) - علی شریفی زارچی
https://lnkd.in/dWkZbMcn
#منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
اگه شما هم این اشتباه رو میکردین، دیگه نکنین :)
https://www.linkedin.com/posts/avi-chawla_machinelearning-datascience-activity-7151556109340708864-Hsaa?utm_source=share&utm_medium=member_android
https://www.linkedin.com/posts/avi-chawla_machinelearning-datascience-activity-7151556109340708864-Hsaa?utm_source=share&utm_medium=member_android
👍8
اگه حس کردین نیاز دارین برین سراغ یادگیری DSP این پلی لیست توصیه میشه.
https://youtube.com/playlist?list=PLuh62Q4Sv7BUSzx5Jr8Wrxxn-U10qG1et&si=rYcYO89Yg2sFT3p9
https://youtube.com/playlist?list=PLuh62Q4Sv7BUSzx5Jr8Wrxxn-U10qG1et&si=rYcYO89Yg2sFT3p9
👍3
Forwarded from Out of Distribution
بلاگی برای فهمیدن عظمت LLMها
جدیداها سندرومی در کامیونیتی ایرانیها دیده شده که هر کی برای خودش دیتایی ناچیز برمیداره و به اصطلاح خودش یک LLM فارسی آموزش میده و تو بوق و کرنا میکنه در حالی که هیچ به هیچ. امشب حالا بلاگی رو دیدم که یک ویژوالیزیشن جالب از مقیاس اندازه مدل، اندازه داده آموزشی و اندازه محاسباتی LLMها ارائه داده بود:
https://medium.com/@georgeanil/visualizing-size-of-large-language-models-ec576caa5557
نکته دوم ماجرا در اینه که آیا LLM = AGI؟ در مورد سایز مدل و سایز محاسباتی نمیشه به این راحتی بدون داشتن دانش نوروساینسی دقیق از مغز حرف زد (شاید واقعا هم اندازه مدل و هم اندازه محاسباتی مغز ما از LLMها بیشتر باشه) ولی در مورد دیتای آموزشی میشه با قاطعیت گفت که آدمیزاد با میزان داده خیلی خیلی خیلی کمتر از یک LLM عملکردی در اون سطح و چه بسا بهتر رو میتونه ارائه بده. فلذا میتونیم شک کنیم که راه رسیدن به AGI این مسیر داده بزرگتر جمع کن و مدل بزرگتری رو روش آموزش بده، نیست.
جدیداها سندرومی در کامیونیتی ایرانیها دیده شده که هر کی برای خودش دیتایی ناچیز برمیداره و به اصطلاح خودش یک LLM فارسی آموزش میده و تو بوق و کرنا میکنه در حالی که هیچ به هیچ. امشب حالا بلاگی رو دیدم که یک ویژوالیزیشن جالب از مقیاس اندازه مدل، اندازه داده آموزشی و اندازه محاسباتی LLMها ارائه داده بود:
https://medium.com/@georgeanil/visualizing-size-of-large-language-models-ec576caa5557
نکته دوم ماجرا در اینه که آیا LLM = AGI؟ در مورد سایز مدل و سایز محاسباتی نمیشه به این راحتی بدون داشتن دانش نوروساینسی دقیق از مغز حرف زد (شاید واقعا هم اندازه مدل و هم اندازه محاسباتی مغز ما از LLMها بیشتر باشه) ولی در مورد دیتای آموزشی میشه با قاطعیت گفت که آدمیزاد با میزان داده خیلی خیلی خیلی کمتر از یک LLM عملکردی در اون سطح و چه بسا بهتر رو میتونه ارائه بده. فلذا میتونیم شک کنیم که راه رسیدن به AGI این مسیر داده بزرگتر جمع کن و مدل بزرگتری رو روش آموزش بده، نیست.
اگه دنبال این هستین که ویژن رو از پایه و از مفاهیم اولیه و روشهای کلاسیکش یاد بگیرین تا درک بهتری نسبت به راهحل های دیپ به دست بیارین، این چنل به خصوص توصیه میشه. همون طور که اسمش هم میرسونه استارتر فوق العاده ای برای اصول اولیه ویژنه.
https://youtu.be/1EJ84QqkxWc?si=jvitAQ_-UWx6gNEI
https://youtu.be/1EJ84QqkxWc?si=jvitAQ_-UWx6gNEI
YouTube
First Principles of Computer Vision
First Principles of Computer Vision is a lecture series presented by Shree Nayar, T. C. Chang Professor of Computer Science in the School of Engineering at Columbia University. Computer Vision is the enterprise of building machines that “see.” This series…
👍2
Forwarded from DLeX: AI Python (NaviD DariYa)
🚀 ساخت RAG های پیشرفته با استفاده از : FalkorDB, LangChain, Diffbot API, and OpenAI
تا حالا درباره بهره گرفتن از Knowledge Graph ها برای RAG فکر کردید؟ 🧐 به نظرم وسوسه کننده س.
@ai_python
اگر علاقه مند هستید این مقاله پیشنهاد می شه 😍 :
https://medium.com/@akriti.upadhyay/building-advanced-rag-applications-using-falkordb-langchain-diffbot-api-and-openai-083fa1b6a96c
تا حالا درباره بهره گرفتن از Knowledge Graph ها برای RAG فکر کردید؟ 🧐 به نظرم وسوسه کننده س.
@ai_python
اگر علاقه مند هستید این مقاله پیشنهاد می شه 😍 :
https://medium.com/@akriti.upadhyay/building-advanced-rag-applications-using-falkordb-langchain-diffbot-api-and-openai-083fa1b6a96c
❤3
Forwarded from Deep learning channel (Mohammad Sabokrou)
If you're interested in self-supervised learning, join our meeting today at 9:30 a.m. Iran time!
Zoom: https://oist.zoom.us/j/92257619030?pwd=d2IvVktjQUVPME8rdFhqWFlmNERRQT09
Meeting ID: 922 5761 9030
Passcode: 595720
Speaker: Dr. Yuki M. Asano, Assistant Professor, QUVA Lab, University of Amsterdam
Title: Self-Supervised Learning from Images and Videos using Optimal Transport
Abstract:
In this talk we will learn more about self-supervised learning -- the principles, the methods and how properly utilizing video data will unlock unprecendented visual performances.
I will first provide a brief overview of self-supervised learning and show how clustering can be combined with representation learning using optimal transport ([1] @ ICLR'20 spotlight). Next, I will show how this method can be generalised to multiple modalities ([2] @NeurIPS'20) and for unsupervised segmentation in images ([3] @CVPR'22) and in videos ([4] @ICCV'23). Finally, I show how optimal transport can be utilized to learn models from scratch from just a single Walking Tour video that outperform those trained on ImageNet, demonstrating high potential for future video-based embodied learning ([5] @ICLR'24).
[1] Self-labelling via simultaneous clustering and representation learning
Asano, Rupprecht, Vedaldi. ICLR, 2020
[2] Labelling unlabelled videos from scratch with multi-modal self-supervision. Asano, Patrick, Rupprecht, Vedaldi. NeurIPS 2020
[3] Self-supervised learning of object parts for semantic segmentation. Ziegler and Asano. CVPR 2022
[4] Time Does Tell: Self-Supervised Time-Tuning of Dense Image Representations. Salehi, Gavves, Snoek, Asano.
[5] Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video. Venkataramanan, Rizve, Carreira, Avrithis, Asano. ICLR 2024.
Zoom: https://oist.zoom.us/j/92257619030?pwd=d2IvVktjQUVPME8rdFhqWFlmNERRQT09
Meeting ID: 922 5761 9030
Passcode: 595720
Speaker: Dr. Yuki M. Asano, Assistant Professor, QUVA Lab, University of Amsterdam
Title: Self-Supervised Learning from Images and Videos using Optimal Transport
Abstract:
In this talk we will learn more about self-supervised learning -- the principles, the methods and how properly utilizing video data will unlock unprecendented visual performances.
I will first provide a brief overview of self-supervised learning and show how clustering can be combined with representation learning using optimal transport ([1] @ ICLR'20 spotlight). Next, I will show how this method can be generalised to multiple modalities ([2] @NeurIPS'20) and for unsupervised segmentation in images ([3] @CVPR'22) and in videos ([4] @ICCV'23). Finally, I show how optimal transport can be utilized to learn models from scratch from just a single Walking Tour video that outperform those trained on ImageNet, demonstrating high potential for future video-based embodied learning ([5] @ICLR'24).
[1] Self-labelling via simultaneous clustering and representation learning
Asano, Rupprecht, Vedaldi. ICLR, 2020
[2] Labelling unlabelled videos from scratch with multi-modal self-supervision. Asano, Patrick, Rupprecht, Vedaldi. NeurIPS 2020
[3] Self-supervised learning of object parts for semantic segmentation. Ziegler and Asano. CVPR 2022
[4] Time Does Tell: Self-Supervised Time-Tuning of Dense Image Representations. Salehi, Gavves, Snoek, Asano.
[5] Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video. Venkataramanan, Rizve, Carreira, Avrithis, Asano. ICLR 2024.
Zoom Video
Join our Cloud HD Video Meeting
Zoom is the leader in modern enterprise video communications, with an easy, reliable cloud platform for video and audio conferencing, chat, and webinars across mobile, desktop, and room systems. Zoom Rooms is the original software-based conference room solution…