ML & AI resources
171 subscribers
165 photos
13 videos
7 files
503 links
Explore AI & Deep Learning with us. Join our Telegram channel for the latest insights and tutorials, managed by CE students from Amirkabir University of Technology.

🆔 @ML_AI_resourses
Download Telegram
Forwarded from DLeX: AI Python (Farzad 🦅)
👍2
⚡️ مرکز سیستم های اطلاعات و علوم داده شریف با همکاری انجمن علمی رسانا برگزار می‌کند:

رمزگشایی مدل های بزرگ زبانی

🔻سخنرانان:
آقای حسین اخلاقپور
مهندس ارشد یادگیری ماشین در سیلیکون ولی
دکتر بابک حسین خلج
رئیس دانشکده مهندسی برق شریف

📌 جلسه به دو صورت حضوری و مجازی می‌باشد.

🔗جهت آشنایی بیشتر با ارائه دهنده این برنامه و موضوع هایی که در ارائه بحث خواهد شد، می توانید این ویدیو را مشاهده کنید.

🗓 سه شنبه، ۳۰ آبان
🕔ساعت ۱۶ الی ۱۸:۳۰

📝 جهت شرکت رایگان در جلسه، این فرم را تکمیل فرمایید.

🔴 شرکت در جلسه همایش، برای عموم آزاد است.

‼️مهلت ثبت نام جهت شرکت حضوری، دوشنبه ۲۹ آبان ، ۱۲:۰۰ شب

🔍تاریخ و مهلت ثبت‌نام ورکشاپ‌های این دوره نیز به زودی اعلام می‌شود.

📍
نشانی محل برگزاری: دانشگاه صنعتی شریف، دانشکده مهندسی برق، سالن کهربا

🔗 لینک شرکت به صورت مجازی

📆 اضافه کردن به تقویم

🔍 جهت اطلاعات بیشتر عضو کانال شوید.
🆔@ISDS_Sharif
🆔@EEResana
👍1
Forwarded from School of AI
ویدئوهای ضبط‌شده از کلاس دیپ‌لرنینگ دکتر علی قدسی استاد دانشگاه واترلو

https://youtube.com/playlist?list=PLehuLRPyt1HxuYpdlW4KevYJVOSDG3DEz&si=4eeCBn8S25oaDJbF
👍1
Forwarded from DeepMind AI Expert (Farzad 🦅)
باید با ترنسفورمرها خداحافظی کنیم؟!

What is State Space Sequence Models (SSMs):** SSMs have emerged as a promising architecture for sequence modeling, combining aspects of recurrent neural networks (RNNs), convolutional neural networks (CNNs), and classical state space models. They offer efficient computation, either as a recurrence or convolution, with linear or near-linear scaling in sequence length. Despite their success in continuous signal data like audio and vision, SSMs have been less effective in modeling discrete and information-dense data such as text.

📌 Selective State Space Models (SSMs): The paper introduces a new class of selective SSMs, designed to achieve the modeling power of Transformers while maintaining linear scaling in sequence length. This involves a selection mechanism allowing the model to selectively propagate or forget information along the sequence length dimension, based on the input. The innovation also includes a hardware-aware parallel algorithm to address the computational challenges posed by making SSMs time- and input-variant.

📌 The selection mechanism in Mamba It allows filtering out irrelevant tokens, resetting the state to remove extraneous history, and managing how information propagates or interacts along the sequence dimension. This mechanism is also connected to the gating mechanisms of RNNs and can be applied to traditional RNNs or CNNs.

📌 Empirical Validation: Mamba's effectiveness is empirically validated in several domains, including language modeling, DNA sequencing, and audio waveform modeling. It outperforms previous state-of-the-art models in these domains and shows superior performance in both pretraining quality and domain-specific task performance.

▪️ Mamba: Linear-Time Sequence Modeling with Selective State Spaces
▪️ GitHub

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
🔥2
Forwarded from Ai Events️ (حمید محمودآبادی)
سایت زیر اومده ابزارهای هوش‌مصنوعی در حوزه‌های مختلف رو لیست کرده، اینجوری میتونید راحت بین این ابزارها بگردید و بهترین رو متناسب با نیازتون انتخاب کنید.

https://www.aixploria.com/en/

@Ai_Events
Forwarded from DeepMind AI Expert (Farzad 🦅)
ظاهرا قرار نیست مدل Mamba پایانی برای سلطه ترنسفورمرها باشد. RWKV مدل جدیدی که اخیرا ادعای بیشتری رو در این حیطه مطرح کرده است خواندنی هست.

▪️ RWKV: Reinventing RNNs for the Transformer Era

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
1
Forwarded from DeepMind AI Expert (Farzad 🦅)
پایتورچ را در چهار مرحله یادبگیرید.

▪️ Tutorial: Learn the Basics

1. Tensors
2. Datasets and DataLoaders
3. Transforms
4. Build Model
5. Automatic differentiation
6. Optimization loop
7. Save, Load and Use Model

▪️ Introduction to PyTorch

1. Introduction to PyTorch
2. Introduction to PyTorch Tensors
3. The Fundamentals of Autograd
4. Building Models with PyTorch
5. PyTorch TensorBoard Support
6. Training with PyTorch
7. Model Understanding with Captum

▪️ Learning PyTorch with Examples
▪️ Start writing code

#پایتون #هوش_مصنوعی #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍1
Paper Link

مقاله مربوط به مدل ۷ میلیاردی ماکروسافت برای
Embedding

این مدل در حال حاضر rank 1 هاگینگ فیس هست (به محض انتشار جایگاه اول رو به خودش اختصاص داده)

خیلی مهم هست این قضیه.
Forwarded from Ai Events️ (حمید محمودآبادی)
بچه ها این ریپو حسابی توی گیت هاب ترند شده و به نظرم خیلی جالب اومده منابع خوبی رو برای یادگیری ماشین لرنینگ و بعدش LLM معرفی کرده!‌ هم ویدیو
داره هم نمونه کد هست و کلی داکیمونت خوب خلاصه..

حتی اشاره به منابع برای یادگیری ریاضی مورد نیازش هم کرده

https://github.com/mlabonne/llm-course
Sam92


@Ai_Events
Forwarded from DeepMind AI Expert (Farzad 🦅)
جهت علاقه مندان حوزه علوم داده:
مجموعه ای از ویدیوهای آپارات و OCW دانشگاه شریف

هوش مصنوعی - دکتر رهبان 
https://lnkd.in/dky6WZeP

ماشین لرنینگ- دکتر رهبان

https://lnkd.in/dKbUXN_x

فرایند تصادفی - دکتر رهبان ( دکتر علیشاهی در مکتبخونه یک کلاس آموزشی راجب فرایندهای تصادفی داره)
https://lnkd.in/d8Ecqw3Q

پردازش هوشمند تصاویر زیست-پزشکی
https://lnkd.in/dwazQNTH
https://lnkd.in/dCDJPeQt

ReACT 2023
https://lnkd.in/dFZXqcew

IWCIT 2022
https://lnkd.in/dH7Hqani

آمار و احتمال مهندسی - دکتر امینی
https://lnkd.in/diuancHJ

#تشخیص_الگو - دکتر فاطمی زاده
https://lnkd.in/dScHFtje

خلاقیت الگوریتمی و برنامه‌نویسی پایتون (مخصوص دانش‌آموزان متوسطه‌ی اول و دوم) - در حال تکمیل
https://lnkd.in/d-7C8bdS

الگوریتم های بیوانفورماتیک- دکتر شریفی زارچی
https://lnkd.in/dyWrqGn8

داده ساختارها و مبانی الگوریتم ها-دکتر شریفی زارچی 
https://lnkd.in/dG5JhGzC

بیو انفورماتیک پیشرفته - دکتر شریفی زارچی
https://lnkd.in/dQbvnXsm

#یادگیری_ماشین - دکتر سلیمانی
https://lnkd.in/dwPEBD-6

#هوش_مصنوعی- دکتر سلیمانی
https://lnkd.in/dQGsuwjT

یادگیری برخط - محمدهادی فروغمند -کسری علیشاهی
https://lnkd.in/dVCEbguf

مباحثی در علوم داده (یادگیری بندیت)- 
https://lnkd.in/dWA8wiKM

بهینه سازی در علوم داده ها- محمدهادی فروغمند
https://lnkd.in/dPtdmGUi

مباحثی در #آمار (روش‌های بیزی در آمار و یادگیری)- کسری علیشاهی
https://lnkd.in/dbb6ANd7

بهینه سازی محدب-مجتبی تفاق
https://lnkd.in/d7h4bqs5

#یادگیری_تقویتی - کسری علیشاهی
https://lnkd.in/d8S7m86N

مقدمه ای بر بیوانفورماتیک (تحلیل داده های زیستی) - علی شریفی زارچی
https://lnkd.in/dWkZbMcn

#منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
اگه حس کردین نیاز دارین برین سراغ یادگیری DSP این پلی لیست توصیه میشه.

https://youtube.com/playlist?list=PLuh62Q4Sv7BUSzx5Jr8Wrxxn-U10qG1et&si=rYcYO89Yg2sFT3p9
👍3
Forwarded from Out of Distribution
بلاگی برای فهمیدن عظمت LLM‌ها

جدیداها سندرومی در کامیونیتی ایرانی‌ها دیده شده که هر کی برای خودش دیتایی ناچیز برمیداره و به اصطلاح خودش یک LLM فارسی آموزش می‌ده و تو بوق و کرنا می‌کنه در حالی که هیچ به هیچ. امشب حالا بلاگی رو دیدم که یک ویژوالیزیشن جالب از مقیاس اندازه مدل، اندازه داده آموزشی و اندازه محاسباتی LLM‌ها ارائه داده بود:

https://medium.com/@georgeanil/visualizing-size-of-large-language-models-ec576caa5557

نکته دوم ماجرا در اینه که آیا LLM = AGI؟ در مورد سایز مدل و سایز محاسباتی نمی‌شه به این راحتی بدون داشتن دانش نوروساینسی دقیق از مغز حرف زد (شاید واقعا هم اندازه مدل و هم اندازه محاسباتی مغز ما از LLM‌ها بیشتر باشه) ولی در مورد دیتای آموزشی می‌شه با قاطعیت گفت که آدمیزاد با میزان داده خیلی خیلی خیلی کمتر از یک LLM عملکردی در اون سطح و چه بسا بهتر رو می‌تونه ارائه بده. فلذا می‌تونیم شک کنیم که راه رسیدن به AGI این مسیر داده بزرگ‌تر جمع کن و مدل بزرگتری رو روش آموزش بده، نیست.
اگه دنبال این هستین که ویژن رو از پایه و از مفاهیم اولیه و روش‌های کلاسیکش یاد بگیرین تا درک بهتری نسبت به راه‌حل های دیپ به دست بیارین، این چنل به خصوص توصیه میشه. همون طور که اسمش هم می‌رسونه استارتر فوق العاده ای برای اصول اولیه ویژنه.

https://youtu.be/1EJ84QqkxWc?si=jvitAQ_-UWx6gNEI
👍2
Forwarded from DLeX: AI Python (NaviD DariYa)
🚀 ساخت RAG های پیشرفته با استفاده از : FalkorDB, LangChain, Diffbot API, and OpenAI

تا حالا درباره بهره گرفتن از Knowledge Graph ها برای RAG فکر کردید؟ 🧐 به نظرم وسوسه کننده س.
@ai_python
اگر علاقه مند هستید این مقاله پیشنهاد می شه 😍 :

https://medium.com/@akriti.upadhyay/building-advanced-rag-applications-using-falkordb-langchain-diffbot-api-and-openai-083fa1b6a96c
3
Forwarded from Deep learning channel (Mohammad Sabokrou)
If you're interested in self-supervised learning, join our meeting today at 9:30 a.m. Iran time!
Zoom: https://oist.zoom.us/j/92257619030?pwd=d2IvVktjQUVPME8rdFhqWFlmNERRQT09
Meeting ID: 922 5761 9030
Passcode: 595720
Speaker: Dr. Yuki M. Asano, Assistant Professor, QUVA Lab, University of Amsterdam
Title: Self-Supervised Learning from Images and Videos using Optimal Transport
Abstract:
In this talk we will learn more about self-supervised learning -- the principles, the methods and how properly utilizing video data will unlock unprecendented visual performances.
I will first provide a brief overview of self-supervised learning and show how clustering can be combined with representation learning using optimal transport ([1] @ ICLR'20 spotlight). Next, I will show how this method can be generalised to multiple modalities ([2] @NeurIPS'20) and for unsupervised segmentation in images ([3] @CVPR'22) and in videos ([4] @ICCV'23). Finally, I show how optimal transport can be utilized to learn models from scratch from just a single Walking Tour video that outperform those trained on ImageNet, demonstrating high potential for future video-based embodied learning ([5] @ICLR'24). 
[1] Self-labelling via simultaneous clustering and representation learning
Asano, Rupprecht, Vedaldi.  ICLR, 2020
[2] Labelling unlabelled videos from scratch with multi-modal self-supervision. Asano, Patrick, Rupprecht, Vedaldi. NeurIPS 2020
[3] Self-supervised learning of object parts for semantic segmentation. Ziegler and Asano. CVPR 2022
[4] Time Does Tell: Self-Supervised Time-Tuning of Dense Image Representations. Salehi, Gavves, Snoek, Asano.
[5] Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video. Venkataramanan, Rizve, Carreira, Avrithis, Asano. ICLR 2024.