Data Science, Big Data, ML, DL and stuff
81 subscribers
18 photos
6 files
25 links
Download Telegram
🛠 Vision Transformer for Small-Size Datasets 🛠

💻 Github: Link

📄 Paper: Link

📈 Dataset: Link

#deep_learning #image_processing #toolkit
🆔 @Data_science_hub
Forwarded from AIMedic
📌استارتاپ استودیو aimedic با همکاری مجموعه آوید برگزار میکنند:

"انقلاب صنعتی چهارم، هوش مصنوعی"🧠
وبینار هوش مصنوعی و تحول در سلامت🩺

🔹سر فصل مباحث:
- هوش مصنوعی چیست؟
- یادگیری ماشینی چیست؟
- داده‌های پزشکی
- هوش مصنوعی در سلامت
- کاربرد هوش مصنوعی در سلامت
- نقش و جایگاه پزشکان و متخصصین علوم پزشکی در این عرصه
- برقراری عدالت در صنعت سلامت
- نقش و مسئولیت AIMedic در این عرصه
- پردازش تصاویر پزشکی با کمک هوش مصنوعی

🔸تاریخ برگزاری:
۱۴۰۰/۱۰/۱۸ از ساعت ۱۷:۰۰ تا ۱۹:۰۰

🔹اساتید:
دکتر علیرضا وفایی صدر

فارغ‌التحصیل دکتری کیهان‌شناسی از دانشگاه شهید بهشتی و محقق فوق دکتری مرکز پژوهش‌های دانش‌های بنیادی

🔸شماره تماس برای کسب آگاهی بیشتر:
📞 09033544123

🔹برای ثبت نام و کسب اطلاعات بیشتر به لینک زیر مراجعه نمایید:
🌐https://www.aveedme.com/a/4876
🛠 Python library with Neural Networks for Image Segmentation based on Keras and TensorFlow.🛠

💻 Github: Link

📄 Paper: Link

✏️ Tasks: Link

#image_processing #image_segmentation #deep_learning

🆔 @Data_science_hub
𝐍𝐞𝐰 𝐃𝐞𝐞𝐩 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 𝐂𝐨𝐮𝐫𝐬𝐞! 🚀📚🥳

The NYU Center for Data Science made their Deep Learning course public and shared all the class material (notebook, slides, video lectures). The class is taught by Yann LeCun, VP and Chief AI Scientist at Facebook, and Alfredo Canziani, Professor of Computer Science at New York University.

The course materials are available both in 𝐄𝐧𝐠𝐥𝐢𝐬𝐡 🇬🇧and 𝐅𝐫𝐞𝐧𝐜𝐡 🇫🇷.

The course covers the following topics:
𝐈𝐧𝐭𝐫𝐨𝐝𝐮𝐜𝐭𝐢𝐨𝐧
- history of deep learning models
- Gradient descent and the backpropagation algorithm
- Neural nets inference, architect, and training

𝐏𝐚𝐫𝐚𝐦𝐞𝐭𝐞𝐫𝐬 𝐬𝐡𝐚𝐫𝐢𝐧𝐠
- Recurrent and convolutional nets
- ConvNets in practice
- Recurrent neural networks and LSTM

𝐄𝐧𝐞𝐫𝐠𝐲 𝐛𝐚𝐬𝐞𝐝 𝐦𝐨𝐝𝐞𝐥𝐬, 𝐟𝐨𝐮𝐧𝐝𝐚𝐭𝐢𝐨𝐧𝐬
- Energy based models
- LV-EBMs models

𝐀𝐬𝐬𝐨𝐜𝐢𝐚𝐭𝐢𝐯𝐞 𝐦𝐞𝐦𝐨𝐫𝐢𝐞𝐬
- Energy based models
- Attention & transformer

𝐆𝐫𝐚𝐩𝐡𝐬
- Graph transformer nets
- Graph convolutional nets
- Control

𝐏𝐥𝐚𝐧𝐧𝐢𝐧𝐠 𝐚𝐧𝐝 𝐜𝐨𝐧𝐭𝐫𝐨𝐥
- The Truck Backer-Upper
- Prediction and Planning Under Uncertainty

𝐎𝐩𝐭𝐢𝐦𝐢𝐳𝐚𝐭𝐢𝐨𝐧
- Models Optimization

Course materials 📚:
𝐂𝐨𝐮𝐫𝐬𝐞 𝐧𝐨𝐭𝐞𝐛𝐨𝐨𝐤 [𝐄𝐧𝐠𝐥𝐢𝐬𝐡 𝐯𝐞𝐫𝐬𝐢𝐨𝐧]: https://lnkd.in/gpZi-adE
𝐂𝐨𝐮𝐫𝐬𝐞 𝐧𝐨𝐭𝐞𝐛𝐨𝐨𝐤 [𝐅𝐫𝐞𝐧𝐜𝐡 𝐯𝐞𝐫𝐬𝐢𝐨𝐧]: https://lnkd.in/gAzgrMWx
𝐂𝐨𝐮𝐫𝐬𝐞 𝐯𝐢𝐝𝐞𝐨𝐬 𝐥𝐞𝐜𝐭𝐮𝐫𝐞𝐬: https://lnkd.in/gGnRDiR5
𝐒𝐨𝐮𝐫𝐜𝐞 𝐜𝐨𝐝𝐞: https://lnkd.in/gwFyzqGV
𝐑𝐞𝐝𝐝𝐢𝐭 𝐟𝐨𝐫𝐦: https://lnkd.in/gnU-3528

#deep_learning #datascience #neuralnetworks #ai #python #machine_learning #course

🆔 @Data_science_hub
Data is everywhere in different formats but AI/ML is an implementation decision using data!

To understand the difference between Data and AI in-depth, here is a complete guide on ‘𝗪𝗵𝗮𝘁 𝗶𝘀 𝗗𝗮𝘁𝗮’ by Francesco Corea at Springer Nature Technology and Publishing Solutions!

#datascience #ai #book
🆔 @Data_science_hub
آکادمی دیجی‌نکست برگزار می‌کند:
📝 دوره آنلاین یادگیری عمیق و بینایی کامپیوتر

🔹تاریخ برگزاری:شنبه‌ها و سه‌شنبهه‌ها از 2 بهمن تا 7 اسفند
🔸ساعت 17:30الی 20:30
🔹مدرس: علیرضا اخوان‌پور


پیش نیازها:
1️⃣پایتون
2️⃣Numpy
3️⃣یادگیری ماشین

🔸در این دوره با استفاده از کتابخانه‌ی معروف Tensorflow2 و Keras شبکه‌های عصبی و پیاده‌سازی آن‌ها را آموخته و شبکه‌های کانولوشنالی عمیق که تحولی در شبکه‌های عصبی ایجاد کردند را بررسی و پیاده‌سازی خواهیم کرد.

🔻لینک ثبت‌نام: https://evnd.co/b2OMa
This media is not supported in your browser
VIEW IN TELEGRAM
Illustrations of Neural Network architectures are often time-consuming to produce, and machine learning researchers all too often find themselves constructing these diagrams from scratch by hand.

🛠 NN-SVG is a tool for creating Neural Network (NN) architecture drawings parametrically rather than manually. It also provides the ability to export those drawings to Scalable Vector Graphics (SVG) files, suitable for inclusion in academic papers or web pages.

💻 Check out the GitHub repo here: Link

#tools #visualization
🆔 @Data_science_hub
📹 VRT: A Video Restoration Transformer

Video Restoration Transformer (VRT) with parallel frame prediction and long-range temporal dependency modelling abilities. More specifically, VRT is composed of multiple scales, each of which consists of two kinds of modules: temporal mutual self attention (TMSA) and parallel warping. TMSA divides the video into small clips, on which mutual attention is applied for joint motion estimation, feature alignment and feature fusion, while self-attention is used for feature extraction.

💻 Github: Link

📄 Paper: Link

📈 Dataset: Link

#tools #deep_learning #official_repository #image_processing
🆔 @Data_science_hub
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
چطوری مقالات رو به شکل موثر بخونیم؟

در این ویدیو Andrew Ng توصیه‌هایی داره برای اینکه چطوری چندین مقاله رو به طور موازی بخونیم و چطوری یه مقاله خوب رو به طور کامل تحلیل کنیم؟


https://youtu.be/733m6qBH-jI?t=160
🎬 FILM: Frame Interpolation for Large Scene Motion

FILM
turns near-duplicate photos into a slow motion footage that look like shot with a video camera.

💻 Github: Link

📄 Paper: Link

🎥 Video: Link

👨‍💻 Project: Link

#deep_learning #image_processing #computer_vision #tools

🆔 @Data_science_hub
moment.gif
20.4 MB
🎬 FILM: Frame Interpolation for Large Scene Motion
کنفرانس گراف در یادگیری ماشین

Announcing the Learning on Graphs Conference

https://michael-bronstein.medium.com/announcing-the-learning-on-graphs-conference-c63caed7347

The LoG Conference key facts:
- Covers work broadly related to machine learning on graphs and geometry
- Proceedings track published in PMLR
- Also has a non-archival extended abstract track
- Double blind review process on OpenReview
- Top reviewers receive monetary rewards
- First year: virtual December 9-12 2022, free to attend.

Call for papers: https://logconference.github.io/cfp/

Stay updated via Twitter: https://twitter.com/LogConference
Or LinkedIn: https://www.linkedin.com/company/log-conference


این کانال با هدف آگاه سازی از رویدادهای مرتبط با هوش مصنوعی نظیر همایش، کنفرانس، ورک‌شاپ، کلاس و ... تشکیل شده است.

@eventai
Forwarded from Onlinebme
طبقه بندی سیگنال EEG تصور حرکتی با شبکه CNN
✍️در مقاله‌ای جدید ارائه شده توسط آقای Xiangmin Lun و همکارانشان (2020) یک شبکه عصبی کانولوشنی (CNN)، سیگنال EEG تصور حرکتی خام را کلاسبندی می‌کند بدون اینکه هیچ گونه پیش پردازشی روی دیتای EEG انجام شود و یا عملیات استخراج ویژگی به طور جداگانه انجام شود. این شبکه CNN که دارای 10 لایه (5 لایه کانولوشنی، 4 لایه Max Pooling و 1 لایه FC) است به عملکرد خوبی رسیده است. در این پست، خلاصه‌ای از این مقاله را توضیح می‌دهیم.

⭕️جزئیات بیشتر 👇
https://onlinebme.com/eeg-signal-classification-with-cnn/

🏢آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme