Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
https://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
#جلسه_رفع_اشکال #گراف #gnn

بزرگوارانی که دوره شبکه های عصبی گراف را تهیه کردند،
دومین جلسه رفع اشکال، توسط آقای مهندس یوسف زاده، در تاریخ ۴ ام بهمن، ساعت ۷ بعد از ظهر قرار است با موضوع تمکیل نمودن نوت بوک Link Prediction on MovieLens باشد.
دوستان علاقه مند، حتما اگر دوره را تهیه کردند و در گروه دوره عضو نشده اند، به پشتیبانی برای عضویت در گروه و دریافت لینک جلسه پیام دهند.

پشتیبان دوره ها:
@classvision_support
👍93🎉2
TikTok presents Depth Anything
Unleashing the Power of Large-Scale Unlabeled Data

Depth Anything is trained on 1.5M labeled images and 62M+ unlabeled images jointly, providing the most capable Monocular Depth Estimation (MDE) foundation models with the following features:

demo: https://huggingface.co/spaces/LiheYoung/Depth-Anything
code repository: https://github.com/LiheYoung/Depth-Anything
paper: https://huggingface.co/papers/2401.10891
👍11
Forwarded from School of AI
حدود ۲ ماه پیش، تیم LLM آزمایشگاه پردازش متن و زبان طبیعی دانشگاه تهران مدل 7 میلیاردی Llama2 رو بر روی مجموعه داده‌گان فارسی (ترجمه برخی دیتاست های پرسش و پاسخ + حجم مناسبی از دیتای خام فارسی) آموزش داده که درک نسبتا مناسبی در زمینه‌ی پرسش و پاسخ فارسی داره.

این مدل روی HuggingFace به آدرس زیر قرار داده شده:
https://huggingface.co/mostafaamiri/persian_llama_7b

همچنین یک نوت‌بوک راهنما برای کار با این مدل در آدرس زیر وجود داره که می‌تونید باهاش شروع کنید:
https://colab.research.google.com/drive/14Mfhv2vf3ElTnS5JQGpv-D0jn_qJh88R?usp=sharing#scrollTo=ahZ3Jg66nnJq
👌23👍83🤔1
Forwarded from Deep learning channel (Mohammad Sabokrou)
If you're interested in self-supervised learning, join our meeting today at 9:30 a.m. Iran time!
Zoom: https://oist.zoom.us/j/92257619030?pwd=d2IvVktjQUVPME8rdFhqWFlmNERRQT09
Meeting ID: 922 5761 9030
Passcode: 595720
Speaker: Dr. Yuki M. Asano, Assistant Professor, QUVA Lab, University of Amsterdam
Title: Self-Supervised Learning from Images and Videos using Optimal Transport
Abstract:
In this talk we will learn more about self-supervised learning -- the principles, the methods and how properly utilizing video data will unlock unprecendented visual performances.
I will first provide a brief overview of self-supervised learning and show how clustering can be combined with representation learning using optimal transport ([1] @ ICLR'20 spotlight). Next, I will show how this method can be generalised to multiple modalities ([2] @NeurIPS'20) and for unsupervised segmentation in images ([3] @CVPR'22) and in videos ([4] @ICCV'23). Finally, I show how optimal transport can be utilized to learn models from scratch from just a single Walking Tour video that outperform those trained on ImageNet, demonstrating high potential for future video-based embodied learning ([5] @ICLR'24). 
[1] Self-labelling via simultaneous clustering and representation learning
Asano, Rupprecht, Vedaldi.  ICLR, 2020
[2] Labelling unlabelled videos from scratch with multi-modal self-supervision. Asano, Patrick, Rupprecht, Vedaldi. NeurIPS 2020
[3] Self-supervised learning of object parts for semantic segmentation. Ziegler and Asano. CVPR 2022
[4] Time Does Tell: Self-Supervised Time-Tuning of Dense Image Representations. Salehi, Gavves, Snoek, Asano.
[5] Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video. Venkataramanan, Rizve, Carreira, Avrithis, Asano. ICLR 2024.
 
Forwarded from School of AI
Media is too big
VIEW IN TELEGRAM
محققان علوم اعصاب دانشگاه Montreal به‌کمک هوش مصنوعی، توانایی راه رفتن را به یک موش آزمایشگاهی که دچار ضایعه‌ی نخاعی شده بود برگرداندند.

مقاله چاپ شده در Cell
https://www.cell.com/cell-reports-medicine/fulltext/S2666-3791(23)00118-0

بلاگ‌پست معرفی:
https://www.quebecscience.qc.ca/sciences/les-decouvertes-de-2023/remarcher-intelligence-artificielle/?utm_source=linkedin&utm_medium=social&utm_content=ap_dpcbl8jhrv
👍105🤯3👏1
  کشف جدید هوش مصنوعی/ اثر انگشتان انسان‌ها ممکن است منحصربه‌فرد نباشد!

https://www.bbc.com/news/technology-67944537
😱8😁2🤔1
تحقیقات جدید در زمینه روانشناسی، راز لذت بردن از موسیقی را روشن کرده!

https://www.psypost.org/2024/01/new-psychology-research-sheds-light-on-the-mystery-of-music-enjoyment-220949

این تحقیقات نشان می دهد که لذت ما از موسیقی، از دو عامل اصلی ناشی می شود:

عوامل حسی، مانند صدای واقعی موسیقی
عوامل شناختی، مانند درک و آشنایی ما با سبک های موسیقی

در واقع، موسیقی با تحریک حواس ما، انتظاراتی را در ذهن ما ایجاد می کند. اگر موسیقی با انتظارات ما مطابقت داشته باشد، لذت ما از آن افزایش می یابد. اما اگر موسیقی با انتظارات ما مغایرت داشته باشد، یا انتظارات ما را به تاخیر بیندازد، ممکن است باعث شگفتی یا هیجان ما شود و لذت ما را افزایش دهد.

به عنوان مثال، اگر شنونده ای با سبک موسیقی راک آشنا باشد، انتظار دارد که یک قطعه موسیقی راک شامل ریتم های پرانرژی و صدای بلند باشد. اگر این قطعه موسیقی با این انتظارات مطابقت داشته باشد، شنونده از آن لذت خواهد برد. اما اگر قطعه موسیقی راک شامل ریتم های آرام و صدای ملایم باشد، ممکن است شنونده را غافلگیر کند یا هیجان زده کند و لذت او از موسیقی افزایش یابد.

بنابراین، لذت بردن از موسیقی، به عوامل مختلفی بستگی دارد، از جمله عوامل حسی و شناختی. شناخت ما از موسیقی، نقش مهمی در تعیین انتظارات ما از موسیقی دارد. هرچه بیشتر با سبک های مختلف موسیقی آشنا باشیم، انتظارات دقیق تری از موسیقی خواهیم داشت و لذت بیشتری از آن خواهیم برد.
👍14👌1
Lumiere
Google's multimodal AI video model

لومیر یک مدل دیفیوژن متن به ویدیو است که توسط گوگل توسعه یافته. این مدل، برای ایجاد ویدیوهای واقع گرایانه و متنوع از توصیفات متنی کاربرد داشته و می توان از آن برای طیف گسترده ای از کاربردهای خلاقانه، از جمله فیلمسازی، انیمیشن و ویرایش ویدیو استفاده کرد.

ویژگی های کلیدی:
متن به ویدیو: لومیر می تواند ویدیوهایی تولید کند که از فیلمبرداری دنیای واقعی قابل تشخیص نیستند.
حرکت متنوع و منسجم: لومیر می تواند ویدیوهایی تولید کند که حاوی انواع حرکات، مانند راه رفتن، دویدن و رقص باشد. حرکات نیز منسجم و واقع گرایانه هستند.
استفاده آسان: لومیر حتی برای افرادی که با یادگیری ماشین آشنا نیستند نیز آسان است.
محدوده گسترده ای از کاربردها: لومیر می تواند برای طیف گسترده ای از کاربردهای خلاقانه، از جمله فیلمسازی، انیمیشن و ویرایش ویدیو استفاده شود.

https://lumiere-video.github.io/
👍11🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Supervision-0.18.0
https://github.com/roboflow/supervision


Highlights of new Supervision:

👀Three new annotators: PercentageBar, RoundedBox, and OrientedBox.

🔼Enhanced LineZone feature for improved precision in tracking and analytics.

☄️Integration of Ultralytics YOLOv8 OBB for advanced oriented bounding box models.

#Supervision
🔥72👍1
Media is too big
VIEW IN TELEGRAM
Diffuse to Choose: Enriching Image Conditioned Inpainting in Latent Diffusion Models for Virtual Try-All

Project page: https://diffuse2choose.github.io/
👍84
سخنرانی اخیر جف هینتون در دانشگاه تورنتو که امروز منتشر شده.
عنوان سخنرانی:
Will digital intelligence replace biological intelligence?

https://www.youtube.com/watch?v=iHCeAotHZa4
👍18
A decoder-only foundation model for time-series forecasting

مدل پایه ای (foundation model) فقط رمزگشا برای پیش بینی سری زمانی برای پیش بینی دقیق تر آینده، مدل جدیدی از هوش مصنوعی گوگل!

این مدل جدید هوش مصنوعی بدون نیاز به آموزش زیاد، پیش بینی های دقیقی از داده های جدید ارائه می دهد.

https://blog.research.google/2024/02/a-decoder-only-foundation-model-for.html?m=1


مدل‌های پایه ای یا foundation models از آنجایی که بر روی مجموعه داده‌های عظیم و متنوعی از پیش آموزش دیده‌اند به آنها دانش عمومی وسیعی می‌دهد که می‌توانند از آن برای پیش‌بینی داده‌های جدید بدون نیاز به آموزش اضافی استفاده کنند.

قبلا بیشتر تو زمینه متن و تصویر مقاله و مدل مشاهده میشد، این برای سری زمانیه!
👌14👍5
qualitative example of RRHF model
👍11
Graph Convolutional Networks:
Unleashing the power of Deep Learning for Graph data

🗓زمان برگزاری (به صورت آنلاین): شنبه 28 بهمن ماه 1402
ساعت 17:30 الی 19

📍آدرس اتاق مجازی: https://vc.sharif.edu/ch/cognitive


@irandeeplearning | @cvision
👍182🔥1
Physics-Encoded Graph Neural Networks for Deformation Prediction under Contact

https://mahdi-slh.github.io/DeformContact.html

#GNN #GCN #Graph
👍3