Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
https://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
  کشف جدید هوش مصنوعی/ اثر انگشتان انسان‌ها ممکن است منحصربه‌فرد نباشد!

https://www.bbc.com/news/technology-67944537
😱8😁2🤔1
تحقیقات جدید در زمینه روانشناسی، راز لذت بردن از موسیقی را روشن کرده!

https://www.psypost.org/2024/01/new-psychology-research-sheds-light-on-the-mystery-of-music-enjoyment-220949

این تحقیقات نشان می دهد که لذت ما از موسیقی، از دو عامل اصلی ناشی می شود:

عوامل حسی، مانند صدای واقعی موسیقی
عوامل شناختی، مانند درک و آشنایی ما با سبک های موسیقی

در واقع، موسیقی با تحریک حواس ما، انتظاراتی را در ذهن ما ایجاد می کند. اگر موسیقی با انتظارات ما مطابقت داشته باشد، لذت ما از آن افزایش می یابد. اما اگر موسیقی با انتظارات ما مغایرت داشته باشد، یا انتظارات ما را به تاخیر بیندازد، ممکن است باعث شگفتی یا هیجان ما شود و لذت ما را افزایش دهد.

به عنوان مثال، اگر شنونده ای با سبک موسیقی راک آشنا باشد، انتظار دارد که یک قطعه موسیقی راک شامل ریتم های پرانرژی و صدای بلند باشد. اگر این قطعه موسیقی با این انتظارات مطابقت داشته باشد، شنونده از آن لذت خواهد برد. اما اگر قطعه موسیقی راک شامل ریتم های آرام و صدای ملایم باشد، ممکن است شنونده را غافلگیر کند یا هیجان زده کند و لذت او از موسیقی افزایش یابد.

بنابراین، لذت بردن از موسیقی، به عوامل مختلفی بستگی دارد، از جمله عوامل حسی و شناختی. شناخت ما از موسیقی، نقش مهمی در تعیین انتظارات ما از موسیقی دارد. هرچه بیشتر با سبک های مختلف موسیقی آشنا باشیم، انتظارات دقیق تری از موسیقی خواهیم داشت و لذت بیشتری از آن خواهیم برد.
👍14👌1
Lumiere
Google's multimodal AI video model

لومیر یک مدل دیفیوژن متن به ویدیو است که توسط گوگل توسعه یافته. این مدل، برای ایجاد ویدیوهای واقع گرایانه و متنوع از توصیفات متنی کاربرد داشته و می توان از آن برای طیف گسترده ای از کاربردهای خلاقانه، از جمله فیلمسازی، انیمیشن و ویرایش ویدیو استفاده کرد.

ویژگی های کلیدی:
متن به ویدیو: لومیر می تواند ویدیوهایی تولید کند که از فیلمبرداری دنیای واقعی قابل تشخیص نیستند.
حرکت متنوع و منسجم: لومیر می تواند ویدیوهایی تولید کند که حاوی انواع حرکات، مانند راه رفتن، دویدن و رقص باشد. حرکات نیز منسجم و واقع گرایانه هستند.
استفاده آسان: لومیر حتی برای افرادی که با یادگیری ماشین آشنا نیستند نیز آسان است.
محدوده گسترده ای از کاربردها: لومیر می تواند برای طیف گسترده ای از کاربردهای خلاقانه، از جمله فیلمسازی، انیمیشن و ویرایش ویدیو استفاده شود.

https://lumiere-video.github.io/
👍11🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Supervision-0.18.0
https://github.com/roboflow/supervision


Highlights of new Supervision:

👀Three new annotators: PercentageBar, RoundedBox, and OrientedBox.

🔼Enhanced LineZone feature for improved precision in tracking and analytics.

☄️Integration of Ultralytics YOLOv8 OBB for advanced oriented bounding box models.

#Supervision
🔥72👍1
Media is too big
VIEW IN TELEGRAM
Diffuse to Choose: Enriching Image Conditioned Inpainting in Latent Diffusion Models for Virtual Try-All

Project page: https://diffuse2choose.github.io/
👍84
سخنرانی اخیر جف هینتون در دانشگاه تورنتو که امروز منتشر شده.
عنوان سخنرانی:
Will digital intelligence replace biological intelligence?

https://www.youtube.com/watch?v=iHCeAotHZa4
👍18
A decoder-only foundation model for time-series forecasting

مدل پایه ای (foundation model) فقط رمزگشا برای پیش بینی سری زمانی برای پیش بینی دقیق تر آینده، مدل جدیدی از هوش مصنوعی گوگل!

این مدل جدید هوش مصنوعی بدون نیاز به آموزش زیاد، پیش بینی های دقیقی از داده های جدید ارائه می دهد.

https://blog.research.google/2024/02/a-decoder-only-foundation-model-for.html?m=1


مدل‌های پایه ای یا foundation models از آنجایی که بر روی مجموعه داده‌های عظیم و متنوعی از پیش آموزش دیده‌اند به آنها دانش عمومی وسیعی می‌دهد که می‌توانند از آن برای پیش‌بینی داده‌های جدید بدون نیاز به آموزش اضافی استفاده کنند.

قبلا بیشتر تو زمینه متن و تصویر مقاله و مدل مشاهده میشد، این برای سری زمانیه!
👌14👍5
qualitative example of RRHF model
👍11
Graph Convolutional Networks:
Unleashing the power of Deep Learning for Graph data

🗓زمان برگزاری (به صورت آنلاین): شنبه 28 بهمن ماه 1402
ساعت 17:30 الی 19

📍آدرس اتاق مجازی: https://vc.sharif.edu/ch/cognitive


@irandeeplearning | @cvision
👍182🔥1
Physics-Encoded Graph Neural Networks for Deformation Prediction under Contact

https://mahdi-slh.github.io/DeformContact.html

#GNN #GCN #Graph
👍3
تغییر نام هوش مصنوعی گوگل از «بارد» به
«جمینی»


هوش مصنوعی مکالمه‌ای بزرگ (LLM) گوگل که پیش‌تر با نام «بارد» شناخته می‌شد، از این پس با نام «جمینی» به فعالیت خود ادامه خواهد داد.
نام «جمینی» به معنی «دو قلو» است و به دو مدل زبانی قدرتمند LaMDA و PaLM اشاره دارد که این هوش مصنوعی بر پایه آنها ساخته شده است.
انتظار می‌رود با این تغییر نام، شاهد ارتقای توانایی‌های این هوش مصنوعی در زمینه‌های مختلفی مانند تولید متن‌های خلاقانه و جذاب، پاسخ به سوالات به صورت دقیق و آموزنده، ترجمه زبان‌ها به صورت روان و طبیعی و... باشیم.

همچنین در روز های آینده باید منتظر فعال شدن قابلیت خلق و تولید تصاویر با کمک مدل ImageFX این شرکت باشیم!
🔥18🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
ارتقای ویدئو ها به سطحی جدید با هوش مصنوعی

شبکه FMA-NET، یک شبکه عصبی عمیق مبتنی بر مکانیزم توجه است، که دنیای پردازش ویدئو را متحول می‌کند. این ابزار قدرتمند با سرعتی باورنکردنی و کیفیتی بی‌نظیر، ویدئوهای شما را ارتقا می‌دهد و به سطحی جدید از وضوح و شفافیت می‌برد.

شبکه FMA-NET چه مزایایی دارد؟

سرعت خیره‌کننده: FMA-NET با اتکا به هوش مصنوعی، ویدئوهای شما را در چشم به هم زدنی ارتقا می‌دهد و از این نظر، ابزاری بی‌نظیر محسوب می‌شود.

کیفیت بی‌مثال: FMA-NET با دقت و ظرافت بی‌نظیری، جزئیات تصاویر را مانند ادیتوری ماهر بازیابی می‌کند و
وضوحی کریستالی به آنها می‌بخشد.

رفع تاری: FMA-NET با قدرت جادویی خود، تاری ناشی از لرزش دوربین، حرکت، و کمبود نور را به طور کامل از بین می‌برد و ویدئوهایی شفاف و واضح به شما تحویل می‌دهد.

لینک گیت پروژه
👌11👍41
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
نسخه ۱ از TF-GNN (شبکه‌های عصبی گرافی در تنسورفلو) منتشر شد.

https://blog.tensorflow.org/2024/02/graph-neural-networks-in-tensorflow.html
👍7
آیا واقعا مدل‌های هوش مصنوعی با گذشت زمان بدتر میشن؟

جمیز زو میگه مدل‌هایی مثل چت‌جی‌پی‌تی در طول زمان به مراتب بدتر میشن و عمدتا این به دلیل تعامل با انسان‌هاست.

https://youtu.be/bslcuhWVZ48?si=eXGwa-9vRwiZLJU0

مقاله:
https://arxiv.org/pdf/2307.09009.pdf
👍8😁6