Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
https://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
✳️ دوره‌های Deep-Learning گروه آموزشی class vision

📢🎉کد تخفیف 10 درصدی cvision ویژه اعضای محترم کانال تلگرامی: cvision

اگر
تا کنون دوره ها را تهیه نکرده اید توصیه میشه حتما فایل مصاحبه با شرکت کنندگان را ببینید و همچنین با قسمت های رایگان شروع کنید! کلی ویدیوی رایگان دیگر نیز در کانال آپارات وجود داره!

0️⃣ ویدیوهای رایگان آشنایی با هوش مصنوعی و پایتون

0️⃣
دوره رایگان Python(پایتون) برای هوش مصنوعی

1️⃣ دوره جامع یادگیری عمیق

2️⃣ دوره‌ی شبکه ها عصبی بازگشتی ( LSTM , GRU و RNN)
▫️مشاهده قسمت‌های رایگان

3️⃣ دوره شبکه عصبی گرافی (GNN و GCN)
▫️ویدیو‌ی معرفی دوره | فیلم ارائه معرفی GCN در دانشگاه شریف

4️⃣ دوره‌ی بازشناسی و تشخیص چهره
▫️ مشاهده قسمت‌های رایگان | ثبت‌نام

5️⃣بینایی کامپیوتر با OpenCV
▫️دوره منتشر شده در مکتب خونه

6️⃣
وبینارهای مرتبط رایگان


🔺 اطلاعات بیشتر در کانال و یا سایت class.vision

🔻 هر گونه سوال: @classvision_support

برای خرید گروهی، یا خرید برای اعضای یک کلاس با پشتیبانی تماس بگیرید.

کانال دوره ها:
@class_vision
10👍7👏1
Tensorflow(@CVision) pinned «✳️ دوره‌های Deep-Learning گروه آموزشی class vision 📢🎉کد تخفیف 10 درصدی cvision ویژه اعضای محترم کانال تلگرامی: cvision اگر تا کنون دوره ها را تهیه نکرده اید توصیه میشه حتما فایل مصاحبه با شرکت کنندگان را ببینید و همچنین با قسمت های رایگان شروع کنید! کلی…»
دیتاست سایت باسلام

شامل اطلاعات فروش و مشخصات 2.4 میلیون محصول موجود در سایت باسلام به همراه دیتاست 3.3 میلیونی کامنت محصولات.

🔗لینک دیتاست در هاگینگ فیس
🔗لینک دیتاست در کگل

#دیتاست #مجموعه_داده
21👌3👍2🤩1
BLIP3, a series of large multimodal models (LMMs) developed by Salesforce AI Research. It is a new SOTA model under 5B on few-shot learning and multimodal benchmarks.

Check out the HF release:

https://huggingface.co/Salesforce/blip3-phi3-mini-instruct-r-v1

Key Takeaways:
BLIP3 is trained at scale on high-quality image caption data and image-text interleaved data.
BLIP3 exhibits strong few-shot learning capability as pre-trained base model and impressive visual chat ability after SFT.
BLIP3 supports more efficient token usage compared to methods like LLaVA (more than 5x less).
👍61
This media is not supported in your browser
VIEW IN TELEGRAM
دیگر از ویدیوهای تار خبری نیست

روش جدید Deblur-GS ویدیوهای تار را بازیابی می کند. این روش ادعا میکند عملکرد و کیفیت رندر بالاتری را در مقایسه با روش های قبلی ارائه کرده است.

[I3D 2024] Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
https://github.com/Chaphlagical/Deblur-GS


✴️مرتبط با MAXIM

#blur
👌6👍21
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
فریم‌ورک FeatUp به‌طور مشترک توسط پژوهش‌گران MIT و Microsoft و Berkeley و Google در سمینار ICLR 2024 معرفی شده.

این فریم‌ورک فارق از تسک یا مدل، ویژگی‌های ازدست‌رفته‌ی داده‌ی بینایی (تصویر) در ژرفای مدل را بدون تاثیر در semantic مدل، با دقت قابل‌توجهی بازسازی می‌کند.

سایت:
https://mhamilton.net/featup.html

مقاله:
https://arxiv.org/pdf/2403.10516

کد:
https://github.com/mhamilton723/FeatUp
👍8🔥4
𝗕𝗲𝗻𝘁𝗼𝗠𝗟 vs 𝗧𝗼𝗿𝗰𝗵𝗦𝗲𝗿𝘃𝗲 vs 𝗧𝗲𝗻𝘀𝗼𝗿𝗙𝗹𝗼𝘄 𝗦𝗲𝗿𝘃𝗶𝗻𝗴 vs 𝗡𝗩𝗜𝗗𝗜𝗔 𝗧𝗿𝗶𝘁𝗼𝗻. Let the battle begin! ⚔️

https://www.linkedin.com/posts/axelmdz_mlops-machinelearning-datascience-activity-7194637600861618176-iQaF?utm_source=share&utm_medium=member_desktop
👍4
جهت اطلاع رسانی دوره‌ها، کلاس‌های آنلاین، تخفیف‌ها و غیره مبوط به کلاس ویژن، کانال دیگری نیز ایجاد گردیده که این اطلاعیه ها در بین پستهای این کانال گم نشه!


https://t.iss.one/class_vision
2👍1
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و به صورت رایگان در دسترس همه است!

✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.

🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.


https://openai.com/index/hello-gpt-4o
11
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و  به صورت رایگان در دسترس همه است!

✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.

🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.


https://openai.com/index/hello-gpt-4o
👍19
میدانید دیروز شرکت OpenAI از GPT-4o جدیدترین نسخه ChatGPT رو نمایی کرد 🤖

🆕 با GPT-4o، آخرین پیشرفت OpenAI، که برای عملکرد فوق العاده سریع و کیفیت استثنایی در 50 زبان طراحی شده است، آشنا شویم...

1️⃣ با GPT-4o به راحتی متون، تصاویر و صدا را میتوان مدیریت کرد و به توسعه دهندگان این امکان را می دهد تا با استفاده از OpenAI API به راحتی نوآوری کنند.

2️⃣ مدل ارائه شده ی GPT-4o با سرعتی دو برابر ولی هزینه ی معادل نیمی از هزینه نسل قبلی خود، یعنی GPT-4 Turbo، نوید کارایی بی نظیر و مقرون به صرفه را می دهد.

3️⃣ هوش مصنوعی OpenAI با افتخار "هوش عاطفی" GPT-4o را برجسته می کند، که به طرز ماهرانه ای تعاملات و وقفه های کاربر را مدیریت می کند.

4️⃣ فراتر از ترجمه، GPT-4o با توانایی خود در تغییر تن صدا، افزودن درام یا ...، تحت تاثیر قرار می‌دهد.

5️⃣ اما این همه ماجرا نیست – اعضای تیم مهارت های ریاضی و کمک های کدنویسی GPT-4o را به نمایش گذاشتند و آن را به عنوان رقیب قدرتمندی برای GitHub Copilot مایکروسافت معرفی کردند.


@cvision
15👍7🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از ویژگی های برجسته این مدل جدید صدای واقعی آن است که مطابق با ترجیحات شما سازگار می شود.

@cvision
👍72
This media is not supported in your browser
VIEW IN TELEGRAM
این مدل، GPT-4o می تواند کمیک نیز تولید کند!
یاد گرفته است که شخصیت های شما را به خاطر بسپارد و آنها را در صحنه های مختلف خلق کند.
👍10
این بنده خدا هم با ورژن جدید chatgpt کارتون دخترشو درست کرده...

https://twitter.com/danielkempe/status/1790096679384883217

به اسم فروشگاه و اسم رو بسته دست دختره هم توجه کنید :)
👍62
This media is not supported in your browser
VIEW IN TELEGRAM
پاسخ روشن ایلان ماسک به یک خبرنگار 🔥

سوال: به نظر شما چه کسی برنده کاخ سفید در سال 2024 خواهد بود؟

پاسخ ایلان ماسک: فکر می کنید چه کسی برنده کاخ سفید در سال 2032 خواهد شد؟
کدام نوع هوش مصنوعی؟
ترنسفورمر یا دیفیوژن؟
🔥23💯4😁3🤔2👍1
Forwarded from School of AI
توسعه‌دهندگان از همین امروز می‌توانند در فریم‌ورک LangChain از مدل GPT-4o از طریق API استفاده کنند.

در این کد نمونه، آدرس یک تصویر به مدل داده شده و از مدل خواسته شده محتوای تصویر را شرح دهد.

https://python.langchain.com/v0.1/docs/integrations/chat/openai/
👍4
اگر دوست داشتید ما را در اینستاگرام نیز دنبال کنید:

@class.vision
🙏https://www.instagram.com/class.vision/
3🔥3👍1
خلاصه ارائه دیروز OpenAI و شفاف‌سازی برخی اصطلاحات و زمان‌بندی

دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصه‌وار به اون نگاهی بندازیم و چند تا اصطلاح و زمان‌بندی رو روشن کنیم.

پیشنهاد می‌کنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:

1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیت‌های صوتی جدید چت‌جی‌پی‌تی و رایگان شدن آن]

شاید با دیدن قابلیت‌های صوتی جدید در چت‌جی‌پی‌تی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.

چت‌جی‌پی‌تی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل می‌کنه، نه با اون سرعت و هوشمندی‌ای که توی نمایش‌ها دیدیم.
در حال حاضر، چت‌جی‌پی‌تی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده می‌کنه. قابلیت‌های صوتی و تصویری جدید GPT-4o به زودی به چت‌جی‌پی‌تی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).

یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت می‌کنه. مدل سریع‌تر و جدیدتر به زودی در دسترس قرار می‌گیره، بله، و حتی بعدا می‌تونه آواز هم بخونه!

اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آماده‌ست، ولی فعلا فقط برای مک. به تدریج در مناطق و حساب‌های کاربری مختلف عرضه میشه. چت‌جی‌پی‌تی به شما اطلاع میده.

برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.

درباره محدودیت پیام: "کاربران پلاس می‌تونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حساب‌های رایگان، این محدودیت می‌تونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حساب‌های رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر می‌کنه.

ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیام‌های یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.

مدل جدید تصاویر رو بهتر درک می‌کنه: قابلیت‌های تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.

دو برابر سریع‌تره (این توی چت‌جی‌پی‌تی قابل توجهه): GPT-4o دو برابر سریع‌تر از GPT-4 توربو هست.

پشتیبانی GPT-4o از زبان‌های غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.

برای علاقه‌مندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزون‌تره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.

این قابلیت‌های چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر می‌کنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.

در همین حال، GPT-4o در تست‌های مختلف عملکرد بهتری نسبت به مدل‌های دیگه داره و به صورت رایگان در چت‌جی‌پی‌تی در دسترسه.

🖇مطالب مرتبط:
https://t.iss.one/cvision/3513
https://t.iss.one/cvision/3514
https://t.iss.one/cvision/3517
https://t.iss.one/cvision/3518
https://t.iss.one/cvision/3519

@cvision
👍6👌5