✳️ دورههای Deep-Learning گروه آموزشی class vision
📢🎉کد تخفیف 10 درصدی cvision ویژه اعضای محترم کانال تلگرامی:
اگر تا کنون دوره ها را تهیه نکرده اید توصیه میشه حتما فایل مصاحبه با شرکت کنندگان را ببینید و همچنین با قسمت های رایگان شروع کنید! کلی ویدیوی رایگان دیگر نیز در کانال آپارات وجود داره!
0️⃣ ویدیوهای رایگان آشنایی با هوش مصنوعی و پایتون
0️⃣ دوره رایگان Python(پایتون) برای هوش مصنوعی
1️⃣ دوره جامع یادگیری عمیق
2️⃣ دورهی شبکه ها عصبی بازگشتی ( LSTM , GRU و RNN)
▫️مشاهده قسمتهای رایگان
3️⃣ دوره شبکه عصبی گرافی (GNN و GCN)
▫️ویدیوی معرفی دوره | فیلم ارائه معرفی GCN در دانشگاه شریف
4️⃣ دورهی بازشناسی و تشخیص چهره
▫️ مشاهده قسمتهای رایگان | ثبتنام
5️⃣بینایی کامپیوتر با OpenCV
▫️دوره منتشر شده در مکتب خونه
6️⃣وبینارهای مرتبط رایگان
🔺 اطلاعات بیشتر در کانال و یا سایت class.vision
🔻 هر گونه سوال: @classvision_support
برای خرید گروهی، یا خرید برای اعضای یک کلاس با پشتیبانی تماس بگیرید.
کانال دوره ها:
@class_vision
📢🎉کد تخفیف 10 درصدی cvision ویژه اعضای محترم کانال تلگرامی:
cvisionاگر تا کنون دوره ها را تهیه نکرده اید توصیه میشه حتما فایل مصاحبه با شرکت کنندگان را ببینید و همچنین با قسمت های رایگان شروع کنید! کلی ویدیوی رایگان دیگر نیز در کانال آپارات وجود داره!
0️⃣ ویدیوهای رایگان آشنایی با هوش مصنوعی و پایتون
0️⃣ دوره رایگان Python(پایتون) برای هوش مصنوعی
1️⃣ دوره جامع یادگیری عمیق
2️⃣ دورهی شبکه ها عصبی بازگشتی ( LSTM , GRU و RNN)
▫️مشاهده قسمتهای رایگان
3️⃣ دوره شبکه عصبی گرافی (GNN و GCN)
▫️ویدیوی معرفی دوره | فیلم ارائه معرفی GCN در دانشگاه شریف
4️⃣ دورهی بازشناسی و تشخیص چهره
▫️ مشاهده قسمتهای رایگان | ثبتنام
5️⃣بینایی کامپیوتر با OpenCV
▫️دوره منتشر شده در مکتب خونه
6️⃣وبینارهای مرتبط رایگان
🔺 اطلاعات بیشتر در کانال و یا سایت class.vision
🔻 هر گونه سوال: @classvision_support
برای خرید گروهی، یا خرید برای اعضای یک کلاس با پشتیبانی تماس بگیرید.
کانال دوره ها:
@class_vision
آپارات - سرویس اشتراک ویدیو
مصاحبه با شرکت کنندگان دوره دیپ لرنینگ
دوره تخصصی بکه های بازگشتی (rnnها) در صندوق شکوفایی و نوآوری ریاست جمهوری تهران برگزار شده و فیلم آفلاین این دوره در سایت https://class.vision/deeplearning2/
❤10👍7👏1
Tensorflow(@CVision) pinned «✳️ دورههای Deep-Learning گروه آموزشی class vision 📢🎉کد تخفیف 10 درصدی cvision ویژه اعضای محترم کانال تلگرامی: cvision اگر تا کنون دوره ها را تهیه نکرده اید توصیه میشه حتما فایل مصاحبه با شرکت کنندگان را ببینید و همچنین با قسمت های رایگان شروع کنید! کلی…»
📢جهت اطلاع برای علاقه مندان،
سایت مکتبخونه روی دوره OpenCV فروش فوق العاده و تخفیف 55 درصدی گذاشته است.
سایت مکتبخونه روی دوره OpenCV فروش فوق العاده و تخفیف 55 درصدی گذاشته است.
مکتبخونه
آموزش پردازش تصویر و بینایی ماشین با OpenCV
دوره آموزش پردازش تصویر و بینایی ماشین با opencv برای ایجاد یک پایه قوی در بینایی کامپیوتر طراحی شده است. در این دوره شما درک کاملی از تقریبا تمام ابزارهای OpenCV برای پردازش تصویر، بینایی کامپیوتری، پردازش ویدئو و اصول اولیه هوش مصنوعی خواهید داشت.
❤8👍1
دیتاست سایت باسلام
شامل اطلاعات فروش و مشخصات 2.4 میلیون محصول موجود در سایت باسلام به همراه دیتاست 3.3 میلیونی کامنت محصولات.
🔗لینک دیتاست در هاگینگ فیس
🔗لینک دیتاست در کگل
#دیتاست #مجموعه_داده
شامل اطلاعات فروش و مشخصات 2.4 میلیون محصول موجود در سایت باسلام به همراه دیتاست 3.3 میلیونی کامنت محصولات.
🔗لینک دیتاست در هاگینگ فیس
🔗لینک دیتاست در کگل
#دیتاست #مجموعه_داده
huggingface.co
RadeAI/BaSalam_comments_products · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤21👌3👍2🤩1
BLIP3, a series of large multimodal models (LMMs) developed by Salesforce AI Research. It is a new SOTA model under 5B on few-shot learning and multimodal benchmarks.
Check out the HF release:
https://huggingface.co/Salesforce/blip3-phi3-mini-instruct-r-v1
Key Takeaways:
BLIP3 is trained at scale on high-quality image caption data and image-text interleaved data.
BLIP3 exhibits strong few-shot learning capability as pre-trained base model and impressive visual chat ability after SFT.
BLIP3 supports more efficient token usage compared to methods like LLaVA (more than 5x less).
Check out the HF release:
https://huggingface.co/Salesforce/blip3-phi3-mini-instruct-r-v1
Key Takeaways:
BLIP3 is trained at scale on high-quality image caption data and image-text interleaved data.
BLIP3 exhibits strong few-shot learning capability as pre-trained base model and impressive visual chat ability after SFT.
BLIP3 supports more efficient token usage compared to methods like LLaVA (more than 5x less).
👍6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
❌ دیگر از ویدیوهای تار خبری نیست
روش جدید Deblur-GS ویدیوهای تار را بازیابی می کند. این روش ادعا میکند عملکرد و کیفیت رندر بالاتری را در مقایسه با روش های قبلی ارائه کرده است.
[I3D 2024] Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
https://github.com/Chaphlagical/Deblur-GS
✴️مرتبط با MAXIM
#blur
روش جدید Deblur-GS ویدیوهای تار را بازیابی می کند. این روش ادعا میکند عملکرد و کیفیت رندر بالاتری را در مقایسه با روش های قبلی ارائه کرده است.
[I3D 2024] Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
https://github.com/Chaphlagical/Deblur-GS
✴️مرتبط با MAXIM
#blur
👌6👍2❤1
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
فریمورک FeatUp بهطور مشترک توسط پژوهشگران MIT و Microsoft و Berkeley و Google در سمینار ICLR 2024 معرفی شده.
این فریمورک فارق از تسک یا مدل، ویژگیهای ازدسترفتهی دادهی بینایی (تصویر) در ژرفای مدل را بدون تاثیر در semantic مدل، با دقت قابلتوجهی بازسازی میکند.
سایت:
https://mhamilton.net/featup.html
مقاله:
https://arxiv.org/pdf/2403.10516
کد:
https://github.com/mhamilton723/FeatUp
این فریمورک فارق از تسک یا مدل، ویژگیهای ازدسترفتهی دادهی بینایی (تصویر) در ژرفای مدل را بدون تاثیر در semantic مدل، با دقت قابلتوجهی بازسازی میکند.
سایت:
https://mhamilton.net/featup.html
مقاله:
https://arxiv.org/pdf/2403.10516
کد:
https://github.com/mhamilton723/FeatUp
👍8🔥4
𝗕𝗲𝗻𝘁𝗼𝗠𝗟 vs 𝗧𝗼𝗿𝗰𝗵𝗦𝗲𝗿𝘃𝗲 vs 𝗧𝗲𝗻𝘀𝗼𝗿𝗙𝗹𝗼𝘄 𝗦𝗲𝗿𝘃𝗶𝗻𝗴 vs 𝗡𝗩𝗜𝗗𝗜𝗔 𝗧𝗿𝗶𝘁𝗼𝗻. Let the battle begin! ⚔️
https://www.linkedin.com/posts/axelmdz_mlops-machinelearning-datascience-activity-7194637600861618176-iQaF?utm_source=share&utm_medium=member_desktop
https://www.linkedin.com/posts/axelmdz_mlops-machinelearning-datascience-activity-7194637600861618176-iQaF?utm_source=share&utm_medium=member_desktop
👍4
جهت اطلاع رسانی دورهها، کلاسهای آنلاین، تخفیفها و غیره مبوط به کلاس ویژن، کانال دیگری نیز ایجاد گردیده که این اطلاعیه ها در بین پستهای این کانال گم نشه!
https://t.iss.one/class_vision
https://t.iss.one/class_vision
Telegram
🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
کلاس ویژن، مرجع آموزهای تخصصی دیپ لرنینگ و بینایی کامپیوتر
سایت دوره
https://class.vision
👨💻👩 پشتیبانی:
@classvision_support
AI, TensorFlow, Keras, Deep Learning, Computer Vision, GNN, GCN, RNN, LSTM,GRU, GAN, ...
کانال آموزشی:
@cvision
سایت دوره
https://class.vision
👨💻👩 پشتیبانی:
@classvision_support
AI, TensorFlow, Keras, Deep Learning, Computer Vision, GNN, GCN, RNN, LSTM,GRU, GAN, ...
کانال آموزشی:
@cvision
❤2👍1
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و به صورت رایگان در دسترس همه است!
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
❤11
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️مدل جدید GPT-4 Omni برای ChatGPT امروز معرفی شد و به صورت رایگان در دسترس همه است!
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
✔️مدل جدید بسیار هوشمندتر و بهتر از تمام نسخه های قدیمی است.
🔊📸📝لازم به ذکر است این مدل روی صوت، تصویر و متن نیز کار میکنه.
https://openai.com/index/hello-gpt-4o
👍19
میدانید دیروز شرکت OpenAI از GPT-4o جدیدترین نسخه ChatGPT رو نمایی کرد 🤖
🆕 با GPT-4o، آخرین پیشرفت OpenAI، که برای عملکرد فوق العاده سریع و کیفیت استثنایی در 50 زبان طراحی شده است، آشنا شویم...
1️⃣ با GPT-4o به راحتی متون، تصاویر و صدا را میتوان مدیریت کرد و به توسعه دهندگان این امکان را می دهد تا با استفاده از OpenAI API به راحتی نوآوری کنند.
2️⃣ مدل ارائه شده ی GPT-4o با سرعتی دو برابر ولی هزینه ی معادل نیمی از هزینه نسل قبلی خود، یعنی GPT-4 Turbo، نوید کارایی بی نظیر و مقرون به صرفه را می دهد.
3️⃣ هوش مصنوعی OpenAI با افتخار "هوش عاطفی" GPT-4o را برجسته می کند، که به طرز ماهرانه ای تعاملات و وقفه های کاربر را مدیریت می کند.
4️⃣ فراتر از ترجمه، GPT-4o با توانایی خود در تغییر تن صدا، افزودن درام یا ...، تحت تاثیر قرار میدهد.
5️⃣ اما این همه ماجرا نیست – اعضای تیم مهارت های ریاضی و کمک های کدنویسی GPT-4o را به نمایش گذاشتند و آن را به عنوان رقیب قدرتمندی برای GitHub Copilot مایکروسافت معرفی کردند.
@cvision
🆕 با GPT-4o، آخرین پیشرفت OpenAI، که برای عملکرد فوق العاده سریع و کیفیت استثنایی در 50 زبان طراحی شده است، آشنا شویم...
1️⃣ با GPT-4o به راحتی متون، تصاویر و صدا را میتوان مدیریت کرد و به توسعه دهندگان این امکان را می دهد تا با استفاده از OpenAI API به راحتی نوآوری کنند.
2️⃣ مدل ارائه شده ی GPT-4o با سرعتی دو برابر ولی هزینه ی معادل نیمی از هزینه نسل قبلی خود، یعنی GPT-4 Turbo، نوید کارایی بی نظیر و مقرون به صرفه را می دهد.
3️⃣ هوش مصنوعی OpenAI با افتخار "هوش عاطفی" GPT-4o را برجسته می کند، که به طرز ماهرانه ای تعاملات و وقفه های کاربر را مدیریت می کند.
4️⃣ فراتر از ترجمه، GPT-4o با توانایی خود در تغییر تن صدا، افزودن درام یا ...، تحت تاثیر قرار میدهد.
5️⃣ اما این همه ماجرا نیست – اعضای تیم مهارت های ریاضی و کمک های کدنویسی GPT-4o را به نمایش گذاشتند و آن را به عنوان رقیب قدرتمندی برای GitHub Copilot مایکروسافت معرفی کردند.
@cvision
❤15👍7🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از ویژگی های برجسته این مدل جدید صدای واقعی آن است که مطابق با ترجیحات شما سازگار می شود.
@cvision
@cvision
👍7❤2
This media is not supported in your browser
VIEW IN TELEGRAM
این مدل، GPT-4o می تواند کمیک نیز تولید کند!
یاد گرفته است که شخصیت های شما را به خاطر بسپارد و آنها را در صحنه های مختلف خلق کند.
یاد گرفته است که شخصیت های شما را به خاطر بسپارد و آنها را در صحنه های مختلف خلق کند.
👍10
این بنده خدا هم با ورژن جدید chatgpt کارتون دخترشو درست کرده...
https://twitter.com/danielkempe/status/1790096679384883217
به اسم فروشگاه و اسم رو بسته دست دختره هم توجه کنید :)
https://twitter.com/danielkempe/status/1790096679384883217
به اسم فروشگاه و اسم رو بسته دست دختره هم توجه کنید :)
👍6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
پاسخ روشن ایلان ماسک به یک خبرنگار 🔥
سوال: به نظر شما چه کسی برنده کاخ سفید در سال 2024 خواهد بود؟
پاسخ ایلان ماسک: فکر می کنید چه کسی برنده کاخ سفید در سال 2032 خواهد شد؟
کدام نوع هوش مصنوعی؟
ترنسفورمر یا دیفیوژن؟
سوال: به نظر شما چه کسی برنده کاخ سفید در سال 2024 خواهد بود؟
پاسخ ایلان ماسک: فکر می کنید چه کسی برنده کاخ سفید در سال 2032 خواهد شد؟
کدام نوع هوش مصنوعی؟
ترنسفورمر یا دیفیوژن؟
🔥23💯4😁3🤔2👍1
Forwarded from School of AI
توسعهدهندگان از همین امروز میتوانند در فریمورک LangChain از مدل GPT-4o از طریق API استفاده کنند.
در این کد نمونه، آدرس یک تصویر به مدل داده شده و از مدل خواسته شده محتوای تصویر را شرح دهد.
https://python.langchain.com/v0.1/docs/integrations/chat/openai/
در این کد نمونه، آدرس یک تصویر به مدل داده شده و از مدل خواسته شده محتوای تصویر را شرح دهد.
https://python.langchain.com/v0.1/docs/integrations/chat/openai/
👍4
Forwarded from 🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
اگر دوست داشتید ما را در اینستاگرام نیز دنبال کنید:
@class.vision
🙏https://www.instagram.com/class.vision/
@class.vision
🙏https://www.instagram.com/class.vision/
❤3🔥3👍1
خلاصه ارائه دیروز OpenAI و شفافسازی برخی اصطلاحات و زمانبندی
دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصهوار به اون نگاهی بندازیم و چند تا اصطلاح و زمانبندی رو روشن کنیم.
پیشنهاد میکنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:
1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیتهای صوتی جدید چتجیپیتی و رایگان شدن آن]
شاید با دیدن قابلیتهای صوتی جدید در چتجیپیتی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.
چتجیپیتی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل میکنه، نه با اون سرعت و هوشمندیای که توی نمایشها دیدیم.
در حال حاضر، چتجیپیتی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده میکنه. قابلیتهای صوتی و تصویری جدید GPT-4o به زودی به چتجیپیتی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).
یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت میکنه. مدل سریعتر و جدیدتر به زودی در دسترس قرار میگیره، بله، و حتی بعدا میتونه آواز هم بخونه!
اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آمادهست، ولی فعلا فقط برای مک. به تدریج در مناطق و حسابهای کاربری مختلف عرضه میشه. چتجیپیتی به شما اطلاع میده.
برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.
درباره محدودیت پیام: "کاربران پلاس میتونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حسابهای رایگان، این محدودیت میتونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حسابهای رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر میکنه.
ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیامهای یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.
مدل جدید تصاویر رو بهتر درک میکنه: قابلیتهای تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.
دو برابر سریعتره (این توی چتجیپیتی قابل توجهه): GPT-4o دو برابر سریعتر از GPT-4 توربو هست.
پشتیبانی GPT-4o از زبانهای غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.
برای علاقهمندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزونتره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.
این قابلیتهای چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر میکنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.
در همین حال، GPT-4o در تستهای مختلف عملکرد بهتری نسبت به مدلهای دیگه داره و به صورت رایگان در چتجیپیتی در دسترسه.
🖇مطالب مرتبط:
https://t.iss.one/cvision/3513
https://t.iss.one/cvision/3514
https://t.iss.one/cvision/3517
https://t.iss.one/cvision/3518
https://t.iss.one/cvision/3519
@cvision
دیروز OpenAI ارائه خیلی جالبی داشت که سریع ترند شد! بیایید باهم خلاصهوار به اون نگاهی بندازیم و چند تا اصطلاح و زمانبندی رو روشن کنیم.
پیشنهاد میکنم دو تا داکیومنت کوتاه رو که دیروز منتشر شدن بخونید:
1️⃣ [لینک اول توضیح دسترسی به GPT-4، GPT-4 Turbo و GPT-4o]
2️⃣ [لینک دوم درباره قابلیتهای صوتی جدید چتجیپیتی و رایگان شدن آن]
شاید با دیدن قابلیتهای صوتی جدید در چتجیپیتی وسوسه شدید اون رو امتحان کنید، ولی متاسفانه باید فعلا صبر کنید😩.
چتجیپیتی فعلا به روش قدیمی جواب شما رو میده. یعنی متن رو به صوت و برعکس تبدیل میکنه، نه با اون سرعت و هوشمندیای که توی نمایشها دیدیم.
در حال حاضر، چتجیپیتی از قابلیت “حالت صوتی” که از اول وجود داشته برای پشتیبانی از صدا استفاده میکنه. قابلیتهای صوتی و تصویری جدید GPT-4o به زودی به چتجیپیتی اضافه میشه. (بیشتر در این مورد پایین توضیح میدیم).
یعنی مدل هوشمند جدید با روش قدیمی (کندتر) با شما صحبت میکنه. مدل سریعتر و جدیدتر به زودی در دسترس قرار میگیره، بله، و حتی بعدا میتونه آواز هم بخونه!
اون اپلیکیشن با تمام امکاناتی که توی نمایش دیدیم، آمادهست، ولی فعلا فقط برای مک. به تدریج در مناطق و حسابهای کاربری مختلف عرضه میشه. چتجیپیتی به شما اطلاع میده.
برای ویندوز فعلا خبری نیست: قراره اواخر امسال نسخه ویندوز هم عرضه بشه.
درباره محدودیت پیام: "کاربران پلاس میتونن تا ۸۰ پیام هر ۳ ساعت با GPT-4o و تا ۴۰ پیام هر ۳ ساعت با GPT-4 ارسال کنن. ممکنه این محدودیت در ساعات اوج ترافیک برای اینکه GPT-4 و GPT-4o برای تعداد بیشتری از افراد در دسترس باشه، کاهش پیدا کنه." برای حسابهای رایگان، این محدودیت میتونه خیلی کم باشه، مخصوصا اگه سرور نزدیک شما شلوغ باشه. حتی گاهی اوقات فقط ۲ تا ۴ پیام. اول از همه محدودیت حسابهای رایگان کم میشه و به ۳.۵ تا پیام در هر ۳ ساعت تغییر میکنه.
ظرفیت حافظه مدل GPT-4o هم 128 کیلوبایت هست. خیلی زیاده. برای ۹۵ درصد از کاربران خیلی زیاده. به طور کلی این مقدار، حجم متن و پیامهای یه چت رو شامل میشه که مدل برای پاسخ دادن به شما توی حافظه نگه میداره تا بر اساس اطلاعاتی که "تو مغزش داره" جواب بده.
مدل جدید تصاویر رو بهتر درک میکنه: قابلیتهای تصویری GPT-4o عملکرد بهتری نسبت به GPT-4 توربو داره.
دو برابر سریعتره (این توی چتجیپیتی قابل توجهه): GPT-4o دو برابر سریعتر از GPT-4 توربو هست.
پشتیبانی GPT-4o از زبانهای غیرانگلیسی نسبت به GPT-4 توربو بهبود پیدا کرده.
برای علاقهمندان به API:
قیمت: GPT-4o نسبت به GPT-4 توربو ۵۰ درصد ارزونتره و قیمتش ۵ دلار به ازای هر یک میلیون توکن ورودی و ۱۵ دلار به ازای هر یک میلیون توکن خروجی هست.
محدودیت سرعت: محدودیت سرعت GPT-4o پنج برابر بیشتر از GPT-4 توربو هست - تا ۱۰ میلیون توکن در دقیقه.
این قابلیتهای چندوجهی به تدریج فعال میشن. مثلا تبدیل صدا به صدا، تصویر به تصویر، و مکالمه با ویدیو. فکر میکنم به زودی شاهد آپدیت DALL·E 3 یا یه روش کاملا جدید برای تولید تصویر باشیم. باید صبر کنیم.
در همین حال، GPT-4o در تستهای مختلف عملکرد بهتری نسبت به مدلهای دیگه داره و به صورت رایگان در چتجیپیتی در دسترسه.
🖇مطالب مرتبط:
https://t.iss.one/cvision/3513
https://t.iss.one/cvision/3514
https://t.iss.one/cvision/3517
https://t.iss.one/cvision/3518
https://t.iss.one/cvision/3519
@cvision
👍6👌5