Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
https://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
این ویدیو آموزشی درباره نحوه ذخیره‌سازی اطلاعات در مدل‌های زبان بزرگ هستش

ویدیو با یک مثال شروع می‌شه: اگر به یک مدل زبانی بزرگ عبارت
مایکل جردن ___ بازی می‌کند

را بدین و از اون بخواین پیش‌بینی کنه که کلمه بعدی چی باید باشه، اگر مدل به درستی "بسکتبال"رو پیش‌بینی کنه، نشان دهنده این هستش که در جایی از صدها میلیارد پارامتر اون، اطلاعاتی درباره یک فرد خاص و ورزش خاص او ذخیره شده.

سپس ویدیو به این سوال می‌پردازه که این اطلاعات چگونه ذخیره میشن و کجا قرار دارند. محققان گوگل DeepMind در این زمینه تحقیق کردن و نتیجه گرفتن که این اطلاعات در بخشی از شبکه‌های عصبی به نام "چندلایه پرسپترون" (MLPs) ذخیره می‌شن، اما درک کامل مکانیسم این ذخیره‌سازی هنوز حل نشده.

ویدیو سپس به جزئیات معماری ترانسفورمرها، که پایه و اساس بسیاری از مدل‌های زبان بزرگ هستند، می‌پردازه. بخش اصلی این معماری "چندلایه پرسپترون"ه که محاسبات اون نسبتا ساده، اما تفسیر این محاسبات بسیار چالش‌برانگیزه.

هدف اصلی ویدیو بررسی این محاسبات و ارائه یک مثال مشخص از نحوه ذخیره‌سازی یک واقعیت در این بخش از شبکه ست. این مثال نشون می‌ده که چگونه مدل می‌تونه واقعیت "مایکل جردن بسکتبال بازی می‌کند" را ذخیره کنه.

ویدیو سپس به جزئیات محاسبات در " پرسپترون چند لایه" می‌پردازه، از جمله ضرب ماتریس‌ها و تابع غیرخطی ReLU. همچنین به تعداد پارامترهای این بخش و نحوه عملکرد آن در پیش‌بینی کلمه بعدی می‌پردازه.

در نهایت، ویدیو به ایده "اثر همپوشانی" اشاره می‌کنه که و توضیح میده چرا مدل‌های زبان بزرگ با افزایش اندازه عملکرد بهتری دارن. این ایده می‌گه که در فضاهای با ابعاد بالا، می‌توان اطلاعات زیادی را در فضاهای تقریبا عمود به هم ذخیره کرد، حتی اگر این اطلاعات کاملاً مستقل نباشن.


https://youtu.be/9-Jl0dxWQs8
👍104
مهمترین رویدادهای هوش مصنوعی در ماه آگوست

Black Forest Labs
مدل تولید تصویر Flux را معرفی کرد که عملکرد بهتری نسبت به مدل‌های مشابه با منبع بسته دارد.

OpenAI
نسخه جدیدی از مدل خود، gpt4o 0806، را منتشر کرد که 100% موفقیت در تولید خروجی JSON معتبر دارد.

Google
مدل تولید تصویر Imagen 3 را منتشر کرد.

xAI Corporation
مدل‌های Grok 2 و Grok 2 mini را معرفی کرد که عملکردی برابر با مدل‌های برتر SOTA در صنعت دارند.

Microsoft
مدل‌های کوچک زبانی خود، Phi 3.5، را در سه نسخه معرفی کرد که هر کدام عملکرد چشمگیری نسبت به اندازه خود نشان می‌دهند.

Google
سه مدل جدید آزمایشگاهی AI را معرفی کرد: Gemini 1.5 Flash8B، Gemini 1.5 Pro Enhanced و Gemini 1.5 Flash Updated.

Ideogram 2.0
منتشر شد و قابلیت‌های تولید تصویر را ارائه می‌دهد که از سایر مدل‌های برتر پیشی می‌گیرد.

Luma
مدل Dream Machine 1.5 را برای تولید ویدیو معرفی کرد.

Magic AI
یک مدل جدید زبان به نام LTM2mini را توسعه داد که می‌تواند با یک پنجره زمینه 100 میلیون توکن کار کند.

https://nhlocal.github.io/AiTimeline/#2024
👍20🔥1👌1
ارسالی از کاربران کانال:

من همیشه موقع دیباگ کردن و اجرای llm هام خیلی اوقات ریکوئست‌هام تکراری ان و نتایجشون هم یکیه برا همین یک ابزار رو برای cache کردن همه اون ریکوئست‌ها درست کردم
این ابزارچون به صورت یه پراکسی ساخته شده پس نیازی به تغییری در کدتون ندارید
لینک گیتهاب:
https://github.com/MSNP1381/cache-cool
👍43
Forwarded from School of AI (Hamidreza Hosseinkhani)
گوگل نامِ TensorFlow Lite را به LiteRT تغییر داد.

درابتدا، TFLite نسخه‌ای سبک از مدل‌های تنسورفلو برای اجرا روی دستگاه‌های موبایل بود.

اما در ادامه تبدیل به یک runtime عمومی برای اجرای مدل‌های یادگیری ماشین نوشته‌شده توسط TensorFlow و Keras و Pytorch و JAX برروی دستگاه‌های Edge از جمله موبایل‌های اندرویدی و iOS و همین‌طور Embedded Devices شد.

نام جدید، بیان‌گر ویژن جدید این محصول‌ست.

https://developers.googleblog.com/en/tensorflow-lite-is-now-litert/?linkId=10850223
2👍2
مدیر اجرایی سامسونگ توی رویداد CEO summit که اخیرا برگذار شد افشا کرد که gpt 5 بیش از  ۳ و نیم تریلیون پارامتر داره و نسبت به مدل قبلی بارها هوشمند تره. به نظر تمرکز همچنان روی حفظ بخش عظیم‌تر داده های  اینترنت توسط مدل های بزرگ هست
Tensorflow(@CVision)
مدیر اجرایی سامسونگ توی رویداد CEO summit که اخیرا برگذار شد افشا کرد که gpt 5 بیش از  ۳ و نیم تریلیون پارامتر داره و نسبت به مدل قبلی بارها هوشمند تره. به نظر تمرکز همچنان روی حفظ بخش عظیم‌تر داده های  اینترنت توسط مدل های بزرگ هست
توی دقیقه ۲۷ این گفتگو آندری کارپاتی میگه:
مدلهای هوشمند نسل اینده به طرز شگفت‌آوری کوچک هستن و باور داره که مدل‌های فعلی ظرفیت زیادی رو صرف یادآوری چیزهایی می‌کنن که مهم نیستن، از طرفی مجموعه داده‌ها به بهترین شکل انتخاب نشدن.

میگه ما باید به هسته شناختی برسیم و به نظرم این هسته شناختی میتونه بسیار کوچیک باشه. این هسته چیزیه که فکر می‌کنه و اگر نیاز به جستجوی اطلاعات داشته باشه، می‌دونه چطوری از ابزارهای مختلف استفاده کنه. میگه بنظر من حتی مدلی با یک میلیارد پارامتر هم کافیه.(برگرفته شده از تقطیر دانش مدل های بزرگتر)

https://youtu.be/hM_h0UA7upI


Ray Kurzweil 
میگه:
در بین اندام‌های مغز، فقط یک بخش برای درک و بیان فرآیندهای منطقی بهینه شده و اون لایه بیرونی مغز که قشر مخ نام داره. این بخش تکامل‌یافته، برخلاف بقیه مغز، نسبتاً تخته و ضخامت اون تنها حدود ۰٫۳۲ سانتی‌متر و شامل ۶ میلیون نورون میشه. این اندام پیچ‌درپیچ، اون توانایی رو که برای درک کارها و خودمان داریم، رو به ما می‌ده

https://www.azquotes.com/quote/847331
👍262
 مدل متن باز Reflection 70B معرفی شد، و ادعا میشه بهترین مدل اوپن سورس جهان باشه!

این مدل با استفاده از تکنیک Reflection-Tuning آموزش دیده، تکنیکی که به مدل‌های زبانی بزرگ اجازه می‌ده تا اشتباهات خودشون رو اصلاح کنن

مدل 405B هفته آینده منتشر خواهد شد و انتظار می‌ره که این مدل بهترین مدل در جهان باشه


دمو:
https://reflection-playground-production.up.railway.app/

دانلود:

https://huggingface.co/mattshumer/Reflection-70B
15👍5🔥5🙏1👌1
Tensorflow(@CVision)
 مدل متن باز Reflection 70B معرفی شد، و ادعا میشه بهترین مدل اوپن سورس جهان باشه! این مدل با استفاده از تکنیک Reflection-Tuning آموزش دیده، تکنیکی که به مدل‌های زبانی بزرگ اجازه می‌ده تا اشتباهات خودشون رو اصلاح کنن مدل 405B هفته آینده منتشر خواهد شد و انتظار…
لازم به ذکره Reflection 70B حتی در برابر پیشرفته‌ترین مدل‌های متن بسته (مانند Claude 3.5 Sonnet و GPT-4o) نیز عملکرد بسیار خوبی داره و بهترین مدل زبانی بزرگ در حداقل آزمون‌های MMLU، MATH، IFEval و GSM8K هست و در تمام معیارهای ارزیابی شده، GPT-4o رو شکست می‌ده، به صورتی که عملکرد Llama 405B حتی به این مدل نزدیک نیست!


مدل‌های زبانی بزرگ کنونی، تمایل به توهم‌زنی دارن و نمیتونن زمانی که این کار رو دارن انجام میدن تشخیص بدن.

در زمینه هوش مصنوعی، وقتی میگیم یه مدل زبانی بزرگ (LLM) "توهم می‌زنه"، به این معنیه که اون مدل اطلاعاتی رو تولید می‌کنه که با واقعیت مطابقت نداره. به عبارت دیگه، مدل اطلاعاتی رو ایجاد می‌کنه که گویی واقعی هستن، در حالی که در واقع ساخته ذهن خود مدله.

برای مثال: اگه از یه مدل زبانی بپرسین که اولین انسان روی ماه چه کسی بود و مدل به شما یک نام جعلی بده، در این صورت مدل در حال توهم زدنه.

اما Reflection-Tuning به مدل‌های زبانی بزرگ اجازه می‌ده تا اشتباهات خودش رو تشخیص بدن و قبل از ارائه پاسخ، اونها رو تصحیح کنن

جزییات و مقاله هفته آینده منتشر میشه و بیشتر در مورد اون خواهیم نوشت
👍162🔥2🤔1
Tensorflow(@CVision)
لازم به ذکره Reflection 70B حتی در برابر پیشرفته‌ترین مدل‌های متن بسته (مانند Claude 3.5 Sonnet و GPT-4o) نیز عملکرد بسیار خوبی داره و بهترین مدل زبانی بزرگ در حداقل آزمون‌های MMLU، MATH، IFEval و GSM8K هست و در تمام معیارهای ارزیابی شده، GPT-4o رو شکست می‌ده،…
متد جدیدی که در این کار ارایه شده بسیار حائز اهمیته و به مدل‌های زبانی اجازه می‌ده تا خودشون رو بهبود بدن. این به معنای کاهش وابستگی به داده‌های آموزشیه که یکی از چالش‌های اصلی در توسعه مدل‌های زبانی این روزهاست

این روش شبیه به نحوه عملکرد AlphaZero هست. Demis Hassabis نیز مدتیه در مورد ترکیب بازی خودکار با مدل‌های زبانی بزرگ صحبت میکنه. نکات ارزشمندی رد و بدل میشه 

https://youtu.be/eqXfhejDeqA?feature=shared
🔥51👍1
📢فردا، دوشنبه ۱۹ شهریور
اولین جلسه آنلاین دوره یادگیری عمیق است،
دوستانی که ثبت نام کردند اما پیامک عضویت در گروه کلاس را دریافت نکرده‌اند لطفاً حتماً به پشتیبانی پیام دهند.

📞@classvision_support
👍52
Forwarded from School of AI (Hamidreza Hosseinkhani)
مجله‌ی مشهور TIME نام ایلان ماسک، موسس شرکت‌های Tesla و SpaceX و Neuralink و هم‌بنیان‌گزار OpenAI را از لیست ۱۰۰ چهره‌ی تاثیرگزار در دنیای AI حذف کرد 😂

با‌این‌حال اسکارلت جانسون، هنرپیشه‌ی فیلم‌های هالیوودی و صداپیشه‌ی فیلم Her هم‌چنان در این لیست قرار دارد. 🤔

بسیاری این تصمیم رو ناشی از سوگیری‌های سیاسی این مجله و مرتبط با حمایت‌های اخیر ماسک از Trump عنوان کرده‌اند.
😁31👍10🤔32🤯1
گوگل لبز درحال توسعه ابزاری به اسم‌ Illuminate هست که مقالات علمی را به بحث‌های صوتی در قالب پادکست توسط هوش مصنوعی تبدیل می‌کند. این پروژه برای تولید خلاصه مقاله و در قالب پرسش و پاسخ از مدل زبانی گوگل Gemini استفاده می‌کند که توسط ویس های مختلف، یک مصاحبه‌گر مرد و یک متخصص زن ، به گفت و گو و بحث در مورد مقاله میپردازند. Illuminate در مرحله بتا هست و از لینک زیر هم برای لیست انتظار میتونید ثبت نام کنید:

https://illuminate.google.com
🔥29👍7🙏3🤯21
This media is not supported in your browser
VIEW IN TELEGRAM
این مدل ویدیویی مبتنی بر هوش مصنوعی، از طریق متن، ویدیوهای باکیفیت 6 ثانیه ای با رزولوشن 720p و سرعت 25 فریم در ثانیه تولید می کنه و یه راه حل سریع و کارآمد برای ایجاد محتوای ویدیویی جذابه

دو تا سرباز هخامنشی ایران باستان رو در نظر بگیرین که در حال بازی کردن سوپر ماریو هستن


Two Achaemenid soldiers with ancient Persian battle attire are playing Super Mario
  
https://hailuoai.com/
14👍2
مدل جدید OpenAI o1-preview معرفی شد که یه سری از مدل‌های هوش مصنوعی برای حل مسائل پیچیدست. این مدل‌ها با تمرکز بیشتر روی استدلال و تحلیل، می‌تونن وظایف دشوار در زمینه‌های علمی، برنامه‌نویسی و ریاضی رو بهتر حل کنن. 


این مدل‌ها هنوز برخی ویژگی‌های ChatGPT، مانند جستجوی وب و آپلود فایل را ندارن، اما برای وظایف استدلال پیچیده پیشرفتی قابل‌توجه به حساب میاد.

https://openai.com/index/introducing-openai-o1-preview/
👍9
Tensorflow(@CVision)
مدل جدید OpenAI o1-preview معرفی شد که یه سری از مدل‌های هوش مصنوعی برای حل مسائل پیچیدست. این مدل‌ها با تمرکز بیشتر روی استدلال و تحلیل، می‌تونن وظایف دشوار در زمینه‌های علمی، برنامه‌نویسی و ریاضی رو بهتر حل کنن.  این مدل‌ها هنوز برخی ویژگی‌های ChatGPT،…
Audio
به اینجا رسیدیم با اوپن‌اِی‌آی اُو۱

یه مدل تازه، هوشمند و نو

حالا بیشتر فکر می‌کنه، قبل از جواب

همه چیز رو می‌سنجه، دقیق و حساب

خبر تازه داریم، از او۱ و تلاش

پژوهش و محصول، پیشرفت و فراش

جهان هوش مصنوعی، درگیر و دل‌فریب

با او۱ می‌ریم به آینده، نزدیک و عجیب

Low Beat😁
😁12👍1😱1
Tensorflow(@CVision)
مدل جدید OpenAI o1-preview معرفی شد که یه سری از مدل‌های هوش مصنوعی برای حل مسائل پیچیدست. این مدل‌ها با تمرکز بیشتر روی استدلال و تحلیل، می‌تونن وظایف دشوار در زمینه‌های علمی، برنامه‌نویسی و ریاضی رو بهتر حل کنن.  این مدل‌ها هنوز برخی ویژگی‌های ChatGPT،…
This media is not supported in your browser
VIEW IN TELEGRAM
یک مثال بسیار جالب از قابلیت های O1 برای مصور سازی آموزش مکانیسم اتنشن به دانشجویان که قابلیت های برنامه نویسی مدل جدید رو به تصویر میکشه.

در این ویدئو یه مثال عملی از مدل‌ جدید openai برای بهبود فرایند تدریس نشون داده میشه. اینجا گوینده به دنبال ایجاد ابزارهای تعاملی برای آموزش مکانیزم‌های پیچیدای مثل "Self-attention" در ترانسفورمرها ست. هدف اصلی ایشون، توسعه ابزارهای تعاملی و مصورسازی برای فهم بهتر دانشجویان از این مفاهیم پیچیده ست. اشاره می‌کنه که مدل جدید می‌تونه با دقت بیشتری به دستورالعمل‌های پیچیده پاسخ بده و ابزارهای کارآمدتری رو ایجاد کنه.
👌17🔥5👍32
 صحبت های چند ماه پیش Andrew Ng در مورد  تحولات آینده و توسعه هوش مصنوعی با امکانات ارایه شده در مدل جدید openai O1 کاملا همخوانی داره.

به طور خلاصه در ویدیو میگه:

مدل های بزرگ زبانی کنونی، معمولا با وارد کردن یه پرسش یا درخواست، پاسخی رو ارائه میدن. اما در مدل‌های جدیدتر، فرآیند پاسخ‌دهی به صورت تکراری و بازخوردی طراحی شده، به این صورت که سیستم هوش مصنوعی می‌توانه به صورت مداوم به اصلاح و بهبود پاسخ بپردازه. این روند به نام agentic workflows شناخته می‌شه.

ایشون بیان می‌کنه که با استفاده از این مدل‌های تعاملی، نتایج بهتری حاصل میشه و مثالی از برنامه‌نویسی ارائه می‌دهه که در اون سیستم‌های هوش مصنوعی جدید با بازبینی و اصلاح کدهای خود، عملکردی بهتر از سیستم‌های پیشرفته‌تر دارن.

 همچنین میگه که استفاده از ابزارهایی مانند reflection و multi-agent collaboration  به‌زودی در توسعه برنامه‌های هوش مصنوعی نقش مهمی ایفا خواهند کرد.

در آخر هم پیش‌بینی می‌کنه که این نوع سیستم‌ها به پیشرفت‌های بزرگی در عملکرد و قابلیت‌های هوش مصنوعی منجر خواهد شد و استفاده از اونها در کارهای پیچیده‌ای مثل تحقیق و توسعه بسیار کارآمد خواهد بود.

https://youtu.be/sal78ACtGTc?feature=shared


یک نمونه دیگه:

مقاله google deepmind هست که در ماه آگوست منتشر شد. این مقاله به بررسی این موضوع میپردازه که اگه به یه مدل زبانی بزرگ (LLM) زمان بیشتری برای استنتاج داده شه تا به پاسخ برسه، این مدل میتونه به عملکردی برسه که با مدلی 14 برابر بزرگ‌تر از اون برابره:

https://arxiv.org/abs/2408.03314
👍6🔥4