This media is not supported in your browser
VIEW IN TELEGRAM
PyGWalker: A Python Library for Exploratory Data Analysis with Visualization
لایبرری PyGWalker، یک ابزار خوب برای تحلیل اکتشافی داده (EDA) هست.
توی EDA دنبال استخراج اطلاعات و پیدا کردن الگوهای مهم از دل دیتاست هستیم. اگه یادگیری ماشین هوسم رو گذرونده باشید، EDA رو با گوشت و استخون حس کردید.
برای EDA، معمولا از پانداس، متپلات و یکسری کتابخونههای دیگه استفاده میشه. اما، شما با ابزارهایی مثل PyGWalker میتونید در ژوپیتر نوتبوک، از طریق یک رابط گرافیکی EDA انجام بدید.
توی معرفی لایبرری، خودشون گفتن که تلفظ این لایبرری چطوری هست: 😁
گیتهاب PyGWalker
نوتبوک نمونه در کولب
نوتبوک نمونه در کگل
ویدئوی بالا رو هم ببینید.
#یادگیری_ماشین #دیتاساینس #هوش_مصنوعی
@pytorch_howsam
لایبرری PyGWalker، یک ابزار خوب برای تحلیل اکتشافی داده (EDA) هست.
توی EDA دنبال استخراج اطلاعات و پیدا کردن الگوهای مهم از دل دیتاست هستیم. اگه یادگیری ماشین هوسم رو گذرونده باشید، EDA رو با گوشت و استخون حس کردید.
برای EDA، معمولا از پانداس، متپلات و یکسری کتابخونههای دیگه استفاده میشه. اما، شما با ابزارهایی مثل PyGWalker میتونید در ژوپیتر نوتبوک، از طریق یک رابط گرافیکی EDA انجام بدید.
توی معرفی لایبرری، خودشون گفتن که تلفظ این لایبرری چطوری هست: 😁
PyGWalker (pronounced like "Pig Walker", just for fun) is named as an abbreviation of "Python binding of Graphic Walker".
گیتهاب PyGWalker
نوتبوک نمونه در کولب
نوتبوک نمونه در کگل
ویدئوی بالا رو هم ببینید.
#یادگیری_ماشین #دیتاساینس #هوش_مصنوعی
@pytorch_howsam
کتاب Building LLMs for Production
این کتاب توسط مجموعه Towards AI با همکاری جمعی از متخصصین طی حدود 1.5 سال کار آماده شده.
نویسنده اول این کتاب، آقای Louis-François Bouchard هست که شخص شناختهشدهای هست.
در معرفی این کتاب گفته:
فهرست مطالب:
Chapter I Introduction to Large Language Models
Chapter II LLM Architectures & Landscape
Chapter III LLMs in Practice
Chapter IV Introduction to Prompting
Chapter V Introduction to LangChain & LlamaIndex
Chapter VI Prompting with LangChain
Chapter VII Retrieval-Augmented Generation
Chapter VIII Advanced RAG
Chapter IX Agents
Chapter X Fine-Tuning
Chapter XI Deployment
دسترسی به محتوای کتاب که نداریم. ولی، به نظر میرسه کتاب جالبی باشه.
این کتاب توسط مجموعه Towards AI با همکاری جمعی از متخصصین طی حدود 1.5 سال کار آماده شده.
نویسنده اول این کتاب، آقای Louis-François Bouchard هست که شخص شناختهشدهای هست.
در معرفی این کتاب گفته:
یکی از دلایل ترک تحصیل دکتریام در هوش مصنوعی، ساختن راهحلهای عملی و کمک به دیگران در دنیای واقعی بود. همه تجربیاتمان درباره مدلهای زبانی بزرگ و ابزارهای مختلف رو در کتابی 470 صفحهای جمعآوری کردهایم.
فهرست مطالب:
Chapter I Introduction to Large Language Models
Chapter II LLM Architectures & Landscape
Chapter III LLMs in Practice
Chapter IV Introduction to Prompting
Chapter V Introduction to LangChain & LlamaIndex
Chapter VI Prompting with LangChain
Chapter VII Retrieval-Augmented Generation
Chapter VIII Advanced RAG
Chapter IX Agents
Chapter X Fine-Tuning
Chapter XI Deployment
دسترسی به محتوای کتاب که نداریم. ولی، به نظر میرسه کتاب جالبی باشه.
گوگل دیپ مایند، مدل تولید تصویر از متن Imagen 3 رو معرفی کرده. نمونه تصاویر تولیدشده از این مدل رو میتونید ببینید.
ادعای خودشون این هست که نسبت به تصاویر نزدیکتر به واقعیت تولید میکنه. مثلا، این مدلهای مولد در دست و انگشتها همواره چالش داشتن. اما، حداقل در این تصاویری که خودشون منتشر کردن، نتیجه قابل قبول هست.
توییت گوگل دیپ مایند
ادعای خودشون این هست که نسبت به تصاویر نزدیکتر به واقعیت تولید میکنه. مثلا، این مدلهای مولد در دست و انگشتها همواره چالش داشتن. اما، حداقل در این تصاویری که خودشون منتشر کردن، نتیجه قابل قبول هست.
توییت گوگل دیپ مایند
PyTorch Howsam
خانـــمها و آقایــــان، شبکه xLSTM تنه به تنه LLM-های ترنسفوری میزند! شبکه جدیدی به نام xLSTM یا Extended LSTM معرفی شده که توجه زیادی رو به خودش جلب کرده. این مقاله رو آقای Sepp Hochreiter همراه با تیمش ارائه کرده. حالا آقای Sepp Hochreiter کی هستن؟ همون…
داغ داغ داغ!
بعد از معرفی xLSTM، حالا xLSTM برای حوزه ویژن بنام ViL هم معرفی شده. 🫡
از لحاظ کارایی هم عملکرد مطلوبی از خودش نشون داده و قابل قیاس با شبکههایی مثل ViT یا DeiT هست.
بخونیم ببینیم چه خبره!
رویکردش درمورد داده تصویری جالبه!
مقاله | صفحه پروژه
بعد از معرفی xLSTM، حالا xLSTM برای حوزه ویژن بنام ViL هم معرفی شده. 🫡
از لحاظ کارایی هم عملکرد مطلوبی از خودش نشون داده و قابل قیاس با شبکههایی مثل ViT یا DeiT هست.
بخونیم ببینیم چه خبره!
رویکردش درمورد داده تصویری جالبه!
We introduce Vision-LSTM (ViL), an adaption of xLSTM to computer vision. In order to adjust xLSTM (an autoregressive model) to better handle non-autoregressive inputs such as images, we employ alternating bi-directional mLSTM blocks. Odd blocks process the image row-wise from top left to bottom right, while even blocks process the image from bottom right to top left.
مقاله | صفحه پروژه
یک نفر بنام حمید نادری یگانه، با استفاده از ریاضی، تصویر اولتراسوند جنین رو تولید کرده!
به تصویر بالا نگاه کنید؛ معادله ریاضی تصویر تولیدشده رو میتونید ببینید!
توییت مرجع
خب، این پست ارتباط مستقیم با هوش مصنوعی نداره، اما غیرمستقیم چرا! بهنظرتون، چه ارتباطی بین یک شبکه عصبی که چنین تصویری میتونه تولید کنه با این معادلات ریاضی وجود داره؟
به تصویر بالا نگاه کنید؛ معادله ریاضی تصویر تولیدشده رو میتونید ببینید!
توییت مرجع
خب، این پست ارتباط مستقیم با هوش مصنوعی نداره، اما غیرمستقیم چرا! بهنظرتون، چه ارتباطی بین یک شبکه عصبی که چنین تصویری میتونه تولید کنه با این معادلات ریاضی وجود داره؟
ویدئوی جدید Andrej Karpathy 🤩
4 ساعت! 😁
بریم ببینیم چطوری GPT-2 رو پیادهسازی کرده!
لینک ویدئو
Let's Reproduce GPT-2 (124M)
4 ساعت! 😁
بریم ببینیم چطوری GPT-2 رو پیادهسازی کرده!
لینک ویدئو
YouTube
Let's reproduce GPT-2 (124M)
We reproduce the GPT-2 (124M) from scratch. This video covers the whole process: First we build the GPT-2 network, then we optimize its training to be really fast, then we set up the training run following the GPT-2 and GPT-3 paper and their hyperparameters…
تجربیات آرتین از سرویسهای اجاره GPU داخلی و خارجی:
سلام، من سرویسای مختلفی رو برای اجاره GPU تست کردم و توی سرویس های ایرانی به مشکلات زیادی برخوردم که قبلا بهش اشاره شده.
ولی توی سرویس های خارجی، به نظرم اگه از کولب پرو استفاده میکنین، میتونید به جاش برید سراغ runpod
این سرویس هم قیمت کولب هست و سرویساش کلا pay as you go هست.
هم میتونید مدلاتونو باهاش هاست کنین، هم میتونین ازش GPU رو اجاره کنین و هم از طریق SSH هم یه سرور جوپیتر بهش دسترسی داشته باشین.
جای فایلاتونم همیشه محفوظه.
به نظرم ارزششو داره.
This media is not supported in your browser
VIEW IN TELEGRAM
میخوای خروجی کارهات رو مثل ویدئوی بالا نشون بدی؟ کتابخونه خفن supervision این امکان رو بهت میده.
این کتابخونه، امکاناتی بهتون میده که کارهای تکراری و رو اعصاب بینایی کامپیوتر رو شیک و سریع انجام بدید. مثلا، خوندن دیتاست از هارد، نمایش خروجی دیتکشن و...
لینک
@pytorch_howsam
این کتابخونه، امکاناتی بهتون میده که کارهای تکراری و رو اعصاب بینایی کامپیوتر رو شیک و سریع انجام بدید. مثلا، خوندن دیتاست از هارد، نمایش خروجی دیتکشن و...
We write your reusable computer vision tools. Whether you need to load your dataset from your hard drive, draw detections on an image or video, or count how many detections are in a zone. You can count on us! 🤝
لینک
@pytorch_howsam
وبسایت synthical.com یک محیط جالب برای بررسی مقالههای علمی (Academic Paper) هست. توی این سایت، مقالههای جدید و ترند حوزههای علمی مختلف، مثل ریاضیات، آمار، بیولوژی، کامپیوتر ساینس و غیره به شما نشون داده میشه. مثلا، توی تصویر بالا شما مقالههای ترند توی کامپیوتر ساینس رو میبینید.
اما، فقط همین نیست. این سایت، یکسری ویژگیهای خیلی خیلی جذاب داره:
* مقالهها رو میتونی توی همین سایت روی Dark Mode بخونی! توی تصویر دوم، مقاله ViL روی دارک مود هست.
* میتونی برای خودت اکانت بسازی، مقالههات رو فولدربندی کنی.
* میتونی یکسری دانشگاه، ارگان و کنفرانس رو فالو کنی که مقالههای جدیدش رو بهت نشون بده.
* میتونی با هوش مصنوعی این سایت، مقاله رو خلاصه کنی.
* میتونی از هوش مصنوعی برای فهمیدن بخشهای سخت مقاله کمک بگیری!
* میتونی روی مقاله نت بذاری و هایلایت کنی و بعدا که مقاله رو باز کنی، نت و هایلایت رو بهت نشون میده.
* امکاناتی هم برای تیمها داره.
خلاصه اینکه، سایت جالبی هست. به نظر میرسه نوپا هست. شاید استقبال نشه، ولی میتونه خیلی کاربردی باشه.
@pytorch_howsam
اما، فقط همین نیست. این سایت، یکسری ویژگیهای خیلی خیلی جذاب داره:
* مقالهها رو میتونی توی همین سایت روی Dark Mode بخونی! توی تصویر دوم، مقاله ViL روی دارک مود هست.
* میتونی برای خودت اکانت بسازی، مقالههات رو فولدربندی کنی.
* میتونی یکسری دانشگاه، ارگان و کنفرانس رو فالو کنی که مقالههای جدیدش رو بهت نشون بده.
* میتونی با هوش مصنوعی این سایت، مقاله رو خلاصه کنی.
* میتونی از هوش مصنوعی برای فهمیدن بخشهای سخت مقاله کمک بگیری!
* میتونی روی مقاله نت بذاری و هایلایت کنی و بعدا که مقاله رو باز کنی، نت و هایلایت رو بهت نشون میده.
* امکاناتی هم برای تیمها داره.
خلاصه اینکه، سایت جالبی هست. به نظر میرسه نوپا هست. شاید استقبال نشه، ولی میتونه خیلی کاربردی باشه.
@pytorch_howsam
Data + AI Summit 2024
در این کنفرانس از موسس و مدیرعامل Databricks، علی قدسی، در مورد ساخت برنامههای هوش مصنوعی تولیدی، استفاده از دادههایتان و نحوه اینکه داده + هوش مصنوعی به هوش داده منجر میشود، میشنوید.
همچنین گفتگویی بین علی قدسی و موسس و مدیرعامل شرکت Nvidia، در مورد شراکت گستردهتر بین Nvidia و Databricks برای شتاب بخشیدن به دادههای شرکتی در دوران هوش مصنوعی تولیدی برگزار خواهد شد.
دیتابریکس شرکتی فعال در زمینه داده و هوش مصنوعی است.
بیش از 10,000 سازمان در سراسر جهان - از جمله Block، Comcast، Conde Nast، Rivian و Shell، و ... که بر روی پلتفرم هوش داده Databricks فعالیت میکنند تا کنترل دادههای خود را برعهده بگیرند.
روز اول :
https://www.youtube.com/watch?v=UfbyzK488Hk
روز دوم :
https://www.youtube.com/watch?v=uB0n4IZmS34
در این کنفرانس از موسس و مدیرعامل Databricks، علی قدسی، در مورد ساخت برنامههای هوش مصنوعی تولیدی، استفاده از دادههایتان و نحوه اینکه داده + هوش مصنوعی به هوش داده منجر میشود، میشنوید.
همچنین گفتگویی بین علی قدسی و موسس و مدیرعامل شرکت Nvidia، در مورد شراکت گستردهتر بین Nvidia و Databricks برای شتاب بخشیدن به دادههای شرکتی در دوران هوش مصنوعی تولیدی برگزار خواهد شد.
دیتابریکس شرکتی فعال در زمینه داده و هوش مصنوعی است.
بیش از 10,000 سازمان در سراسر جهان - از جمله Block، Comcast، Conde Nast، Rivian و Shell، و ... که بر روی پلتفرم هوش داده Databricks فعالیت میکنند تا کنترل دادههای خود را برعهده بگیرند.
روز اول :
https://www.youtube.com/watch?v=UfbyzK488Hk
روز دوم :
https://www.youtube.com/watch?v=uB0n4IZmS34
PyTorch Howsam
یک نفر بنام حمید نادری یگانه، با استفاده از ریاضی، تصویر اولتراسوند جنین رو تولید کرده! به تصویر بالا نگاه کنید؛ معادله ریاضی تصویر تولیدشده رو میتونید ببینید! توییت مرجع خب، این پست ارتباط مستقیم با هوش مصنوعی نداره، اما غیرمستقیم چرا! بهنظرتون، چه…
This media is not supported in your browser
VIEW IN TELEGRAM
ویدئوی بالا انقدر جذاب و آموزنده هست که واقعا حیفه نبینید.
تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکههای عصبی مصنوعی با یک لایه پنهان، میتونن هر تابع پیوستهای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکههای عصبی میتونن انواع مختلف دادهها و روابط پیچیده غیرخطی رو مدلسازی کنن. البته تعداد نورونهای لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.
کانال یوتوبی که این ویدئو رو منتشر کرده، فقط همین یک ویدئو رو داره که 18 هزار بازدید خورده! 😁
منبع
@pytorch_howsam
تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکههای عصبی مصنوعی با یک لایه پنهان، میتونن هر تابع پیوستهای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون میده شبکههای عصبی میتونن انواع مختلف دادهها و روابط پیچیده غیرخطی رو مدلسازی کنن. البته تعداد نورونهای لایه پنهان ممکنه خیلی زیاد بشه تا به دقت مورد نظر برسیم.
کانال یوتوبی که این ویدئو رو منتشر کرده، فقط همین یک ویدئو رو داره که 18 هزار بازدید خورده! 😁
منبع
@pytorch_howsam
PyTorch Howsam
ویدئوی بالا انقدر جذاب و آموزنده هست که واقعا حیفه نبینید. تئوری تقریب جهانی (Universal Approximation Theory) میگه که شبکههای عصبی مصنوعی با یک لایه پنهان، میتونن هر تابع پیوستهای رو با دقت دلخواه تقریب بزنن. این تئوری خیلی تو یادگیری ماشین مهمه، چون نشون…
یکی از اعضای کانال درباره ویدئوی بالا سوال پرسیده که:
جواب:
مقادیر وزن و بایاس که در دسترس نیست. اما، به فرمول f_hat در تصویر زیر نگاه کنید؛ این فرمول، تقریبی از f (تابع اصلی) هست که با شبکه عصبی بدست اومده. هرکدوم از n-ها معادل با یک نورون در لایه مخفی هستن که از ترکیبشون، تابع تقریبی f ساخته میشه.
توی تصویر زیر، نمودار اولین نورون (n1) رسم شده. از شکل نمودار مشخص هست که یک نورون با تابع فعالساز ReLU داریم. همچنین، باتوجه به اینکه روی مبدا قرار نگرفته، پس بایاس هم داریم. فرمول نورون به صورت y = w * x + b هست که هر سه (x w b) اسکالر هستن. با درنظر گرفتن چند نقطه از (x,y)، میشه مقدار w و b رو تخمین زد. درواقع، اگه معادله خط بخش غیرصفر نورون n1 رو بدست بیارید، مقدار وزن وبایاس رو پیدا کردید. برای بقیه نورونها هم همین داستان برقرار هست.
حالا این نورونها برچه اساسی باهم ترکیب شدن و f_hat رو ساختن؟ از طریق وزنهای نورون خروجی! مشخص هست که برای خروجی n1، وزن 1-، برای n2 وزن 1- و همینطور تا آخرین مورد که n6 هست، وزن 1+ داریم.
ببخشید میشه درمورد این مثال وزن ها و بایاس ها رو بگین چی میشه مقادیرشون؟
جواب:
مقادیر وزن و بایاس که در دسترس نیست. اما، به فرمول f_hat در تصویر زیر نگاه کنید؛ این فرمول، تقریبی از f (تابع اصلی) هست که با شبکه عصبی بدست اومده. هرکدوم از n-ها معادل با یک نورون در لایه مخفی هستن که از ترکیبشون، تابع تقریبی f ساخته میشه.
توی تصویر زیر، نمودار اولین نورون (n1) رسم شده. از شکل نمودار مشخص هست که یک نورون با تابع فعالساز ReLU داریم. همچنین، باتوجه به اینکه روی مبدا قرار نگرفته، پس بایاس هم داریم. فرمول نورون به صورت y = w * x + b هست که هر سه (x w b) اسکالر هستن. با درنظر گرفتن چند نقطه از (x,y)، میشه مقدار w و b رو تخمین زد. درواقع، اگه معادله خط بخش غیرصفر نورون n1 رو بدست بیارید، مقدار وزن وبایاس رو پیدا کردید. برای بقیه نورونها هم همین داستان برقرار هست.
حالا این نورونها برچه اساسی باهم ترکیب شدن و f_hat رو ساختن؟ از طریق وزنهای نورون خروجی! مشخص هست که برای خروجی n1، وزن 1-، برای n2 وزن 1- و همینطور تا آخرین مورد که n6 هست، وزن 1+ داریم.
Florence-2: Advancing a Unified Representation for a Variety of Vision Tasks
مدل Vision-Language مایکروسافت بنام Florence-2
شاخصههای مهم این کار:
* خیلی سَبُکه. خبری از بیلیون پارامتر نیست!
* یک شبکه همه کاره هست؛ یعنی، دیتکشن، سگمنتیش و غیره
* یک دیتاست هیولا برای آموزش مدل ساخته شده!
محققها میخواستن یه مدلی بسازن که بتونه از عهده تسکهای متنوع ویژن مثل دیتکشن، سگمنتیشن، کپشنینگ و غیره بربیاد.
خب، دو مقوله اینجا مطرح میشه؛ یکی معماری شبکه و دیگری دیتاست آموزش. معماری شبکه نکته جدیدی نداره. شبیه سایر VLM-های امروزیه. دو نسخه مدل Base با 230 و Large با 770 میلیون پارامتر معرفی شده.
اما، دیتاست اوه اوه! دیتاستی بنام FLD-5B ساختن که شامل 126 میلیون تصویر با 5 بیلیووون Annotation هست! 🤯 این کار رو به صورت دستی هم که انجام ندادن، به نظرم، اصل ایده مقاله همین بخش ساخت دیتاست هست. در مقاله، پایپلاین ساخت دیتاست رو در بخش Data Engine توضیح دادن.
یکسری تصویر از خروجی مدل Large براتون گذاشتیم که نگاه کنید؛ عجب دنیایی شده! دیگه یه مدل مخصوص دیتکشن یا سگمنتیشن بای بای...
مقاله CVPR | نوتبوک کولب | هاگینگ فیس