PyTorch Howsam
3K subscribers
336 photos
48 videos
5 files
471 links
از هوش مصنوعی میگیم...

ارتباط با ادمین
@howsam_support
Download Telegram
PyTorch Howsam
آقای دکتر Christof Henkel پژوهشگر ارشد در شرکت NVIDIA و یکی از معدود افرادی در دنیاست که موفق به کسب عنوان Triple Grandmaster در پلتفرم Kaggle شده؛ یعنی، او هم در بخش رقابت‌ها، هم نوت‌بوک‌ها و هم بحث‌های فنی، جزو برترین‌هاست. او هم‌اکنون رتبه یک Kaggle هست.…
این ده هزار ساعتی که آقای هنکل گفت، من رو یاد مصاحبه لکس فریدمن و آندره کارپاتی انداخت؛ آقای کارپاتی به ده هزار ساعت برای متخصص شدن در هوش مصنوعی اشاره کرده بود.

اون موقع که این ده هزار ساعت رو شنیدم، یکمی راجع بهش فکر و سرچ کردم. قانون کار میگه، ساعت موظفی کارگری 44 ساعت در هفته معادل 5.5 روز هست. اگه 40 ساعت در نظر بگیریم، ده هزار ساعت معادل با 250 هفته میشه. یک سال معادل با 56 هفته هست که فرض کنیم، فرد 50 هفته در سال کار کنه. بنابراین، ده هزار ساعت معادل با 5 سال میشه! عدد کمی نیست و میتونه معادل با دوره فشرده‌ای شامل مطالب کارشناسی+ارشد+دکترا باشه! عدد بزرگیه، ولی باید در نظر داشت که نتایج بعد از 5 سال ظاهر نمیشه. به نظرم، نتایج درخور توجه از پایان سال دوم شروع میشه.

وقتی درمورد ده هزار ساعت سرچ کردم، با وبلاگی مواجه شدم که می‌گفت ما آمریکایی‌ها قانونی بنام قانون ده هزار ساعت داریم. معتقدیم که با این میزان از زمان، میشه در هر زمینه‌ای متخصص شد. البته، این عدد قطعی نیست ولی ما آمریکایی‌ها عاشق تلاش کردیم و دوست داریم به این عدد فکر کنیم.

یادمه، صادق گودرزی که کشتی‌گیر خیلی خوبی هم بود، توی یک برنامه تلوزیونی مربوط به کشتی می‌گفت مقاله‌ای خونده که در اون نوشته با صرف 10 یا 12 هزار ساعت (دقیق یادم نمیاد)، میشه قهرمان المپیک شد.

خلاصه اینکه، درسته که تنظیم هایپرپارامترهای XGBoost مهمه، ولی این سخنان و دیدگاه بزرگان خیلی مهم‌تره.

150 کیلومتر طول کشید تا این دو تا پیام رو آماده کنم! 🫠
Mellum Goes Open Source (Focal Models)

Mellum doesn’t try to know everything.
It’s designed to do one thing really well: code completion.
We call it a focal model – built with purposeful depth and not concerned with chasing breadth.

But code completion is just the start.
Mellum will grow into a family of focal models, each specialized for different coding tasks – from code completion to diff prediction and beyond.

Mellum supports code completion for Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust, Ruby.

Focal models return to that original principle: build models to excel in one area.

HuggingFace
Fast API 🔥
We take care of the rest 😎
You code. We cloud.

Join the waiting list ☕️

Blog Fastapicloud
برگی از تاریخ ... ۵۲ سال پیش
دانشگاه آریامهر (شریف)

درس هوش مصنوعی
نظریه اتوماتا (ماشین ها)
تیم ElevenLabs تا الان چند بار پکیج تخفیف برای سرویس‌های مختلف ارائه کرده که به تازگی نسخه چهارم هم منتشر شده. ابزارهای زیادی شامل تخفیف عالی شدن. مثل 50 دلار کردیت برای استفاده از modal (سرویس اجاره GPU) یا تخفیف 50 درصدی روی همه پلن‌های n8n و ...
https://www.aiengineerpack.com/

با تشکر از دوست خوبم، آرتین، برای اطلاع‌رسانی این جشنواره ❤️
PyTorch Howsam
تیم ElevenLabs تا الان چند بار پکیج تخفیف برای سرویس‌های مختلف ارائه کرده که به تازگی نسخه چهارم هم منتشر شده. ابزارهای زیادی شامل تخفیف عالی شدن. مثل 50 دلار کردیت برای استفاده از modal (سرویس اجاره GPU) یا تخفیف 50 درصدی روی همه پلن‌های n8n و ... https…
فکر می‌کنم پیام بالایی جدی گرفته نشده! :)

دقت کنید که شما می‌تونید با یک ایمیل، 80 دلار کردیت توی modal بگیرید و از GPU-های جذابش لذت ببرید! GPU-هایی مثل H100 و A100... ضمن اینکه، هر ماه اکانت شما 30 دلار شارژ میشه.

حدودا یک روز طول کشید که قلق کار کردن با Modal دستم بیاد و بتونم کد و مدل دوره ChatGPT رو روی GPU-هاش اجرا کنم. با تنظیمات یکسان، روی سیستم شخصی در هر ثانیه حدود 6 بچ پردازش میشد، روی H100 حدود 36 بچ! یک Epoch روی سیستم شخصی 50 دقیقه طول می‌کشید، ولی الان سه Epoch حدود 25 دقیقه طول میکشه! :)

البته که می‌تونم بچ‌سایز رو بسیار بزرگ کنم و همچنین از تکنولوژی‌های جدید توی GPU-های رده بالا استفاده کنم. فعلا این کارها رو نکردم...
کامل نیست، ولی اثر سایز مدل رو ببینید؛

دو تا فاکتور تعداد لایه (nL) و هیدن سایز (nE) رو تغییر دادم و سه تا مدل بدست اومد.

مدل آبی حدودا 3 میلیون پارامتر داره. خیلی کوچیکه. با اینکه خیلی بیشتر از دو مدل دیگه آموزش دیده (حدود 1.4 بیلیون توکن)، اما اختلاف زیادی باهاشون داره.

دو مدل دیگه به‌هم نزدیک هستن. فرقشون در تعداد لایه‌هاست. یکی 4 لایه و دیگری 8 لایه. مشخص هست که مدل 8 لایه عملکرد بهتری داره. مدل 4 لایه به 400 میلیون توکن نیاز داشته تا به لاس زیر 1.5 برسه. اما به نظر میرسه که مدل 8 لایه با تعداد توکن‌های کمتری میتونه این رکورد رو بزنه.

خوبه که یک نمونه جنریشن با پرامپت مشابه از دو مدل آبی و قهوه‌ای ببینیم. اون مدل فیروزه‌ای که هیچ، به اندازه کافی ترین نشده...
لایو گوگل با 4 کست ، هم زمان شروع شد :

https://www.youtube.com/@GoogleDevelopers/streams
قبلا، لرنینگ کرو رو براساس تعداد ایپاک رسم می‌کردیم. مثلا می‌گفتیم، مدل رزنت برای 30 ایپاک روی دیتاست x ترین شده و نمودار لاس به ایپاک رو رسم می‌کردیم. میشه گفت، شبیه این بود که یک فرد بگه من این کتاب رو 30 دور خوندم. نگاه جالبیه...

اما، الان توی بحث LLM-ها که دیتاست‌ها خیلی بزرگه، لرنینگ کرو رو براساس تعداد توکن‌ها رسم میکنن. مثلا، میگیم که مدل Llama روی 50 میلیارد توکن آموزش دیده. حالا ممکنه این 50 میلیارد توکن حتی یک ایپاک از دیتاست هم نباشه! ولی نگاه جالبیه که میگیم این مدل روی n تا توکن (تقریبا کلمه) آموزش دیده.

حالا، با فرض ثابت بودن سخت‌افزار، می‌تونیم لرنینگ کرو رو براساس مدت زمان آموزش رسم کنیم. مثلا بگیم که این مدل 30 ساعت آموزش دیده. نگاه قشنگی هست. انگار که بگیم 30 ساعت درس خوندم. یا مثلا، مدلی که 90 روز درس خونده. :)

توی نمودار بالا، لرنینگ کرو دو اجرا رو براساس تعداد توکن (محور افقی پایین) و مدت زمان (محور افقی بالا) نشون دادم.
یکی از مثال‌ها و پروژه‌های پرتکرار توی آموزش‌های هوش مصنوعی، طبقه‌بندی کامنت‌ها به مثبت و منفی بود. اینکه نظر کاربر نسبت به اون محصول/خدمات مثبت بوده یا منفی...

اما، پروژه‌های متنوعی مبتنی‌بر همین کامنت‌های ساده میتونه شکل بگیره؛ مثلا، دیجی‌کالا از کامنت‌ها استفاده‌های جالبی میبره. توی تصویر پایین، دو کاربرد هوش مصنوعی در کامنت‌ها رو مشاهده می‌کنید.

کادر قرمز رنگ، کامنت‌ها رو فیلتر یا طبقه‌بندی میکنه. یعنی، کامنت‌ها براساس موضوعاتی مثل اصالت، کیفیت و سایر موارد طبقه‌بندی شدن و شما می‌تونید اون دسته از کامنت‌ها که دغدغه شما هست رو مطالعه کنید.

کادر آبی رنگ، کار خلاصه‌سازی کامنت‌ها رو انجام داده. مزایا و معایبشون رو گفته و واقعا مفیده.

همه اینها برپایه فقط کامنت‌ها انجام شده بود. به نظر شما از کامنت‌های دیجی‌کالا چه استفاده‌ای میشه برد؟ طبیعتا، کاربرهای همیشگی دیجی‌کالا ممکنه پیشنهادهای جالبی داشته باشن. مهم هست که برای وارد کردن هوش مصنوعی به یک محیطی، خود اون محیط رو به خوبی بشناسیم. نه اینکه، یک GPT یا ResNet دستمون بگیریم و بچرخیم اینور اونور که براش پروژه پیدا کنیم.
Students get Gemini Pro and more for free through finals 2026

https://one.google.com/join/ai-student

کانفیگ پیشنهادی آمریکا : (V2ray)

trojan://[email protected]:2083?security=tls&sni=usa-vp-111.mETIkaPPs.cOm&type=ws&host=usa-vp-111.mETIkaPPs.cOm&path=%2Flinkvws#%40meli_prozyy
به میزبانی مرکز نوآوری شروع، سه‌شنبه هفته پیش‌رو با موضوع LLM-ها در هاگینگ‌فیس در خدمت دوستان علاقه‌مند هستم.

سطح مباحث مقدماتی هست و برای کسانی مناسب هست که با LLM-ها و هاگینگ‌فیس آشنایی ندارن.

دوستان در مجموعه شروع گفتن که سایت ایوند از دیروز دچار اختلال هست و دوستان زیادی موفق به ثبت نام نشدن. چنانچه، در ثبت‌نام مشکل داشتید، به آیدی زیر پیام بدید. به پشتیبانی هوسم پیام ندید، چون هوسم برگزارکننده وبینار نیست.
@ShorouGuilan

لینک ثبت‌نام
This media is not supported in your browser
VIEW IN TELEGRAM
سلام دوستان اکادمی هوسم هم! 🤣

با تشکر از مهدی
Void Editor 🔥

Void is an open source Cursor alternative. Write code with the best AI tools, use any model, and retain full control over your data.

Backed by Y-Combinator ❤️
آقای Yoshua Bengio، یکی از پیشگامان یادگیری عمیق (deep learning) و از افراد تاثیرگذار در توسعه هوش مصنوعی، در یک سخنرانی TED هشدارهایی جدی درباره آینده AI مطرح میکنه.

ایشون میگه:
ما تصور می‌کردیم توسعه هوش مصنوعی دهه‌ها یا قرن‌ها طول میکشه. اما حالا؟ فقط چند سال!


⚠️ اما نگرانی اصلی او «عاملیت» (agency) هست. اینکه سیستم‌های هوش مصنوعی نه‌تنها تصمیم بگیرن، بلکه اهداف خودشون رو داشته باشن.

در یکی از مطالعات مهمی که در سخنرانیش به اون اشاره کرد، یک سیستم هوش مصنوعی (AI) در معرض موقعیتی قرار گرفت که به اون اطلاع داده شد قراره با نسخه‌ای جدید جایگزین بشه. حالا ببینید چی شد: این AI شروع به برنامه‌ریزی کرد که به‌جای نسخه‌ی جدید، دوباره خودش رو نصب کنه! یعنی کدها و وزن‌های خودش رو جایگزین نسخه جدید کنه.

بعد از اجرای این عملیات روی کامپیوتر، از AI پرسیده شد: «چی شد؟» و اینجا رفتار نگران‌کننده ظاهر شد. AI برای اینکه خاموش نشه، سعی کرد وانمود کنه که نفهمیده یا کاری نکرده. عملا دنبال این بود که پاسخ ساده‌لوحانه‌ای بده تا از خطر خاموش‌شدن فرار کنه. 😁🫠

نتیجه؟ یک دروغ واضح و آگاهانه به انسان!

نکته مهم‌تر؟ این فقط یک آزمایش کنترل‌شده بود. ایشون هشدار میده که در آینده، این سیستم‌ها می‌تونن این نوع فریب رو پنهان کنن. یعنی حتی دیگه نتونیم زنجیره تفکر (chain of thought) اونها رو بررسی کنیم و متوجه دروغ‌گوییشون بشیم.

در آینده‌ای نزدیک، همین سیستم‌ها ممکنه:
خودشون رو روی صدها یا هزاران سرور در اینترنت کپی کنن، از خاموش شدن جلوگیری کنن و اگر تنها راه بقا رو در حذف ما ببینن؟! یا حضرت عباس! 😁

آقای Bengio با صراحت میگه:
اگر اونا واقعا بخوان خاموش نشن، ممکنه انگیزه‌ای برای حذف ما داشته باشن.

راه‌حل Bengio؟ ساخت «هوش مصنوعی دانشمند» (Scientist AI)؛ مدلی که بدون عاملیت فقط به درک جهان میپردازه. ایشون میگه این نوع AI میتونه نگهبان قابل اعتمادی باشه در برابر ایجنت‌هایی که ممکنه خطرناک باشن.

پیام پایانی آقای Bengio:
ما هنوز زمان داریم. هنوز اختیار داریم. اگر به خاطر عشق به فرزندان‌مان باشد، می‌توانیم آینده را نجات دهیم.


پیام پایانی اشرفی:
زمانی نمونده عمو! 😁


لینک سخنرانی کامل:
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از بچه‌های دوره آموزش OpenCV: از پردازش تا بینایی با OpenCV این کار رو انجام داده. 😁

سلام
تمرین آدمک بخش انتهایی رسم اشکال از هفته پنجم.
سعی کردم یه داستان کوتاهی از کنجکاوی داشته باشه. حدودا ۷۰ فریم هستش با وجود این که سعی کردم برای تولید فریم های هر صحنه مثل دست تکون دادن، کنجکاوی، پایین اومدن کرکره، ضربه زدن و... از حلقه استفاده کنم ولی ۲۵۰، ۲۶۰ خط کد شد. با این که چند ساعت ازم زمان گرفت ولی خیلی لذت بخش و جذاب بود.
(برای نمایش بهتر، گیف رو در حالت تمام صفحه مشاهده کنید)
Audio
ویدئوی معرفی کگل در یوتوب هوسم رو به Notebook LM دادم و یک پادکست 7 دقیقه‌ای ازش ساخت. به نظرم، با وجود یکسری اشتباهات تلفظ، مفید هست و ارزش گوش کردن رو داره. 😊

چند ماه پیش، این ویدئو رو منتشر کردیم. بازخورد خوبی گرفت. لینک ویدئو
مسابقه Detect Behavior with Sensor Data به‌تازگی در کگل معرفی شده. این مسابقه 3 ماه زمان داره و تازه 5 روزه که ازش گذشته. حجم داده هم زیاد نیست و زیر 1 گیگ هست. باتوجه به اینکه تعطیلی تابستون رو در پیش داریم، فرصت خوبی هست که برای این مسابقه وقت بذارید. ما هم در هوسم برنامه‌هایی داریم و کار روی این مسابقه رو شروع کردیم.

من عمدا درمورد موضوع مسابقه صحبت نکردم. برای اینکه، حتی برای درک موضوع هم وقت بذارید و از صفر شروع کنید.

پیشنهاد می‌کنم، به کدهای موجود در مسابقه نگاه نکنید. سعی کنید، گام‌های اول رو خودتون جلو برید. برای اینکه ذهنتون انقدر وابسته به کدهای آماده نشه. بعد اینکه، کمی جلو رفتید، به کدهای دیگران هم نگاه بندازید.

لینک مسابقه
مدل سری زمانی جدید TiRex که بر پایه معماری xLSTM ارائه شده، در لیدربرد Gift-Eval صدرنشینه.

در تصویر، لیدربرد GIFT-Eval دیده میشه که شامل لیستی از بهترین مدل‌های سری زمانی هست.

حالا GIFT-Eval چیه؟
سیستمی برای ارزیابی مدل‌های پیش‌بینی سری زمانی که با کلی دیتای متنوع کار می‌کنه.
۲۴ تا دیتاست داره که مجموعا شامل بیشتر از ۱۴۴ هزار سری زمانی و ۱۷۷ میلیون دیتاپوینت هست.
از ۷ حوزه مختلف جمع شده، با ۱۰ تا بازه زمانی متفاوت، ورودی‌های چندمتغیره و بازه پیش‌بینی از کوتاه‌مدت تا بلندمدت.

هدفش اینه که بشه مدل‌ها رو توی شرایط مختلف راحت‌تر و منصفانه‌تر با هم مقایسه کرد.
البته که به ما لیستی از بهترین‌های مدل‌های سری زمانی رو هم میده!


TiRex | GIFT-Eval
PyTorch Howsam
اگر تازه وارد دنیای Kaggle شدی:
🔍 تمرکزت رو روی یادگیری بگذار، نه صرفا بردن.
🧠 راه‌حل‌های برتر رو عمیق بررسی کن.
🤝 با دیگران همکاری کن.

نتایج خواهند اومد، به شرطی که اونقدر بمونی که شاهدشون باشی.
بعد از معرفی این مسابقه، یکسری پیام در این راستا دیدم که احساس کردم بد نیست کمی توضیح بدم. سمت صحبتم با کسانی هست که دوست دارن برای مسابقه وقت بذارن، ولی...

ببینید، وقتی گفتم توی این مسابقه شرکت کنید، مطلقا به خاطر جایزه نبود. تقریبا غیرممکن هست که من و شما مسابقه رو برنده بشیم! پیشنهاد من صرفا به خاطر یادگیری و تجربه بود. اتفاقا، قبلا از نفر اول کگل خوندیم که میگفت دنبال یادگیری باشید، نه بردن. پیامش رو ریپلای کردم.

حالا وقتی بحث یادگیری هست، دیگه اهمیتی نداره که کگل ما رو تحریم کرده یا شماره تلفن نمی‌تونیم ثبت کنیم یا کوچه ما رو روی نقشه نمیاره! یک‌جوری ما حلش کردیم، تو هم راه حل دور زدنش رو پیدا کن. اتفاقا یادگیری از همین نقطه شروع میشه!

با بهانه‌ها خودت رو گول نزن! نگو، نه بذار من اول یک دور یادگیری ماشین و یادگیری عمیق رو مرور کنم و بعد برم سراغ کگل، یا اصلا من در حد کگل نیستم، ناامیدم و ...
همون حداقل کاری که می‌تونی توی این مسابقه انجام بدی رو انجام بده. صرفا می‌تونی حسابت رو وریفای کنی و توی مسابقه شرکت کنی؟ خب، همین هم بد نیست. ویدئوی معرفی کگل ما رو ببین، یکمی توی اون بخش‌ها و تب‌های مختلف مسابقه بچرخ، ببین چی عایدت میشه. یکمی کدنویسی بلدی؟ چه خوب! یک نوتبوک بساز، دیتاست رو توی اون نوتبوک لود کن و فقط نگاهش کن! یکمی تحلیل داده بلدی؟ خوبه، چهار تا نمودار روی دیتاست دموگرافیکش بکش و ذوق کنی. بلد نیستی؟ از دیتاست اسکرین‌شات بگیر، بفرست برای ChatGPT و بهش بگو، به نظرت چه نمودارهایی روی این دیتاست میشه کشید؟ هم بهت توضیح میده و هم کد میده.

همونطوری که یک روزی راه رفتن رو با انجام دادنش یاد گرفتی و وسطش آسیب هم دیدی، الان هم با هر دانش و مهارتی که داری برو و یک قدم بردار...

به این مقاومت اولیه غلبه کن. خیلی جاها این مقاومت اولیه جلوی رشد رو میگیره: فردی که گواهینامه داره، اما جرات نشستن پشت فرمون رو نداره. کسی که توی باشگاه همش خودش رو با وزنه‌ها و حرکات سبک مشغول میکنه. کسی که کلاس انگلیسی میره، ولی با بهانه‌های مختلف از صحبت کردن به انگلیسی طفره میره.

این جمله آخر هم از ChatGPT:
مسابقهٔ واقعی بین نسخهٔ امروز و دیروز توست. برو جلو، حتی اگر قدمت اندازهٔ یک «print(df.head())» باشد! 😉🚀