PyTorch Howsam
3.26K subscribers
374 photos
48 videos
9 files
513 links
از هوش مصنوعی میگیم...

ارتباط با ادمین
@howsam_support
Download Telegram
برای کلاس امروزم، سعی کردم قسمت خلاصه‌سازی نظرات کاربران دیجی‌کالا رو پیاده‌سازی کنم.

یک نمونه خروجی کار:
🟣 خلاصه دیدگاه‌های خریداران
اکثر کاربران از محتوا و نکات کاربردی کتاب صوتی و کیفیت صدای دوبله آن راضی هستند و آن را ارزشمند برای علاقه‌مندان به کارآفرینی و برنامه‌نویسی می‌دانند. برخی هم از بسته‌بندی، هدیه بودن محصول و قیمت مناسب صحبت کرده‌اند. با این وجود تعدادی از کاربران نظر منفی دارند و معتقدند محتوا زیاد علمی نیست یا بیش از حد شبیه یک رمان است و برای بازار ایران مناسب نیست یا امکان استفاده عملی در ایران محدود است. به طور کلی می‌توان گفت کتاب دیدگاهی مثبت با چند نکته انتقادی درباره ارزش آموزشی و تطبیق با شرایط داخلی دارد.

نکات مثبت:
- محتوای خوب و نکات کاربردی
- کیفیت صدای دوبله و صوت باکیفیت
- ارزش خرید بالا نسبت به قیمت/وجود تخفیف و هدیه

نکات منفی:
- محتوا بی‌ارزش یا پول سوزاندن/به درد نمی‌خورد برای برخی کاربران
- آموزشی محدود یا شبیه به رمان سطح پایین است
- مناسب نبودن یا محدودیت‌های عملی آن در ایران (وابستگی به iOS/اپل یا تحریم‌ها)


به نظرم نکات مثبت و منفی منطقی نیست.
تون TOON یا Token-Oriented Object Notation یک فرمت فشرده، خوانا برای انسان و مخصوص سریال‌سازی داده‌هاست که با هدف ارسال داده‌های ساختاریافته به مدل‌های زبانی بزرگ (LLM) طراحی شده تا مصرف توکن را به‌طور قابل توجهی کاهش دهد.

این فرمت جایگزینی برای JSON است و همان داده‌ها را با ساختار مشابه، اما توکن‌های کمتر منتقل می‌کند.

pip install python-toon==0.1.3


Github-ToonFormat

Github-ToonPython


PyPi-Python Toon 0.1.3
PyTorch Howsam
تون TOON یا Token-Oriented Object Notation یک فرمت فشرده، خوانا برای انسان و مخصوص سریال‌سازی داده‌هاست که با هدف ارسال داده‌های ساختاریافته به مدل‌های زبانی بزرگ (LLM) طراحی شده تا مصرف توکن را به‌طور قابل توجهی کاهش دهد. این فرمت جایگزینی برای JSON است…
با تشکر از علی بابت این پست، من با یک مثال از صفحه گیتهاب کارکرد این فرمت رو بیشتر توضیح میدم. جالبه...

ما معمولا از فرمت JSON برای ورودی دادن به LLM-ها استفاده می‌کنیم. مثلا:
{
"users": [
{ "id": 1, "name": "Alice", "role": "admin" },
{ "id": 2, "name": "Bob", "role": "user" }
]
}


اما، TOON همون اطلاعات مشابه را با توکن‌های کمتری بهمون میده. فرمت TOON مثال بالا:
users[2]{id,name,role}:
1,Alice,admin
2,Bob,user


تعداد توکن‌ها با توکنایزر GPT-4o در Tiktokenizer در مثال بالا:
* فرمت JSON برابر با 51
* فرمت TOON برابر با 24
امیررضا دانش و تجربه زیادی در یادگیری تقویتی داره. من در این وبینار شرکت کردم و توصیه می‌کنم دوستان علاقه‌مند به یادگیری تقویتی ثبت‌نام کنن.

اطلاعات بیشتر در لینکدین امیررضا: کلیک کنید!

لینک ثبت‌نام در وبینار: کلیک کنید!
قبلا، چند تا توییت بوک‌مارک کرده بودم که امروز دوباره نگاهشون کردم و جالب بودن. اینجا هم میذارم.

کامنت‌های توییت زیر رو هم بخونید. خودمم قبلا اینجا درباره Jina گفته بودم.
بهترین مدل Embedding که برای تسک های فارسی استفاده کردید چی بوده؟

اینجا اگر خواستید بنویسید تا بقیه هم استفاده کنن.

تو open-source ها qwen و Jina و Gemma Embedding تا اینجا برای من خوب کار کردن

لینک


توییت زیر از شایان هست که قبلا توی توییتر کار میکرده:
اگه می‌خواین بدونین ترند استارت‌آپ‌های هوش مصنوعی امسال چی بوده و ایده بگیرین که چه نوع استارت‌آپی خوبه و کجا جای کار داره و به چه سمتی داریم می‌ریم این ویدئو رو از دست ندین:
لینک
لینک توییت


آقای مهدی اللهیاری:
این به نظر میاد اومده از روی گیت هاب من درست کرده اینو. من اینجا ورژن جدیدتر با حدود ۴۵۰ تا use case: لینک
لینک توییت


این هم از نیما:
تو دیتاساینس اکثرا فقط بخش توسعه مدل رو یادمیگیرن. ولی نه تو دانشگاه، نه از kaggle یا کتابا پیاده سازی و پروداکشن کردن رو یادنمیگیرن. Databricks Free Edition به نظرم بهترین ابزار برای یادگیریه این مهارته. پروژه cloud based باهاش انجام بدین و پروداکت پیاده کنید، کاملا رایگانه!
لینک توییت
امروز، در کلاس شرکت داتین، درباره Prompt Engineering صحبت کردم.
فصل Prompt Engineering این کتاب رو خیلی دوست داشتم. سایر فصل‌های کتاب رو نخوندم، ولی دیگه واجب شد فصل‌های دیگه رو هم نگاهی بندازم.
وقتی میگم پروژه‌های جون‌دار انجام بدید تا رزومه وزن پیدا کنه، منظورم چنین پروژه‌هایی هست.

این کلاستر محاسباتی کوچک و زیبا، کارِ درخشانِ آقای محمدمتین ناصری، دانشجوی کارشناسی مهندسی کامپیوتر، در درس «اینترنت اشیا» است!
با استفاده از چند برد Raspberry Pi 4 که به‌صورت عمودی استک شده‌اند، محمدمتین موفق شده یک کلاستر واقعی کوبرنتیز (Kubernetes)+ OpenMPi راه‌اندازی کند که:
کاملاً کاربردی و مدیریت‌شده با k3s است
قابلیت اجرای محاسبات ماتریسی بزرگ و موازی را دارد
حدود ۳۰ گیگافلاپس توان محاسباتی ارائه می‌دهد (معادل یک کامپیوتر رومیزی قدرتمند چند سال پیش!)
همه‌ی این‌ها در فضای کمتر از یک جعبه کوچک و با مصرف برق بسیار پایین

این پروژه نه‌تنها نشان‌دهنده درک عمیق از مفاهیم توزیع‌شده و orchestration است، بلکه یک نمونه عالی از این حقیقت است که برای شروع کارهای بزرگ، لزوماً به سرورهای چندصدهزاردلاری نیاز نیست؛ گاهی چند برد کوچک و ذهن خلاق کافی است!
افتخار می‌کنم که چنین دانشجوی باانگیزه و توانمندی در کلاس درسمان داریم 👏
منبع پست در لینکدین


این پروژه هیچ ارتباطی به به من نداره، من فقط از لینکدین نقل قول کردم. لینک پست رو هم گذاشتم.
یک‌جایی توی مکالمه با جمنای، عبارت زیر رو به کار برد:
لحن زرد و "لینکدینی" به جای لحن علمی


منظورش که واضحه؛ من هم نسبت به یکسری پست‌های لینکدینی همین حس زرد بودن رو دارم. اما از خود جمنای خواستم که بیشتر درباره این عبارتی که نوشته بهم توضیح بده. خلاصه توضیحش رو در آوردم.

وقتی می‌گوییم یک متن «لحن لینکدینی» دارد، منظورمان اشاره به یک سبک خاص و کلیشه‌ای از نوشتار است که در چند سال اخیر در شبکه اجتماعی لینکدین (LinkedIn) بسیار شایع شده و حتی اصطلاح طنزآمیز «Broetry» (ترکیب Bro + Poetry) را برایش ساخته‌اند.

در اینجا ویژگی‌های این «لحن لینکدینی» را باز می‌کنم:

۱. دراماتیک‌سازی مصنوعی (The Artificial Drama)
در سبک لینکدینی، نویسنده سعی می‌کند معمولی‌ترین اتفاقات را به یک داستان حماسی تبدیل کند.

۲. جملات قصار و بریده‌بریده (Broetry Style)
اگر دقت کنید، متن‌های لینکدینی معمولاً پاراگراف‌های طولانی ندارند. هر جمله یک خط است و بین آن‌ها فاصله زیادی می‌گذارند تا در موبایل راحت خوانده شود (و کاربر بیشتر اسکرول کند که برای الگوریتم خوب است).

۳. تبدیل همه چیز به «درس موفقیت» (Toxic Positivity)
یکی از آزاردهنده‌ترین ویژگی‌های لحن لینکدینی این است که به زور می‌خواهد از هر چیزی «۵ درس برای زندگی» یا «فرمول طلایی موفقیت» بیرون بکشد.

۴. استفاده از کلمات پرطمطراق و توخالی (Buzzwords)
نویسندگان این سبک عاشق کلماتی هستند که هوشمندانه به نظر برسند اما بار معنایی خاصی نداشته باشند.

۵. اعتماد به نفس کاذب (False Authority)
در پست‌های لینکدینی، نویسنده (یا راوی) طوری صحبت می‌کند که انگار دانای کل است و حقایق مطلق را کشف کرده.

نمونه مثال:
لحن علمی/ژورنالیستی: "ایلیا سوتسکیور در سخنرانی خود اشاره کرد که با توجه به ساختار بیولوژیک مغز، احتمالاً هوش مصنوعی محدودیتی در یادگیری نخواهد داشت." (سندیت دارد، بی‌طرف است).

لحن لینکدینی/زرد: "آیا فکر می‌کنید مغزتان جادویی است؟ اشتباه می‌کنید! ایلیا سوتسکیور آب پاکی را روی دست همه ریخت. مغز شما فقط یک کامپیوتر است. برای شوکه‌کننده ترین حقیقت آماده باشید... 👇" (هیجانی، تهاجمی، کم‌مایه).


یک مورد هم من بگم:
توی این نوع پست‌های لینکدینی، هر جمله یک اموجی داره. خصوصا اینها: 🎯⛳️💯👌
عمو Andrew Ng :
ما در حال انتشار یک "Agentic Reviewer" جدید برای مقالات تحقیقاتی هستیم.
من این کار را به عنوان یک پروژه آخر هفته شروع به کدنویسی کردم و Yixing J. آن را بسیار بهتر کرد.

من از دانشجویی الهام گرفتم که مقاله‌اش در طول ۳ سال ۶ بار رد شده بود.
حلقه بازخورد او که هر بار حدود ۶ ماه طول می‌کشید تا بازخورد دریافت کند به طرز دردناکی کند بود.
ما می‌خواستیم ببینیم آیا Agentic Workflow می‌تواند به محققان کمک کند سریع‌تر به کارشان بپردازند؟

هنگامی که سیستم را با استفاده از بازبینی‌های ICLR 2025 آموزش دادیم و همبستگی Spearman را در مجموعه آزمایشی اندازه‌گیری کردیم: (بالاتر بهتر است)

همبستگی بین دو بازبین انسانی: 0.41
همبستگی بین AI و یک بازبین انسانی: 0.42

این نشان می‌دهد که Agentic در حال نزدیک شدن به عملکرد سطح انسانی است.

https://paperreview.ai/
یک مثال فارسی درباره TF-IDF از جمنای گرفتم، کمی اصلاحش کردم و بعد به نانو بنانا دادم که به تصویر تبدیل کنه.

اینجا، منِ انسان فقط نقش پرامپت دادن، بازبینی و اصلاح پرامپت‌ها و خروجی‌ها، نظارت روی فرآیند انجام کار و ساختن پایپ‌لاین برای رسیدن به هدف رو داشتم. خروجی کار متناسب با سلیقه من نیست، چون اگه قرار بود این رو من بسازم، قشنگ‌تر و عمیق‌تر می‌ساختم! البته، احتمالا با 20 برابر وقت بیشتر...

ولی با وجود هوش مصنوعی در این سطح، بازم من انسان نقش پررنگی دارم؛ باید اونقدر خوب هدایتش کنم که دقیقا خروجی متناسب با سلیقه خودم ازش بگیرم.

البته، به نظرم ابزارها هم باید پیشرفت کنن و بهتر از این بشن. مثلا، ادیت تصویر راحت‌تر بشه، نیاز نباشه با هر تغییر پرامپت تصویر از نو ساخته بشه، خروجی ‌ای بدن که قابلیت ادیت شدن در پاورپوینت یا درایو داشته باشه...
ترند شدیدا صعودی "هوش مصنوعی" در فارسی رو ببینید؛ تقریبا از 2023 اوج گرفتن رو شروع کرده (نمودار آبی). چرا از 2023؟ احتمالا به خاطر ChatGPT (اواخر نوامبر 2022 اومد) و ابزارهایی که بعدش اومدن.

برای زیارت عاشورا (قرمز) و بلک فرایدی (زرد) هم رفتار فصلی می‌بینیم. اون پیک‌های بزرگ قرمز مربوط به محرم میشه. زیارت عاشورا، کلیدواژه پرسرچی هست. حالا سرچ این روزهای هوش مصنوعی رو با اوج زیارت عاشورا مقایسه کنید.

پیک بلک فرایدی داره سال به سال بزرگتر میشه.

نمودار سبز هم مربوط به پایتون میشه. چرا پایتون این اندازه کمه و شیب صعودیش کم هست، اما هوش مصنوعی انقدر شدید رشد کرده؟ چون مردم اینا رو سرچ میکنن:
آهنگ هوش مصنوعی
دانلود هوش مصنوعی
هوش مصنوعی هایده
هوش مصنوعی مهستی
هوش مصنوعی عکس
برنامه هوش مصنوعی
هوش مصنوعی رایگان
مدتی هست که کم‌وبیش برای مسابقه CSIRO کگل وقت گذاشتم. یک تسک مولتی رگرسیون با داده‌های تصویری هست. مسابقه سه ماه وقت داشت که دو ماهش باقیمونده. دیگه نوتبوکش رو به سطح مطلوب برای یک فرد استارتر رسوندم. دیشب پابلیکش کردم. اینجا هم میذارم، اگه خواستید شما هم روش کار کنید. احتمال داره که ویدئوش رو ضبط کنم و توی سایت تحت عنوان پروژه/دوره جدید معرفی کنیم.

https://www.kaggle.com/code/sajadai/csiro-pytorch-starter
compact-guide-to-large-language-models.pdf
666.7 KB
مشغول سرچ بودم که به این سه تا ایبوک توی دیتابریکس برخورد کردم. رایگان بودن، به همین خاطر می‌تونم اینجا به اشتراک بذارم. موضوع سه تا ایبوک:
* LLMs
* Machine Learning Use Cases
* MLOps
بخشی از مصاحبه اخیر ایلیا سوتسکور (Ilya Sutskever) رو در ادامه بخونید:

دوران آزمون و خطا (۲۰۱۲ تا ۲۰۲۰): در گذشته، پیشرفت در یادگیری ماشین بیشتر بر پایه دستکاری و آزمایش‌های تجربی توسط محققان بود تا نتایج جالبی به دست آید.

عصر مقیاس‌پذیری (Scaling) (۲۰۲۰ تا ۲۰۲۵): با ظهور مدل‌هایی مثل GPT-3، محققان متوجه شدند که یک فرمول ساده وجود دارد: "افزایش داده‌ها و قدرت محاسباتی برابر است با نتایج بهتر." این دوران برای شرکت‌ها بسیار جذاب بود، زیرا سرمایه‌گذاری روی «بزرگ‌تر کردن مدل» ریسک کمتری نسبت به تحقیقات داشت و نتایج آن قابل پیش‌بینی بود.

پایان دوران مقیاس‌پذیری آسان: سوتسکور اشاره می‌کند که داده‌های موجود برای آموزش مدل‌ها (Pre-training) محدود هستند و روزی تمام می‌شوند. او معتقد است که صرفاً بزرگ‌تر کردن مدل‌ها تا ۱۰۰ برابر، دیگر باعث تحول چشمگیری نخواهد شد.

بازگشت به عصر پژوهش (اکنون): ما اکنون دوباره به دورانی بازگشته‌ایم که نیاز به "پژوهش" و کشف روش‌های جدید (فراتر از روش‌های فعلی) داریم، با این تفاوت که اکنون کامپیوترهای بسیار قدرتمندتری در اختیار داریم.


منبع
با دوستان داشتیم درباره مایندست صحبت می‌کردیم. نوید چیزی گفت که خیلی جالب بود و دوست داشتم اینجا هم باشه:
خانم کارل دوک (استاد روانشناسی استنفورد) توی کتاب طرز فکر (مایندست) میگه ما کلا دو نوع طرز فکر داریم، یکی ثابت و یکی رشد...
طرز فکر ثابت، مدام میخواد همه چیزو راحت بدست بیاره و ثبات فکری داره و در برابر یادگیری مقاومت میکنه
اما طرز فکر رشد، مدام دوست داره چیزهای جدید یاد بگیره و از به چالش کشیدن خودش لذت میبره...
در نهایت میگه ما کلی تحقیق کردیم، دیدیم مهم‌ترین تفاوت افراد موفق با افراد دیگه، اینکه اونا طرز فکرشون از نوع رشد بوده.
یک پست جالب در X درباره رزومه و دعوت به مصاحبه دیدم که در ادامه آوردم...

یک نفر گفته:
من نمیتونم دلیل رد شدن قبل از مصاحبه تو موقعیت کاراموزی رو درک کنم
دیگه چی باید بلد باشم که باهام مصاحبه کنن
ینی واقعا توقعشون بیشتره؟؟؟


یک نفر متخصص پیام بالا رو کوت کرده و گفته:
این نظر شخصی منه:
درصد بالایی از افراد توی همون ۳ثانیه اول دیده شدن رزومه‌اشون ریجکت می شن!


همچنین، یک نفر دیگه تصویر بالا رو منتشر کرده و گفته:
هیت‌مپ تمرکز recruiter‌ روی رزومه‌ی applicant. این رو من تو پرامپت و برنامه‌ای که واسه tailor کردن رزومه‌م ساخته بودم لحاظ کرده بودم.
جواب داد. یعنی تا مصاحبه گرفتن :))


خیلی مهمه‌ها!

لینک مرجع