برای کلاس امروزم، سعی کردم قسمت خلاصهسازی نظرات کاربران دیجیکالا رو پیادهسازی کنم.
یک نمونه خروجی کار:
به نظرم نکات مثبت و منفی منطقی نیست.
یک نمونه خروجی کار:
🟣 خلاصه دیدگاههای خریداران
اکثر کاربران از محتوا و نکات کاربردی کتاب صوتی و کیفیت صدای دوبله آن راضی هستند و آن را ارزشمند برای علاقهمندان به کارآفرینی و برنامهنویسی میدانند. برخی هم از بستهبندی، هدیه بودن محصول و قیمت مناسب صحبت کردهاند. با این وجود تعدادی از کاربران نظر منفی دارند و معتقدند محتوا زیاد علمی نیست یا بیش از حد شبیه یک رمان است و برای بازار ایران مناسب نیست یا امکان استفاده عملی در ایران محدود است. به طور کلی میتوان گفت کتاب دیدگاهی مثبت با چند نکته انتقادی درباره ارزش آموزشی و تطبیق با شرایط داخلی دارد.
✅ نکات مثبت:
- محتوای خوب و نکات کاربردی
- کیفیت صدای دوبله و صوت باکیفیت
- ارزش خرید بالا نسبت به قیمت/وجود تخفیف و هدیه
❌ نکات منفی:
- محتوا بیارزش یا پول سوزاندن/به درد نمیخورد برای برخی کاربران
- آموزشی محدود یا شبیه به رمان سطح پایین است
- مناسب نبودن یا محدودیتهای عملی آن در ایران (وابستگی به iOS/اپل یا تحریمها)
به نظرم نکات مثبت و منفی منطقی نیست.
تون TOON یا Token-Oriented Object Notation یک فرمت فشرده، خوانا برای انسان و مخصوص سریالسازی دادههاست که با هدف ارسال دادههای ساختاریافته به مدلهای زبانی بزرگ (LLM) طراحی شده تا مصرف توکن را بهطور قابل توجهی کاهش دهد.
این فرمت جایگزینی برای JSON است و همان دادهها را با ساختار مشابه، اما توکنهای کمتر منتقل میکند.
Github-ToonFormat
Github-ToonPython
PyPi-Python Toon 0.1.3
این فرمت جایگزینی برای JSON است و همان دادهها را با ساختار مشابه، اما توکنهای کمتر منتقل میکند.
pip install python-toon==0.1.3
Github-ToonFormat
Github-ToonPython
PyPi-Python Toon 0.1.3
PyTorch Howsam
تون TOON یا Token-Oriented Object Notation یک فرمت فشرده، خوانا برای انسان و مخصوص سریالسازی دادههاست که با هدف ارسال دادههای ساختاریافته به مدلهای زبانی بزرگ (LLM) طراحی شده تا مصرف توکن را بهطور قابل توجهی کاهش دهد. این فرمت جایگزینی برای JSON است…
با تشکر از علی بابت این پست، من با یک مثال از صفحه گیتهاب کارکرد این فرمت رو بیشتر توضیح میدم. جالبه...
ما معمولا از فرمت JSON برای ورودی دادن به LLM-ها استفاده میکنیم. مثلا:
اما، TOON همون اطلاعات مشابه را با توکنهای کمتری بهمون میده. فرمت TOON مثال بالا:
تعداد توکنها با توکنایزر GPT-4o در Tiktokenizer در مثال بالا:
* فرمت JSON برابر با 51
* فرمت TOON برابر با 24
ما معمولا از فرمت JSON برای ورودی دادن به LLM-ها استفاده میکنیم. مثلا:
{
"users": [
{ "id": 1, "name": "Alice", "role": "admin" },
{ "id": 2, "name": "Bob", "role": "user" }
]
}اما، TOON همون اطلاعات مشابه را با توکنهای کمتری بهمون میده. فرمت TOON مثال بالا:
users[2]{id,name,role}:
1,Alice,admin
2,Bob,userتعداد توکنها با توکنایزر GPT-4o در Tiktokenizer در مثال بالا:
* فرمت JSON برابر با 51
* فرمت TOON برابر با 24
امیررضا دانش و تجربه زیادی در یادگیری تقویتی داره. من در این وبینار شرکت کردم و توصیه میکنم دوستان علاقهمند به یادگیری تقویتی ثبتنام کنن.
اطلاعات بیشتر در لینکدین امیررضا: کلیک کنید!
لینک ثبتنام در وبینار: کلیک کنید!
اطلاعات بیشتر در لینکدین امیررضا: کلیک کنید!
لینک ثبتنام در وبینار: کلیک کنید!
قبلا، چند تا توییت بوکمارک کرده بودم که امروز دوباره نگاهشون کردم و جالب بودن. اینجا هم میذارم.
کامنتهای توییت زیر رو هم بخونید. خودمم قبلا اینجا درباره Jina گفته بودم.
توییت زیر از شایان هست که قبلا توی توییتر کار میکرده:
آقای مهدی اللهیاری:
این هم از نیما:
کامنتهای توییت زیر رو هم بخونید. خودمم قبلا اینجا درباره Jina گفته بودم.
بهترین مدل Embedding که برای تسک های فارسی استفاده کردید چی بوده؟
اینجا اگر خواستید بنویسید تا بقیه هم استفاده کنن.
تو open-source ها qwen و Jina و Gemma Embedding تا اینجا برای من خوب کار کردن
لینک
توییت زیر از شایان هست که قبلا توی توییتر کار میکرده:
اگه میخواین بدونین ترند استارتآپهای هوش مصنوعی امسال چی بوده و ایده بگیرین که چه نوع استارتآپی خوبه و کجا جای کار داره و به چه سمتی داریم میریم این ویدئو رو از دست ندین:
لینک
لینک توییت
آقای مهدی اللهیاری:
این به نظر میاد اومده از روی گیت هاب من درست کرده اینو. من اینجا ورژن جدیدتر با حدود ۴۵۰ تا use case: لینک
لینک توییت
این هم از نیما:
تو دیتاساینس اکثرا فقط بخش توسعه مدل رو یادمیگیرن. ولی نه تو دانشگاه، نه از kaggle یا کتابا پیاده سازی و پروداکشن کردن رو یادنمیگیرن. Databricks Free Edition به نظرم بهترین ابزار برای یادگیریه این مهارته. پروژه cloud based باهاش انجام بدین و پروداکت پیاده کنید، کاملا رایگانه!
لینک توییت
وقتی میگم پروژههای جوندار انجام بدید تا رزومه وزن پیدا کنه، منظورم چنین پروژههایی هست.
این پروژه هیچ ارتباطی به به من نداره، من فقط از لینکدین نقل قول کردم. لینک پست رو هم گذاشتم.
این کلاستر محاسباتی کوچک و زیبا، کارِ درخشانِ آقای محمدمتین ناصری، دانشجوی کارشناسی مهندسی کامپیوتر، در درس «اینترنت اشیا» است!
با استفاده از چند برد Raspberry Pi 4 که بهصورت عمودی استک شدهاند، محمدمتین موفق شده یک کلاستر واقعی کوبرنتیز (Kubernetes)+ OpenMPi راهاندازی کند که:
کاملاً کاربردی و مدیریتشده با k3s است
قابلیت اجرای محاسبات ماتریسی بزرگ و موازی را دارد
حدود ۳۰ گیگافلاپس توان محاسباتی ارائه میدهد (معادل یک کامپیوتر رومیزی قدرتمند چند سال پیش!)
همهی اینها در فضای کمتر از یک جعبه کوچک و با مصرف برق بسیار پایین
این پروژه نهتنها نشاندهنده درک عمیق از مفاهیم توزیعشده و orchestration است، بلکه یک نمونه عالی از این حقیقت است که برای شروع کارهای بزرگ، لزوماً به سرورهای چندصدهزاردلاری نیاز نیست؛ گاهی چند برد کوچک و ذهن خلاق کافی است!
افتخار میکنم که چنین دانشجوی باانگیزه و توانمندی در کلاس درسمان داریم 👏
منبع پست در لینکدین
این پروژه هیچ ارتباطی به به من نداره، من فقط از لینکدین نقل قول کردم. لینک پست رو هم گذاشتم.
Linkedin
#گروه #دانشگاه #محمدمتین | Mahmood Ahmadi | 59 comments
این کلاستر محاسباتی کوچک و زیبا، کارِ درخشانِ آقای محمدمتین ناصری، دانشجوی کارشناسی مهندسی کامپیوتر، در درس «اینترنت اشیا» است!
با استفاده از چند برد Raspberry Pi 4 که بهصورت عمودی استک شدهاند، محمدمتین موفق شده یک کلاستر واقعی کوبرنتیز (Kubernetes)+ OpenMPi…
با استفاده از چند برد Raspberry Pi 4 که بهصورت عمودی استک شدهاند، محمدمتین موفق شده یک کلاستر واقعی کوبرنتیز (Kubernetes)+ OpenMPi…
یکجایی توی مکالمه با جمنای، عبارت زیر رو به کار برد:
منظورش که واضحه؛ من هم نسبت به یکسری پستهای لینکدینی همین حس زرد بودن رو دارم. اما از خود جمنای خواستم که بیشتر درباره این عبارتی که نوشته بهم توضیح بده. خلاصه توضیحش رو در آوردم.
یک مورد هم من بگم:
توی این نوع پستهای لینکدینی، هر جمله یک اموجی داره. خصوصا اینها: 🎯⛳️💯👌
لحن زرد و "لینکدینی" به جای لحن علمی
منظورش که واضحه؛ من هم نسبت به یکسری پستهای لینکدینی همین حس زرد بودن رو دارم. اما از خود جمنای خواستم که بیشتر درباره این عبارتی که نوشته بهم توضیح بده. خلاصه توضیحش رو در آوردم.
وقتی میگوییم یک متن «لحن لینکدینی» دارد، منظورمان اشاره به یک سبک خاص و کلیشهای از نوشتار است که در چند سال اخیر در شبکه اجتماعی لینکدین (LinkedIn) بسیار شایع شده و حتی اصطلاح طنزآمیز «Broetry» (ترکیب Bro + Poetry) را برایش ساختهاند.
در اینجا ویژگیهای این «لحن لینکدینی» را باز میکنم:
۱. دراماتیکسازی مصنوعی (The Artificial Drama)
در سبک لینکدینی، نویسنده سعی میکند معمولیترین اتفاقات را به یک داستان حماسی تبدیل کند.
۲. جملات قصار و بریدهبریده (Broetry Style)
اگر دقت کنید، متنهای لینکدینی معمولاً پاراگرافهای طولانی ندارند. هر جمله یک خط است و بین آنها فاصله زیادی میگذارند تا در موبایل راحت خوانده شود (و کاربر بیشتر اسکرول کند که برای الگوریتم خوب است).
۳. تبدیل همه چیز به «درس موفقیت» (Toxic Positivity)
یکی از آزاردهندهترین ویژگیهای لحن لینکدینی این است که به زور میخواهد از هر چیزی «۵ درس برای زندگی» یا «فرمول طلایی موفقیت» بیرون بکشد.
۴. استفاده از کلمات پرطمطراق و توخالی (Buzzwords)
نویسندگان این سبک عاشق کلماتی هستند که هوشمندانه به نظر برسند اما بار معنایی خاصی نداشته باشند.
۵. اعتماد به نفس کاذب (False Authority)
در پستهای لینکدینی، نویسنده (یا راوی) طوری صحبت میکند که انگار دانای کل است و حقایق مطلق را کشف کرده.
نمونه مثال:
لحن علمی/ژورنالیستی: "ایلیا سوتسکیور در سخنرانی خود اشاره کرد که با توجه به ساختار بیولوژیک مغز، احتمالاً هوش مصنوعی محدودیتی در یادگیری نخواهد داشت." (سندیت دارد، بیطرف است).
لحن لینکدینی/زرد: "آیا فکر میکنید مغزتان جادویی است؟ اشتباه میکنید! ایلیا سوتسکیور آب پاکی را روی دست همه ریخت. مغز شما فقط یک کامپیوتر است. برای شوکهکننده ترین حقیقت آماده باشید... 👇" (هیجانی، تهاجمی، کممایه).
یک مورد هم من بگم:
توی این نوع پستهای لینکدینی، هر جمله یک اموجی داره. خصوصا اینها: 🎯⛳️💯👌
عمو Andrew Ng :
ما در حال انتشار یک "Agentic Reviewer" جدید برای مقالات تحقیقاتی هستیم.
من این کار را به عنوان یک پروژه آخر هفته شروع به کدنویسی کردم و Yixing J. آن را بسیار بهتر کرد.
من از دانشجویی الهام گرفتم که مقالهاش در طول ۳ سال ۶ بار رد شده بود.
حلقه بازخورد او که هر بار حدود ۶ ماه طول میکشید تا بازخورد دریافت کند به طرز دردناکی کند بود.
ما میخواستیم ببینیم آیا Agentic Workflow میتواند به محققان کمک کند سریعتر به کارشان بپردازند؟
هنگامی که سیستم را با استفاده از بازبینیهای ICLR 2025 آموزش دادیم و همبستگی Spearman را در مجموعه آزمایشی اندازهگیری کردیم: (بالاتر بهتر است)
همبستگی بین دو بازبین انسانی: 0.41
همبستگی بین AI و یک بازبین انسانی: 0.42
این نشان میدهد که Agentic در حال نزدیک شدن به عملکرد سطح انسانی است.
https://paperreview.ai/
ما در حال انتشار یک "Agentic Reviewer" جدید برای مقالات تحقیقاتی هستیم.
من این کار را به عنوان یک پروژه آخر هفته شروع به کدنویسی کردم و Yixing J. آن را بسیار بهتر کرد.
من از دانشجویی الهام گرفتم که مقالهاش در طول ۳ سال ۶ بار رد شده بود.
حلقه بازخورد او که هر بار حدود ۶ ماه طول میکشید تا بازخورد دریافت کند به طرز دردناکی کند بود.
ما میخواستیم ببینیم آیا Agentic Workflow میتواند به محققان کمک کند سریعتر به کارشان بپردازند؟
هنگامی که سیستم را با استفاده از بازبینیهای ICLR 2025 آموزش دادیم و همبستگی Spearman را در مجموعه آزمایشی اندازهگیری کردیم: (بالاتر بهتر است)
همبستگی بین دو بازبین انسانی: 0.41
همبستگی بین AI و یک بازبین انسانی: 0.42
این نشان میدهد که Agentic در حال نزدیک شدن به عملکرد سطح انسانی است.
https://paperreview.ai/
یک مثال فارسی درباره TF-IDF از جمنای گرفتم، کمی اصلاحش کردم و بعد به نانو بنانا دادم که به تصویر تبدیل کنه.
اینجا، منِ انسان فقط نقش پرامپت دادن، بازبینی و اصلاح پرامپتها و خروجیها، نظارت روی فرآیند انجام کار و ساختن پایپلاین برای رسیدن به هدف رو داشتم. خروجی کار متناسب با سلیقه من نیست، چون اگه قرار بود این رو من بسازم، قشنگتر و عمیقتر میساختم! البته، احتمالا با 20 برابر وقت بیشتر...
ولی با وجود هوش مصنوعی در این سطح، بازم من انسان نقش پررنگی دارم؛ باید اونقدر خوب هدایتش کنم که دقیقا خروجی متناسب با سلیقه خودم ازش بگیرم.
البته، به نظرم ابزارها هم باید پیشرفت کنن و بهتر از این بشن. مثلا، ادیت تصویر راحتتر بشه، نیاز نباشه با هر تغییر پرامپت تصویر از نو ساخته بشه، خروجی ای بدن که قابلیت ادیت شدن در پاورپوینت یا درایو داشته باشه...
اینجا، منِ انسان فقط نقش پرامپت دادن، بازبینی و اصلاح پرامپتها و خروجیها، نظارت روی فرآیند انجام کار و ساختن پایپلاین برای رسیدن به هدف رو داشتم. خروجی کار متناسب با سلیقه من نیست، چون اگه قرار بود این رو من بسازم، قشنگتر و عمیقتر میساختم! البته، احتمالا با 20 برابر وقت بیشتر...
ولی با وجود هوش مصنوعی در این سطح، بازم من انسان نقش پررنگی دارم؛ باید اونقدر خوب هدایتش کنم که دقیقا خروجی متناسب با سلیقه خودم ازش بگیرم.
البته، به نظرم ابزارها هم باید پیشرفت کنن و بهتر از این بشن. مثلا، ادیت تصویر راحتتر بشه، نیاز نباشه با هر تغییر پرامپت تصویر از نو ساخته بشه، خروجی ای بدن که قابلیت ادیت شدن در پاورپوینت یا درایو داشته باشه...
ترند شدیدا صعودی "هوش مصنوعی" در فارسی رو ببینید؛ تقریبا از 2023 اوج گرفتن رو شروع کرده (نمودار آبی). چرا از 2023؟ احتمالا به خاطر ChatGPT (اواخر نوامبر 2022 اومد) و ابزارهایی که بعدش اومدن.
برای زیارت عاشورا (قرمز) و بلک فرایدی (زرد) هم رفتار فصلی میبینیم. اون پیکهای بزرگ قرمز مربوط به محرم میشه. زیارت عاشورا، کلیدواژه پرسرچی هست. حالا سرچ این روزهای هوش مصنوعی رو با اوج زیارت عاشورا مقایسه کنید.
پیک بلک فرایدی داره سال به سال بزرگتر میشه.
نمودار سبز هم مربوط به پایتون میشه. چرا پایتون این اندازه کمه و شیب صعودیش کم هست، اما هوش مصنوعی انقدر شدید رشد کرده؟ چون مردم اینا رو سرچ میکنن:
برای زیارت عاشورا (قرمز) و بلک فرایدی (زرد) هم رفتار فصلی میبینیم. اون پیکهای بزرگ قرمز مربوط به محرم میشه. زیارت عاشورا، کلیدواژه پرسرچی هست. حالا سرچ این روزهای هوش مصنوعی رو با اوج زیارت عاشورا مقایسه کنید.
پیک بلک فرایدی داره سال به سال بزرگتر میشه.
نمودار سبز هم مربوط به پایتون میشه. چرا پایتون این اندازه کمه و شیب صعودیش کم هست، اما هوش مصنوعی انقدر شدید رشد کرده؟ چون مردم اینا رو سرچ میکنن:
آهنگ هوش مصنوعی
دانلود هوش مصنوعی
هوش مصنوعی هایده
هوش مصنوعی مهستی
هوش مصنوعی عکس
برنامه هوش مصنوعی
هوش مصنوعی رایگان
مدتی هست که کموبیش برای مسابقه CSIRO کگل وقت گذاشتم. یک تسک مولتی رگرسیون با دادههای تصویری هست. مسابقه سه ماه وقت داشت که دو ماهش باقیمونده. دیگه نوتبوکش رو به سطح مطلوب برای یک فرد استارتر رسوندم. دیشب پابلیکش کردم. اینجا هم میذارم، اگه خواستید شما هم روش کار کنید. احتمال داره که ویدئوش رو ضبط کنم و توی سایت تحت عنوان پروژه/دوره جدید معرفی کنیم.
https://www.kaggle.com/code/sajadai/csiro-pytorch-starter
https://www.kaggle.com/code/sajadai/csiro-pytorch-starter
Kaggle
CSIRO | PyTorch | Starter
Explore and run machine learning code with Kaggle Notebooks | Using data from multiple data sources
compact-guide-to-large-language-models.pdf
666.7 KB
مشغول سرچ بودم که به این سه تا ایبوک توی دیتابریکس برخورد کردم. رایگان بودن، به همین خاطر میتونم اینجا به اشتراک بذارم. موضوع سه تا ایبوک:
* LLMs
* Machine Learning Use Cases
* MLOps
* LLMs
* Machine Learning Use Cases
* MLOps
بخشی از مصاحبه اخیر ایلیا سوتسکور (Ilya Sutskever) رو در ادامه بخونید:
منبع
دوران آزمون و خطا (۲۰۱۲ تا ۲۰۲۰): در گذشته، پیشرفت در یادگیری ماشین بیشتر بر پایه دستکاری و آزمایشهای تجربی توسط محققان بود تا نتایج جالبی به دست آید.
عصر مقیاسپذیری (Scaling) (۲۰۲۰ تا ۲۰۲۵): با ظهور مدلهایی مثل GPT-3، محققان متوجه شدند که یک فرمول ساده وجود دارد: "افزایش دادهها و قدرت محاسباتی برابر است با نتایج بهتر." این دوران برای شرکتها بسیار جذاب بود، زیرا سرمایهگذاری روی «بزرگتر کردن مدل» ریسک کمتری نسبت به تحقیقات داشت و نتایج آن قابل پیشبینی بود.
پایان دوران مقیاسپذیری آسان: سوتسکور اشاره میکند که دادههای موجود برای آموزش مدلها (Pre-training) محدود هستند و روزی تمام میشوند. او معتقد است که صرفاً بزرگتر کردن مدلها تا ۱۰۰ برابر، دیگر باعث تحول چشمگیری نخواهد شد.
بازگشت به عصر پژوهش (اکنون): ما اکنون دوباره به دورانی بازگشتهایم که نیاز به "پژوهش" و کشف روشهای جدید (فراتر از روشهای فعلی) داریم، با این تفاوت که اکنون کامپیوترهای بسیار قدرتمندتری در اختیار داریم.
منبع
YouTube
The Era of Easy AI Progress Is Ending - Ilya Sutskever
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
امروز توی سرچهام درباره AI Agent با ریپوی زیر مواجه شدم که شامل بیش از 500 پروژه و نمونه کار واقعی از AI Agent هست:
https://github.com/ashishpatel26/500-AI-Agents-Projects
بمونه اینجا شاید بعدا بدردمون خورد...
https://github.com/ashishpatel26/500-AI-Agents-Projects
بمونه اینجا شاید بعدا بدردمون خورد...
GitHub
GitHub - ashishpatel26/500-AI-Agents-Projects: The 500 AI Agents Projects is a curated collection of AI agent use cases across…
The 500 AI Agents Projects is a curated collection of AI agent use cases across various industries. It showcases practical applications and provides links to open-source projects for implementation...
با دوستان داشتیم درباره مایندست صحبت میکردیم. نوید چیزی گفت که خیلی جالب بود و دوست داشتم اینجا هم باشه:
خانم کارل دوک (استاد روانشناسی استنفورد) توی کتاب طرز فکر (مایندست) میگه ما کلا دو نوع طرز فکر داریم، یکی ثابت و یکی رشد...
طرز فکر ثابت، مدام میخواد همه چیزو راحت بدست بیاره و ثبات فکری داره و در برابر یادگیری مقاومت میکنه
اما طرز فکر رشد، مدام دوست داره چیزهای جدید یاد بگیره و از به چالش کشیدن خودش لذت میبره...
در نهایت میگه ما کلی تحقیق کردیم، دیدیم مهمترین تفاوت افراد موفق با افراد دیگه، اینکه اونا طرز فکرشون از نوع رشد بوده.
یک پست جالب در X درباره رزومه و دعوت به مصاحبه دیدم که در ادامه آوردم...
یک نفر گفته:
یک نفر متخصص پیام بالا رو کوت کرده و گفته:
همچنین، یک نفر دیگه تصویر بالا رو منتشر کرده و گفته:
خیلی مهمهها!
لینک مرجع
یک نفر گفته:
من نمیتونم دلیل رد شدن قبل از مصاحبه تو موقعیت کاراموزی رو درک کنم
دیگه چی باید بلد باشم که باهام مصاحبه کنن
ینی واقعا توقعشون بیشتره؟؟؟
یک نفر متخصص پیام بالا رو کوت کرده و گفته:
این نظر شخصی منه:
درصد بالایی از افراد توی همون ۳ثانیه اول دیده شدن رزومهاشون ریجکت می شن!
همچنین، یک نفر دیگه تصویر بالا رو منتشر کرده و گفته:
هیتمپ تمرکز recruiter روی رزومهی applicant. این رو من تو پرامپت و برنامهای که واسه tailor کردن رزومهم ساخته بودم لحاظ کرده بودم.
جواب داد. یعنی تا مصاحبه گرفتن :))
خیلی مهمهها!
لینک مرجع