دستاوردهای یادگیری عمیق(InTec)
9.49K subscribers
357 photos
39 videos
44 files
660 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
Qwen3-VL

بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.

من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.
قطعا بیشتر تست می‌کنم چون سلسله‌ای از ایده‌ها تو ذهنم هست.

اگر فرصت داشتید بنظرم ارزش تست کردن داره!
👍242
چندین بار اومدم از تجربم روی راه‌اندازی H200 بگم و Sync کردن و تست‌های مختلف که چندروز درگیرش بودم.

ولی واقعاً انگیزه‌ای نیست!

بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!

چیزی که متوجه شدم:
سفارش‌ها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
26👍10
یک عنوان شغلی هم داریم
Content Writer
من از ۹۰٪ اینا فرار می‌کنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟

چون اینا دقیقاً Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص می‌نویسه.

مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!

تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!

جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم می‌داد ایراداش رو می‌گرفت براش.

بدترین بخشش اینه که ۱۵ تا از کانکشن‌های بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلی‌ها من وقتی کانکشن‌هام چیزی رو لایک یا کامنت می‌ذارند وقت می‌ذارم و می‌خونم.)
👍547
#ایده #تجربه

برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.

من از همه‌ی این سایت‌ها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایت‌ها این فیلترها رو توی بخش Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.

مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو می‌خواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سه‌راهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایت‌ها چون تخصصی هست دقیقا همه‌ی این تنظیمات فیلترها رو ارائه میده)

۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید می‌شدم و به این فکر میکردم که api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :
۱- فیلتر‌ها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این API و این سایت بهترین ارائه دهنده هست.

یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به LLM بدم + سورس کد سایت‌ها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.

واقعا باورم نمیشه؛ ۱ ساعت طول کشید prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایت‌ها بهش میدادم)
الان من ۵۰ تا url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!

هم ۵۰۰۰ دلار هزینه سالیانه api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیر‌ها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)

این تسک رو هیچکدوم از مدل‌های دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تست‌هایی که ازین به بعد انجام خواهم داد برای ارزیابی مدل‌ها؛ خلاصه خواستم بگم این توانایی‌هارو هم دارند مدل‌های LLM خیلی چیز جالبی هست.
👍4617
اینو می‌گم که دیگه اتفاق نیوفته؛
روی کدهای LLM توی بکند و فرانت long polling جواب نیستا!
باید از SSE استفاده کنید.

واقعا فکر نمی‌کردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره long poll استفاده می‌کنه بجای SSE توی سرویس‌های LLM اش.

قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.

پیونشت (شما گفتید) :
روزای اول بعضی شرکت‌ها رفته بودن سراغ web-socket برای سرویس دهی.
👍234
امروز رو با تست دوتا مدل جدید شروع کنیم :

۱) خانواده Granite 4.0 از IBM
۲) برای این یکی هیجان دارم NeuTTS Air که رقیب درخوری برای مدل‌های Eleven Labs بنظر میاد.
12👍6
GLM-4.6

بدون شک باید تستش کنید؛ امروز روی یک پروژه کار می‌کردم که به مشکلات زیادی خورد توی refactor و البته اکثرا هم logic بود.
تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.

الان که دارم این متن رو می‌نویسم refactor اصلی تموم شده و منطق درست هست؛ حالا هدف بعدی بهینه سازی هست که باید روش کار کنم!

چون به مشکلات منطقی زیادی خوردم؛ از تموم مدل‌های موجود گمک گرفتم؛
Gemini
همون ابتدا از دور خارج شد چون vpn هام رو شناسایی میکرد و وقت نداشتم که بخوام مشکل رو حل کنم
Qwen
از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمی‌شد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که ast رو استفاده می‌کنه و قدم به قدم سورس کد رو واکشی می‌کنه و توضیح میده و... بگذریم الان جاش نیست)

مواردی که تست کردم
GLM-4.5, GLM4.6 - Claude - Grok Expert - ChatGPT, Deepseek
برای تمام مدل‌ها اگر قابلیت deep think روی بهترین ورژن‌هاشون وجود داشت ازون استفاده کردم.

مدل‌های Deepseek, Claude همون اول حذف شدند؛ شروع خیلی خوبی داشتند ولی بعدش توی logic مربوط به async, multi-thread همه چیز رو گم کردند و افتادند روی loop که همون کد اشتباه رو به حالت‌های مختلف هی تکرار می‌کردند.
اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگ‌ها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص Claude که این موضوع رو بدون کمک پیدا کرد؛ اما نتونست حلش کنه.


مدل Grok خیلی جالب بود؛ اول راحت‌ترین راه حل رو پیشنهاد داد بعد که بهش گفتم دارم refactor می‌کنم پس راه حل بهتر رو پیشنهاد بده روشش رو عوض کرد؛ اما ۲ تا مشکل داشت :
۱- اگر من خطایی رو داشتم؛ مثلا یک import اشتباه متوجه نمی‌شد و توی loop بی‌نهایت میوفتاد.
۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ می‌کنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن می‌گه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا می‌دونید چی می‌خواید و چرا این مدل خیلی کم خرف هست.

مدل ChatGPT بر خلاف Grok توضیح میده و تیکه تیکه جواب میده و میشه باهاش کنار اومد؛ یک تکنیک async اشتباه رو می‌خواستم تست کنم برای دیباگ نیاز داشتم. روی Grok هرچقدر توضیح دادم اینکار رو نکرد و کد رو تحویلم نداد؛ درنهایت هم چیزی که تحویل داد اشتباه بود. همینکار رو با ChatGPT انجام دادم؛ چون فکر میکردم اینم مقاومت کنه براش توضیح دادم که روی Debug لازم دارم و ... (پرامپت آخری که به Grok دادم تا کار کنه) و خروجی داد ولی بطور کلی نتونست بهترین راه حل رو پیشنهاد بده (چیزی که Grok انجام داده بود)

درنهایت اومدم سراغ GLM4.6 توضیحات اولیه مختصر و ادیت کد (برای توضیحات بیشتر گفته مجدد پرامپت بده که بنظرم خیلی رفتار درست و خوبیه)
مشکل رو پیدا کرد مثل Grok و راه حل خوبی رو هم پیشنهاد داد مهمترین بخشش سرعتش هست بسیار بسیار سریع توکن‌ها رو خروجی میده و باهاش میشه راحت کد توسعه داد.
یک مشکل من با LLM ها همینه سرعت توسعه خودم از کل‌کل با اونها بیشتره.
یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درست‌کردن Logic اشتباه (چندتا پرامپت طول کشید ولی مسیر درست رو داشت می‌رفت) وقتی راهکار آخر رو داشت تایپ می‌کرد در انتها چندتا فایل و بخش دیگه رو پیشنهاد داد؛ چرا؟ چون فکر میکنه این تغییرات refactor رو تمیزتر می‌کنه و واقعا هم درست فکر می‌کنه!

درنهایت یک بخش‌هایی از کد رو درحال منتقل کردن به Rust هستم چون این بخش‌ها bottleneck شده برامون و Rust خیلی می‌تونه کمک کنه threading, async, ... سنگینی داره.
Grok, ChatGpt, GLM-4.6 

رو برای اینکار ازشون کمک گرفتم که توی مرور سریع GLM-4.6 بنظر کد درستی رو فقط داده؛ توی نگاه اول روی Grok, ChatGPT دارم خطا می‌بینم ( از نوع channel اشتباه استفاده کردند)

خلاصه:
بنظرم بد نیست به آپدیت جدید z.ai هم سری بزنید و با GLM-4.6 هم تست انجام بدبد؛ سرعت و دقت فوق‌العاده!
توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی firefox هم می‌تونید از Dark Reader Addons استفاده کنید یکم تنظیمش کنید Dark mode خوبی برای z.ai بهتون میده (دلیلی که خودم ازین مدل کم استفاده می‌کنم همین بود)
👍3116
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته…
B50 Pro

بنچمارک‌های کاربری روش منتشر میشه و مدل 20B پارامتری openai رو با 42t/s داره اجرا می‌کنه
مصرف برق: ۷۰ وات
قیمت: آپدیت خورده بخاطر تعرفه‌ها و شده ۳۵۰ دلار

اگر برای inference و llm نیاز به GPU دارید این مدل رو حتما بهش نگاه کنید یا داداش بزرگش B60 Pro رو
11👍4
Forwarded from RandRng
پیام پاول دوروف به مناسبت تولد ۴۱ سالگی و البته قوانین کنترل شدید اینترنت اروپا؛

https://t.iss.one/durov/452
👍201
متا یک ابزار جدید منتشر کرده (شاید خیلی ساکت شخصا اتفاقی دیدم) به اسم OpenZL که برای compress کردن دیتا استفاده می‌شه که Format Aware هم هست.

compression path
های متفاوت می‌تونید بهش بدید (براساس نوع داده) ولی همه‌ی موارد با یک decompressor به حالت عادی بر می‌گردند.
مهم سرعت خیلی بالا توی اینکار هست.

درحال حاضر:
well-suited to compressing vector, tabular, or tree-structured data, and can be expected to perform well with numeric, string, or binary data. Common examples include timeseries datasets, ML tensors, and database tables.

بنظرم بدرد تیم‌های توسعه ماژول‌های دیتابیس یا تیم‌هایی که دیتا پایپ‌لاین سنگین دارند هم می‌خوره قطعا!

مثلا بعنوان نمونه؛ یک سمپل دیدم که طرف لاگ‌های سرورهای شرکت رو داشت با این تست می‌کرد! لاگ خیلی خیلی سنگین میشه توی شرکت‌های بزرگ.

Introducing OpenZL: An Open Source Format-Aware Compression Framework
👍153
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم.

خب بالاخره DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات nvidia که نسخه founder edition به زور پیدا می‌شه این محصول رو به راحتی می‌تونید پیدا کنید.

تنها نکته مثبت این محصول؛ قابل حمل بودن و البته مصرف برق کم هست!
برای مصرف برق کم گزینه‌های دیگه و سریعتر هم هست؛ AMD و شرکت‌های دیگه کارهای جالبی در این زمینه کردند؛ چند موردی رو توی کانال‌های دیگه معرفی کردم (تست هم کردم)
قابل حمل بودنش اما؛ کمی شک دارم کسی بخواد دستگاه 4000$ دلاری که موقع استفاده هم شدیدا داغ میشه رو توی کیفش بذاره و با خودش جابجا کنه (ی سوال همینجا برام پیش اومد؟ چرا ماژول wifi اش زیر دستگاه هست بخشی که قراره روی میز قرار بگیره؟)
اکثر کسایی که خرید کردند و تست کردند؛ میگن باید توی خونه بذاری با یک خنک کننده خوب و دسترسی remote بهش بگیری!

موارد جایگزین چی می‌تونه باشه ؟
از شرکت اینتل می‌تونید برید سراغ GPUهای سری Arc B50, B60 با توجه به قیمت‌‌ها میشه با کمی حوصله سیستمی با قمیت 5000-6000$ خرید کرد که 256GB رم و 96GB هم حافظه گرافیک داشته باشه با سرعت انتقال داده سریعتر BUS منظورم هست. شخصا با قیمت‌هایی که گفته شد؛ قطعات رو کنار هم گذاشتم حدود 5200$ می‌شد البته هارد ۲ برابر و ماژولار بودن و گیم و کارهای دیگه انجام دادن روی این سیستم مواردی هست که با پرداخت ۱۲۰۰ دلار بیشتر به دست میارید! مهمترین نکته پرفورمنس حداقل ۱۰ برابر برای خیلی از مدل‌ها هست!
بعضی مدل‌هایی که روی DGX Spark طبق گزارشات 3-5 t/s بیشتر نمیده روی این دستگاه بالای 30t/s بهتون میده مثلا مدل‌های خانواده Qwen3

جایگزین‌های دیگه خرید mini-pc های شرکت‌های رغیب که از AI chip های AMD استفاده می‌کنند؛ با اینکه توی Inference عملکرد خوبی دارند مشکل این دستگاها عملکرد ضعیف موقع Finetune کردن هست برای همین گزینه Intel رو بیشتر پیشنهاد میدم!

اما اگر هر دو این موارد برای شما قابل قبول نیست؛ حتی خرید یک سیستم با ۴ تا Nvidia 3090 خوش قیمت‌تر و به مراتب سریعتر از DGX Spark هست.

تنها نکته مصرف برق هست؛ دو مورد اول مصرف برق زیادی ندارند مثلا B50 های اینتل 70W مصرف دارند؛ اما حتی سیستمی با ۴ تا 3090 که مصرف بالایی هم داره خیلی بصرفه تر از DGX Spark خواهد بود؟ چرا ؟ میزان زمانی که دولوپر‌های شما بر اساس کند بودن token/second از دست نمی‌دند میزان زمانی هست که کار شما سریعتر پیشرفت می‌کنه و خب این خودش تاثیر مستقیم روی درآمد داره!


خلاصه که DGX Spark به معنای واقعی یک سخت‌افزار بدرد نخور ولی بسیار خوشگل هست!

شخصا برای آپگیرید سیستم چشم به Arc B60 دارم و البته قیمتی هم که بالاتر گفتم با فرض قیمت‌هایی هست که اینتل گفت + هاردهای اضافه و water cooling, ...

پ.ن:
۱- هزینه سیستم با ۴ تا 3090 حدودا: 3800-5200 دلار هست بستگی به مادربرد و ...
۲- این لینک هم ببینید اگر ۴ تا 3090 خواستید ببندید.
Local Ai Home Server Build at High End $5000 Price
👍156
دستاوردهای یادگیری عمیق(InTec)
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم. خب بالاخره DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات…
چندتا از دوستان پیام دادند بنا به دلایلی مجبور به خرید miniPC هستند؛ علاوه بر مواردی که من اشاٰره کردم یک مشکلی هم که داره دیده میشه با نسخه اصلی DGX Spark گرما بیش از حد زیر درخواست‌های زیاد هست؛ انویدیا اینطوری تبلیغ کرده که ۱ دونه ازین دستگاه بگیر؛ ۳-۴ تا مدل لود کن و بذار چندتا دولوپر استفاده کنند ولی زیر لود سنگین سریعا داغ می‌کنه!

قطعا این مشکل توسط پارتنر‌های انویدیا حل خواهد شد ولی خب خود دستگاه همونطوری که گفتم ارزش خرید نداره!
جایگزین اگر نیاز دارید:
EVO-X2 AI Mini PC
با تخفیف‌های جدیدی که GMKtec داره میده برای نسخه ۱۲۸ گیگ رم و ۲ ترابایت حافظه فقط ۲۰۰۰ دلار هست و البته تعداد توکن بیشتری میده طبق گزارش خود GMKtec چندتا از عددها این هست :
Qwen3: 235B ——> 11 t/s
Qwen3: 30B ——> 55 t/s
GPT-OSS: 120B ——> 19 t/s
GPT-OSS: 20B ——> 57 t/s

نکته مهمتر با این miniPC می‌تونه به راحتی نقش سیستم اصلی شمارو هم داشته باشه؛
16-core, 32-thread, 64MB L3 Cache

اگر بازم چیز بهتری خواستید (بهتر از نظر من) نسخه اینتل به تازگی معرفی شده
EVO-T1 AI Mini PC
نسخه ۹۶ گیگ رم و ۲ ترابایت هارد این ورژن ۱۱۷۰ دلار هست که با باقی اختلافش با DGX Spark می‌تونید یک Nvidia 5090 هم بخرید و بهش متصل کنید؛ به کمک OCuLink می‌تونید GPU بهش وصل کنید برای گیمینگ و کارهای جدی AI

دوستان اگر دارید ویدئو‌ از DGX Spark می‌بینید؛ ویدئو ‌های اسپانسر و کسایی که دستگاه براشون ارسال شده رو نبینید! خیلی‌هاشون صادق نیستند و فقط مزیت‌ها رو می‌گن (۹۹٪ هم دستگاه رو با مدل‌های دیگه مقایسه نمی‌کنند؛ مثل همین دو مدل GMKtech که به راحتی DGX Spark رو قورت میده)
👍86
برای Deepseek OCR پیشنهاد می‌کنم، برید سراغ مقاله‌اش.

بخش OCR توی مقاله کمترین جذابیت رو داره؛ چرا

A picture is worth a thousand words


کاری که deepseek کرده این هست؛ میشه گفت یک تکنیک compression ایجاد کرده که context بیشتری به LLM بده

بخش Encoder چیزی هست که لازم دارید، بیشتر بخونید.
حالا چرا OCR ؟ برای اثبات اینکه تکنیکی که حرفش رو زدن قابل انجام هست
👍174
#توضیح

توی خیلی از صحبت‌ها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟
انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم!

من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل از اون ۱ سال روش کار کرده بودم توی یک همکاری دیگر)
دلیل اصلی اینکه وارد این فیلد کاری شدم جدابیت‌های حل مسئله‌اش بود؛ اینکه یک سری جالش‌های سخت رو با ترکیب چند راهکار یا پیشنهاد راهکاری جدید حل می‌کردند برام خیلی جذاب بود چالش‌هایی که بعضا با برنامه‌نویسی قابل حل نبود.
مثل همون image classification, segmentation, ... بهترین بخش این موضوع اما اینجا بود که با آدمهایی آشنا می‌شدم که هم علاقه بسیار به کاری که می‌کردند داشتند (پول کافی توش نبود واقعا) هم خیلی nerd بودند.
و اکثرا هم از فیلدهایی اومده بودند (شغل اصلیشون) که بقول خودشون دیگه چالش بزرگی براشون نداشت.

توی ۲-۳ سال اخیر و البته شاید ۱ سال گذشته (توی ایران) اما این فیلد دیگه مثل قبل نیست.
برای من این موضوع که با کسی صحبت می‌کنم و متوجه می‌شم ML Engineer, Deep learning, ... هست خیلی جذابیت داره واقعا با ذوق و شوق راجب کارم (برنامه‌نویسی بطورکلی‌تر) با آدم‌ها صحبت می‌کنم اما اینکه بعد متوجه می‌شم هیچ درک درستی از مفاهیم نداره بدتر خیلی انرژیم رو می‌گیره؛ اینکه نمی‌دونه python, embedding, transformer, ... چطور کار می‌کنه یا چه قابلیت‌هایی داره ولی به خودش تایتل میده و میگه با Agent, LLM, ... کار می‌کنه واقعا تاثیر منفی روی من داره.
اکثرا n8n, langchain, openai api یا کارهایی ازین دست انجام می‌دند و فکر می‌کنند دیگه تبدیل به متخصص هوش مصنوعی شدند درحالی که فقط یاد گرفت بین هزاران ابزار موجود برای برنامه‌نویس‌ها با ۲-۳ مورد از ساده‌ترین‌هاش کار کنه.

اگر یا عنوان تخصصی مثل ML Engineer, Data-scientist , ... بدون درک مفاهیم فقط یادگرفتی از این ابزارها استفاده کنی؛ هیج جذابتی برای من نداره کاری که می‌کنی اما اگر یک Software engineer هستی که برای آپدیت بودن سراغ این ابزارها رفتی برات بسیار احترام قائلم که وقت گذاشتی و ابزارهایی که فکر کردی به کارت میاد رو یاد گرفتی.

خلاصه که چون توی چندسال اخیر فیلد ما خیلی رفته سمت کار با ابزار ترجیح دادم وارد فیلدهای دیگه بشم و اکثر وقت و کارم رو توی اون‌ها بگذرونم تا چالش‌های واقعی رو خودم حل کنم؛ (دیدید ۹۸-۹۹٪ پروژه‌های AI رفته سمت اینکه ی api wrapper بنویسیم دور chatgpt, gemini یا ... اگرم جواب نداد بگیم شدنی نیست؛ نه کسی دیتا جمع می‌کنه نه کسی راهکار میده حتی دیتا کلین کردن هم دیگه خیلی جاها نمی‌دونن چیه همرو میده به chatgpt تا انجام بده.)

همه‌ی اینا باعث شده من جز یک پروژه اصلی که قرارداد دارم؛ بیشتر وقتم رو روی Rust, Python, Backend Development و یادگیری درمورد چالش‌هایی مسائلی مثل Distributed processing؛ System Architecture, ... بگذرونم و در زمینه AI فعلا سعی می‌کتم بیشتر مقالاتی که راهکارهای جذاب ارائه میدند رو بخونم فقط و تا اطلاع ثانوی فقط خودم رو Software Engineer معرفی کنم.

درنهایت برگردم به سوال اصلی؛
چرا فعالیت نمی‌کنم روی کانال ؟

هدف از این کانال هیچوقت دیده شدن و معرفی خودم نبوده. فقط خواستم کنار دوستانم رشد کنیم (هرچند دوستان بسیاری هم پیدا کردم) همین هدف باعث شده وقتی چیز جذابی برای گفتن ندارم و وقتی چیز جذابی نمی‌بینم چیزی هم ننویسم و سکوت کنم.
42👍15
یکی از بهترین نویسنده‌ها در زمینه Machine Learning بالاخره کتابش رو روی Pytorch هم منتشر کرد.

Aurelien Geron

البته نسخه کامل کتاب فعلا فقط روی Oreilly Media در دسترس هست ولی حدودا ۲ هفته دیگه از همه‌ی پلتفرم‌ها می‌تونید خرید کنید.

یک نگاهی به مباحث بخش pytorch انداختم؛ بنظر میاد خیلی از مباحث مهم رو قراره از بیس کد بزنید اما فقط بخش‌های مهم رو و وقتی به درک خوبی از کلیت عملکرد رسیدید از پکیج‌های آماده مثل transformers و ... استفاده بشه.

خلاصه پترن پترن چندسال اخیر و نسخه‌های تنسورفلو و کراس کتاب هست.
36
Forwarded from RandRng
#توصیه@per3onal

دقیقاً، پیشرفت بعد از درک نفهمیدم هست.


این رو به خواهر دوستم گفتم؛ رفیقم زنگ زده، که آقا خواهر من یک شرکتی وارد شده بهش یه سری منابع دادند که بخونه، تازه ۲ هفته‌اس وارد شده (این اولین تجربه کاریش هست)

ولی همش می‌گه، هیچی متوجه نمی‌شه؛ دوره آموزش یا راهکار یا چیزی داری براش ؟
راهنمایی‌اش کردم و تمام، گفتم این پست رو بنویسم ...

وقتی قراره چیزی یاد بگیری، چه دانشجو، چه کاری چه اصن سنیور

همیشه باید یک نکته‌ای رو یادت باشه؛

تو بخاطر اینکه هیچ درکی از اون موضوع نداری یا اصلا بلدش نیستی داری اون موضوع رو یاد میگیری.

یعنی اینکه به خودت بگی؛
من چه غلطی دارم می‌کنم.
من هیچ چیزی نمی‌فهمم.
من هیچ درکی از کاری که می‌کنم ندارم.
و ....

کاملاً طبیعی هست؛ نمی‌گم درسته‌ها حرف تو دهن من نذارید بعداً، می‌گم طبیعی هست.

چون یادتون رفته یادگیری دقیقاً برای چیزهایی هست که آدم نمی‌فهمه، که بعد از خوندن یک کتاب ی ذره بفهمه و همین روند ادامه پیدا کنه تا یکجایی برسه که بگه اوکی بعد از خوندن انقدر کتاب و انقدر ویدئو دیدن حالا می‌فهمم.

اما مهمترین بخشش هم همین هست؛ اون اوایل که هیچی ازش نمی‌فهمی نا امید نشی و ادامه بدی.

بذارید مثال ساده بزنم، یکی رو پیدا کنید که هیچی برنامه‌نویسی بلد نیست و می‌خواد پایتون یاد بگیره؛
بعد جلوش کدهای یک سنیور از پروژه‌ی Django رو بذارید؛ هیچ منبع دیگه‌ای بهش ندید جز چندماه وقت.

بنظرتون بعد از چندماه اگر ببینیدش، انگیزه‌ای براش مونده ؟
یا اینکه اگر بیاد به شما بگه چیزی نفهمیده، خنگ‌ترین آدم دنیاس ؟

حالا کنار دست همین آدم، یک راهنما بذارید یک چیزی مثل chatgpt, grok, gemini یا ...
بنظرتون حالا چطوری عمل می‌کنه ؟

احتمالاً بازهم انگیزه کمی خواهد داشت، اما دیگه مباحث زیادی رو هم می‌دونه؛
مثلاً می‌دونه که متغییر چیه؛ یا def برای تعریف تابع هست

حالا کنار دست همین آدم منابع دیگری رو هم بذارید؛ مثل یوتیوب یا ...
ممکنه کمی کند ولی راه خودش رو هم پیدا می‌کنه؛ از پایتون شروع می‌کنه تا به جنگو برسه.


داستان همین هست؛ خیلی از منابعی که می‌خونید ورژن ساده‌تر نداره.
کتاب Latency که چندروز پیش گفتم؛ واقعاً نسخه ساده‌تر نداره!
خیلی از بخش‌هاش رو انقدر توی کار تجربه کردم که برام کاملاً واضح هست و می‌گم چرا نویسنده وقت مارو داره تلف می‌کنه ؟
و یک سری بخش‌ها هم، کاملاً اینطوری هستم که من اصلاً نمی‌فهمم این چی می‌گه! اصلاً این کلمه‌ها چیه استفاده کرده و ....

جاهایی که همه‌ی متن رو سریع میفهمم و میرم جلو؛ بهم حس خیلی خوبی میده درصورتی که اصلاً چیز خوبی نیست؛ این یعنی من هیچی یاد نگرفتم ازین کتاب، چون چیزی نداره که به من اضافه کنه

اما همین احساس خوب موقتی باعث میشه یادم بره من برای اینکه چیز جدید یاد بگیرم این کتاب رو انتخاب کردم و وقتی وارد مباحثی که بلد نیستم می‌شم؛ چون توی فصل‌ها و بخش‌های قبلی اون حس خوب کاذب رو داشتم، باعث میشه به خودم بگم :

من هیچی نمی‌فهمم،
من خنگم و ....

خلاصه که اگر شماهم مثل خواهر این دوست من یادتون میره درحال یادگیری هستید، یکجا بنویسید و بذارید جلو چشمتون:

من خنگ نیستم، فقط به اندازه کافی راجب این موضوع اطلاع ندارم.
واسه همین دارم اطلاعات کسب می‌کنم.


توی برخوردم با آدم‌ها و این روزا؛ بنظرم خیلی‌ها نیاز دارند این نوشته دمه دستشون باشه!
فقط از وقتی که دارید، سواستفاده کنید و برای یادگیری عجله داشته باشید.

در نهایت:
قدم اول برای اینکه شروع کنید به یادگیری، این هست که بفهمید اون موضوع رو یاد نگرفتید یا نفهمیدید.
31👍4
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایده‌اش کمک می‌کنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحله‌اش اینه که خروجی رو Text to Speech…
#Quick

۱۰ سال زمان برده تا به این دستاورد رسیدند تا 250x سریعتر از رقبا و توی همین بازه هم تو زمان ساخت حدود ۱۸ ماه هیچ پیشرفت خاصی نداشتند (هزینه هرماه حدود ۸ میلیون دلار) جز fail کردن و یادگرفتن؛ این چیزیه که مدیرعامل شرکت می‌گه این دید قشنگی هست برای ساخت.

یادمه توی یک مصاحبه؛ از ایلان ماسک راجب انفجارها و فرودهای ناموفق راکت‌ها سوال پرسیدند گفتند خسته نمی‌شی انقدر پول خرج می‌کنی و موفق نمی‌شی ؟
جواب داد قرار نیست فرود موفق ببینیم روی این سری؛ هدف اینه که اشتباهات رو پیدا کنیم هربار که این تست‌ها انجام میشه برای این هست که سیستم رو امن‌تر کنیم (یعنی یک سری از انفجارها و ... از قبل برنامه‌ریزی شده بود) و اگر انفجار انجام نشه باید نگران باشیم.

البته با ایران مقایسه نشه‌ها؛ اینا شرکت‌های خصوصی هستند.
ما شرکت‌های خصوصیمون هیچ ریسکی نمی‌کنند؛
دولتی‌ها ریسک می‌کنند که خب البته بیشتر هدف دزدی هست نه یادگیری و پیشرفت.
👍273
بهترین نکته در مورد
ChatGpt Atlas
که بمیرم هم نصب نمی‌کنم بعنوان کسی که هم AI کار کرده هم امنیت.

از مشکلات، privacy و امنیتش بگذرم این بود که!

اینا از chromium دارند استفاده می‌کنند و یک تیم هم برای توسعه این موضوع تشکیل شده!

جانم؟
مگه سم‌آلتمن و ... نبودند گفتند با این نسخه می‌شه کارهای software engineer هارو انجام داد؟
خب الان دوتا سوال دارم:

۱- برای توسعه ۴ تا فیچر احمقانه که نمونه کدهای ورژن ساده‌اش همه جا هست، چرا تیم توسعه دهنده تشکیل دادید؟

۲- اگر انقدر نتایج روی آنچه خود تیم openai تسک‌های واقعی software engineering اسم می‌ذاره خوب هست!
چرا یک fork از chromium گرفتید که حالا به هر دلیلی بدنامی chrome رو دنبال خودش داره ؟

آها شاید openai پول کافی برای شارژ تعداد توکن مورد نیاز جهت توسعه این محصول رو نداره، بازم زود قضاوت کردم.


شارلاتان تر از سم آلتمن دنیا به خودش ندیده؛ آدمای درست رو دنبال کنید که openai رو ساختند :

John Schulman, Ilya Sutskever, Dario Amodei, ...

و تورو به اعتقاداتتون دست بردارید از این سوالا که من تازه برنامه‌نویسی رو شروع کنم، بنچمارک جدید مدل فلان شده ۹۰٪ نمی‌دونم ....

ازین پیاما به من ندید!
بکشید بیرون از اینستاگرام!
👍2612