Qwen3-VL
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
GitHub
GitHub - QwenLM/Qwen3-VL: Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud. - QwenLM/Qwen3-VL
👍24❤2
چندین بار اومدم از تجربم روی راهاندازی
ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
H200 بگم و Sync کردن و تستهای مختلف که چندروز درگیرش بودم.ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
❤26👍10
یک عنوان شغلی هم داریم
من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
Content Writer من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص مینویسه.مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم میداد ایراداش رو میگرفت براش.بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
👍54❤7
#ایده #تجربه
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
واقعا باورم نمیشه؛ ۱ ساعت طول کشید
الان من ۵۰ تا
هم ۵۰۰۰ دلار هزینه سالیانه
این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
API و این سایت بهترین ارائه دهنده هست.یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
LLM بدم + سورس کد سایتها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.واقعا باورم نمیشه؛ ۱ ساعت طول کشید
prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایتها بهش میدادم)الان من ۵۰ تا
url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!هم ۵۰۰۰ دلار هزینه سالیانه
api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیرها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
LLM خیلی چیز جالبی هست.👍46❤17
اینو میگم که دیگه اتفاق نیوفته؛
روی کدهای
باید از
واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
روی کدهای
LLM توی بکند و فرانت long polling جواب نیستا!باید از
SSE استفاده کنید.واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
long poll استفاده میکنه بجای SSE توی سرویسهای LLM اش.قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
web-socket برای سرویس دهی.👍23❤4
امروز رو با تست دوتا مدل جدید شروع کنیم :
۱) خانواده
۲) برای این یکی هیجان دارم
۱) خانواده
Granite 4.0 از IBM۲) برای این یکی هیجان دارم
NeuTTS Air که رقیب درخوری برای مدلهای Eleven Labs بنظر میاد.❤12👍6
GLM-4.6
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
همون ابتدا از دور خارج شد چون
از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
مواردی که تست کردم
برای تمام مدلها اگر قابلیت
مدلهای
اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
مدل
۱- اگر من خطایی رو داشتم؛ مثلا یک
۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
درنهایت اومدم سراغ
مشکل رو پیدا کرد مثل
یک مشکل من با
یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
خلاصه:
بنظرم بد نیست به آپدیت جدید
توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
refactor و البته اکثرا هم logic بود.تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
refactor اصلی تموم شده و منطق درست هست؛ حالا هدف بعدی بهینه سازی هست که باید روش کار کنم!چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
Geminiهمون ابتدا از دور خارج شد چون
vpn هام رو شناسایی میکرد و وقت نداشتم که بخوام مشکل رو حل کنم Qwen از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
ast رو استفاده میکنه و قدم به قدم سورس کد رو واکشی میکنه و توضیح میده و... بگذریم الان جاش نیست)مواردی که تست کردم
GLM-4.5, GLM4.6 - Claude - Grok Expert - ChatGPT, Deepseekبرای تمام مدلها اگر قابلیت
deep think روی بهترین ورژنهاشون وجود داشت ازون استفاده کردم.مدلهای
Deepseek, Claude همون اول حذف شدند؛ شروع خیلی خوبی داشتند ولی بعدش توی logic مربوط به async, multi-thread همه چیز رو گم کردند و افتادند روی loop که همون کد اشتباه رو به حالتهای مختلف هی تکرار میکردند.اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
Claude که این موضوع رو بدون کمک پیدا کرد؛ اما نتونست حلش کنه.مدل
Grok خیلی جالب بود؛ اول راحتترین راه حل رو پیشنهاد داد بعد که بهش گفتم دارم refactor میکنم پس راه حل بهتر رو پیشنهاد بده روشش رو عوض کرد؛ اما ۲ تا مشکل داشت :۱- اگر من خطایی رو داشتم؛ مثلا یک
import اشتباه متوجه نمیشد و توی loop بینهایت میوفتاد. ۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
ChatGPT بر خلاف Grok توضیح میده و تیکه تیکه جواب میده و میشه باهاش کنار اومد؛ یک تکنیک async اشتباه رو میخواستم تست کنم برای دیباگ نیاز داشتم. روی Grok هرچقدر توضیح دادم اینکار رو نکرد و کد رو تحویلم نداد؛ درنهایت هم چیزی که تحویل داد اشتباه بود. همینکار رو با ChatGPT انجام دادم؛ چون فکر میکردم اینم مقاومت کنه براش توضیح دادم که روی Debug لازم دارم و ... (پرامپت آخری که به Grok دادم تا کار کنه) و خروجی داد ولی بطور کلی نتونست بهترین راه حل رو پیشنهاد بده (چیزی که Grok انجام داده بود)درنهایت اومدم سراغ
GLM4.6 توضیحات اولیه مختصر و ادیت کد (برای توضیحات بیشتر گفته مجدد پرامپت بده که بنظرم خیلی رفتار درست و خوبیه)مشکل رو پیدا کرد مثل
Grok و راه حل خوبی رو هم پیشنهاد داد مهمترین بخشش سرعتش هست بسیار بسیار سریع توکنها رو خروجی میده و باهاش میشه راحت کد توسعه داد.یک مشکل من با
LLM ها همینه سرعت توسعه خودم از کلکل با اونها بیشتره.یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
Logic اشتباه (چندتا پرامپت طول کشید ولی مسیر درست رو داشت میرفت) وقتی راهکار آخر رو داشت تایپ میکرد در انتها چندتا فایل و بخش دیگه رو پیشنهاد داد؛ چرا؟ چون فکر میکنه این تغییرات refactor رو تمیزتر میکنه و واقعا هم درست فکر میکنه!درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
Rust هستم چون این بخشها bottleneck شده برامون و Rust خیلی میتونه کمک کنه threading, async, ... سنگینی داره.Grok, ChatGpt, GLM-4.6
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
GLM-4.6 بنظر کد درستی رو فقط داده؛ توی نگاه اول روی Grok, ChatGPT دارم خطا میبینم ( از نوع channel اشتباه استفاده کردند)خلاصه:
بنظرم بد نیست به آپدیت جدید
z.ai هم سری بزنید و با GLM-4.6 هم تست انجام بدبد؛ سرعت و دقت فوقالعاده!توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
firefox هم میتونید از Dark Reader Addons استفاده کنید یکم تنظیمش کنید Dark mode خوبی برای z.ai بهتون میده (دلیلی که خودم ازین مدل کم استفاده میکنم همین بود)chat.z.ai
Z.ai Chat - Free AI powered by GLM-4.6 & GLM-4.5
Chat with Z.ai's free AI to build apps, create presentations, and write professionally. Fast, smart, and reliable, powered by GLM-4.6.
👍31❤16
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
B50 Pro
بنچمارکهای کاربری روش منتشر میشه و مدل
20B پارامتری openai رو با 42t/s داره اجرا میکنه مصرف برق: ۷۰ وات
قیمت: آپدیت خورده بخاطر تعرفهها و شده ۳۵۰ دلار
اگر برای
inference و llm نیاز به GPU دارید این مدل رو حتما بهش نگاه کنید یا داداش بزرگش B60 Pro رو❤11👍4
Forwarded from RandRng
پیام پاول دوروف به مناسبت تولد ۴۱ سالگی و البته قوانین کنترل شدید اینترنت اروپا؛
https://t.iss.one/durov/452
https://t.iss.one/durov/452
👍20❤1
متا یک ابزار جدید منتشر کرده (شاید خیلی ساکت شخصا اتفاقی دیدم) به اسم OpenZL که برای compress کردن دیتا استفاده میشه که Format Aware هم هست.
compression path
های متفاوت میتونید بهش بدید (براساس نوع داده) ولی همهی موارد با یک decompressor به حالت عادی بر میگردند.
مهم سرعت خیلی بالا توی اینکار هست.
درحال حاضر:
بنظرم بدرد تیمهای توسعه ماژولهای دیتابیس یا تیمهایی که دیتا پایپلاین سنگین دارند هم میخوره قطعا!
مثلا بعنوان نمونه؛ یک سمپل دیدم که طرف لاگهای سرورهای شرکت رو داشت با این تست میکرد! لاگ خیلی خیلی سنگین میشه توی شرکتهای بزرگ.
Introducing OpenZL: An Open Source Format-Aware Compression Framework
compression path
های متفاوت میتونید بهش بدید (براساس نوع داده) ولی همهی موارد با یک decompressor به حالت عادی بر میگردند.
مهم سرعت خیلی بالا توی اینکار هست.
درحال حاضر:
well-suited to compressing vector, tabular, or tree-structured data, and can be expected to perform well with numeric, string, or binary data. Common examples include timeseries datasets, ML tensors, and database tables.
بنظرم بدرد تیمهای توسعه ماژولهای دیتابیس یا تیمهایی که دیتا پایپلاین سنگین دارند هم میخوره قطعا!
مثلا بعنوان نمونه؛ یک سمپل دیدم که طرف لاگهای سرورهای شرکت رو داشت با این تست میکرد! لاگ خیلی خیلی سنگین میشه توی شرکتهای بزرگ.
Introducing OpenZL: An Open Source Format-Aware Compression Framework
Engineering at Meta
Introducing OpenZL: An Open Source Format-Aware Compression Framework
OpenZL is a new open source data compression framework that offers lossless compression for structured data. OpenZL is designed to offer the performance of a format-specific compressor with the eas…
👍15❤3
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم.
خب بالاخره
تنها نکته مثبت این محصول؛ قابل حمل بودن و البته مصرف برق کم هست!
برای مصرف برق کم گزینههای دیگه و سریعتر هم هست؛
قابل حمل بودنش اما؛ کمی شک دارم کسی بخواد دستگاه 4000$ دلاری که موقع استفاده هم شدیدا داغ میشه رو توی کیفش بذاره و با خودش جابجا کنه (ی سوال همینجا برام پیش اومد؟ چرا ماژول
اکثر کسایی که خرید کردند و تست کردند؛ میگن باید توی خونه بذاری با یک خنک کننده خوب و دسترسی
موارد جایگزین چی میتونه باشه ؟
از شرکت اینتل میتونید برید سراغ GPUهای سری Arc B50, B60 با توجه به قیمتها میشه با کمی حوصله سیستمی با قمیت
بعضی مدلهایی که روی
جایگزینهای دیگه خرید
اما اگر هر دو این موارد برای شما قابل قبول نیست؛ حتی خرید یک سیستم با ۴ تا
تنها نکته مصرف برق هست؛ دو مورد اول مصرف برق زیادی ندارند مثلا
خلاصه که
شخصا برای آپگیرید سیستم چشم به
پ.ن:
۱- هزینه سیستم با ۴ تا 3090 حدودا:
۲- این لینک هم ببینید اگر ۴ تا 3090 خواستید ببندید.
Local Ai Home Server Build at High End $5000 Price
خب بالاخره
DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات nvidia که نسخه founder edition به زور پیدا میشه این محصول رو به راحتی میتونید پیدا کنید.تنها نکته مثبت این محصول؛ قابل حمل بودن و البته مصرف برق کم هست!
برای مصرف برق کم گزینههای دیگه و سریعتر هم هست؛
AMD و شرکتهای دیگه کارهای جالبی در این زمینه کردند؛ چند موردی رو توی کانالهای دیگه معرفی کردم (تست هم کردم)قابل حمل بودنش اما؛ کمی شک دارم کسی بخواد دستگاه 4000$ دلاری که موقع استفاده هم شدیدا داغ میشه رو توی کیفش بذاره و با خودش جابجا کنه (ی سوال همینجا برام پیش اومد؟ چرا ماژول
wifi اش زیر دستگاه هست بخشی که قراره روی میز قرار بگیره؟)اکثر کسایی که خرید کردند و تست کردند؛ میگن باید توی خونه بذاری با یک خنک کننده خوب و دسترسی
remote بهش بگیری!موارد جایگزین چی میتونه باشه ؟
از شرکت اینتل میتونید برید سراغ GPUهای سری Arc B50, B60 با توجه به قیمتها میشه با کمی حوصله سیستمی با قمیت
5000-6000$ خرید کرد که 256GB رم و 96GB هم حافظه گرافیک داشته باشه با سرعت انتقال داده سریعتر BUS منظورم هست. شخصا با قیمتهایی که گفته شد؛ قطعات رو کنار هم گذاشتم حدود 5200$ میشد البته هارد ۲ برابر و ماژولار بودن و گیم و کارهای دیگه انجام دادن روی این سیستم مواردی هست که با پرداخت ۱۲۰۰ دلار بیشتر به دست میارید! مهمترین نکته پرفورمنس حداقل ۱۰ برابر برای خیلی از مدلها هست! بعضی مدلهایی که روی
DGX Spark طبق گزارشات 3-5 t/s بیشتر نمیده روی این دستگاه بالای 30t/s بهتون میده مثلا مدلهای خانواده Qwen3 جایگزینهای دیگه خرید
mini-pc های شرکتهای رغیب که از AI chip های AMD استفاده میکنند؛ با اینکه توی Inference عملکرد خوبی دارند مشکل این دستگاها عملکرد ضعیف موقع Finetune کردن هست برای همین گزینه Intel رو بیشتر پیشنهاد میدم!اما اگر هر دو این موارد برای شما قابل قبول نیست؛ حتی خرید یک سیستم با ۴ تا
Nvidia 3090 خوش قیمتتر و به مراتب سریعتر از DGX Spark هست.تنها نکته مصرف برق هست؛ دو مورد اول مصرف برق زیادی ندارند مثلا
B50 های اینتل 70W مصرف دارند؛ اما حتی سیستمی با ۴ تا 3090 که مصرف بالایی هم داره خیلی بصرفه تر از DGX Spark خواهد بود؟ چرا ؟ میزان زمانی که دولوپرهای شما بر اساس کند بودن token/second از دست نمیدند میزان زمانی هست که کار شما سریعتر پیشرفت میکنه و خب این خودش تاثیر مستقیم روی درآمد داره!خلاصه که
DGX Spark به معنای واقعی یک سختافزار بدرد نخور ولی بسیار خوشگل هست!شخصا برای آپگیرید سیستم چشم به
Arc B60 دارم و البته قیمتی هم که بالاتر گفتم با فرض قیمتهایی هست که اینتل گفت + هاردهای اضافه و water cooling, ...پ.ن:
۱- هزینه سیستم با ۴ تا 3090 حدودا:
3800-5200 دلار هست بستگی به مادربرد و ...۲- این لینک هم ببینید اگر ۴ تا 3090 خواستید ببندید.
Local Ai Home Server Build at High End $5000 Price
👍15❤6
دستاوردهای یادگیری عمیق(InTec)
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم. خب بالاخره DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات…
چندتا از دوستان پیام دادند بنا به دلایلی مجبور به خرید
قطعا این مشکل توسط پارتنرهای انویدیا حل خواهد شد ولی خب خود دستگاه همونطوری که گفتم ارزش خرید نداره!
جایگزین اگر نیاز دارید:
EVO-X2 AI Mini PC
با تخفیفهای جدیدی که
نکته مهمتر با این
اگر بازم چیز بهتری خواستید (بهتر از نظر من) نسخه اینتل به تازگی معرفی شده
EVO-T1 AI Mini PC
نسخه ۹۶ گیگ رم و ۲ ترابایت هارد این ورژن ۱۱۷۰ دلار هست که با باقی اختلافش با
دوستان اگر دارید ویدئو از
miniPC هستند؛ علاوه بر مواردی که من اشاٰره کردم یک مشکلی هم که داره دیده میشه با نسخه اصلی DGX Spark گرما بیش از حد زیر درخواستهای زیاد هست؛ انویدیا اینطوری تبلیغ کرده که ۱ دونه ازین دستگاه بگیر؛ ۳-۴ تا مدل لود کن و بذار چندتا دولوپر استفاده کنند ولی زیر لود سنگین سریعا داغ میکنه!قطعا این مشکل توسط پارتنرهای انویدیا حل خواهد شد ولی خب خود دستگاه همونطوری که گفتم ارزش خرید نداره!
جایگزین اگر نیاز دارید:
EVO-X2 AI Mini PC
با تخفیفهای جدیدی که
GMKtec داره میده برای نسخه ۱۲۸ گیگ رم و ۲ ترابایت حافظه فقط ۲۰۰۰ دلار هست و البته تعداد توکن بیشتری میده طبق گزارش خود GMKtec چندتا از عددها این هست :Qwen3: 235B ——> 11 t/s
Qwen3: 30B ——> 55 t/s
GPT-OSS: 120B ——> 19 t/s
GPT-OSS: 20B ——> 57 t/s
نکته مهمتر با این
miniPC میتونه به راحتی نقش سیستم اصلی شمارو هم داشته باشه؛ 16-core, 32-thread, 64MB L3 Cache
اگر بازم چیز بهتری خواستید (بهتر از نظر من) نسخه اینتل به تازگی معرفی شده
EVO-T1 AI Mini PC
نسخه ۹۶ گیگ رم و ۲ ترابایت هارد این ورژن ۱۱۷۰ دلار هست که با باقی اختلافش با
DGX Spark میتونید یک Nvidia 5090 هم بخرید و بهش متصل کنید؛ به کمک OCuLink میتونید GPU بهش وصل کنید برای گیمینگ و کارهای جدی AI دوستان اگر دارید ویدئو از
DGX Spark میبینید؛ ویدئو های اسپانسر و کسایی که دستگاه براشون ارسال شده رو نبینید! خیلیهاشون صادق نیستند و فقط مزیتها رو میگن (۹۹٪ هم دستگاه رو با مدلهای دیگه مقایسه نمیکنند؛ مثل همین دو مدل GMKtech که به راحتی DGX Spark رو قورت میده)GMKtec
AMD Ryzen™ AI Max+ 395 --EVO-X2 AI Mini PC
EVO-X2 AMD Ryzen™ Al Max+ 395 Mini PC, the World’s First Windows 11 AI+ PC APU Supporting 70B LLM, Experience relentless power with the AMD Ryzen™ AI Max+ 395. With 16 cores and 32 threads built on the groundbreaking Zen 5 architecture, it clocks up to 5.1GHz.…
👍8❤6
برای
بخش OCR توی مقاله کمترین جذابیت رو داره؛ چرا
کاری که
بخش
حالا چرا
Deepseek OCR پیشنهاد میکنم، برید سراغ مقالهاش.بخش OCR توی مقاله کمترین جذابیت رو داره؛ چرا
A picture is worth a thousand words
کاری که
deepseek کرده این هست؛ میشه گفت یک تکنیک compression ایجاد کرده که context بیشتری به LLM بده بخش
Encoder چیزی هست که لازم دارید، بیشتر بخونید.حالا چرا
OCR ؟ برای اثبات اینکه تکنیکی که حرفش رو زدن قابل انجام هست👍17❤4
#توضیح
توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟
انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم!
من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل از اون ۱ سال روش کار کرده بودم توی یک همکاری دیگر)
دلیل اصلی اینکه وارد این فیلد کاری شدم جدابیتهای حل مسئلهاش بود؛ اینکه یک سری جالشهای سخت رو با ترکیب چند راهکار یا پیشنهاد راهکاری جدید حل میکردند برام خیلی جذاب بود چالشهایی که بعضا با برنامهنویسی قابل حل نبود.
مثل همون
و اکثرا هم از فیلدهایی اومده بودند (شغل اصلیشون) که بقول خودشون دیگه چالش بزرگی براشون نداشت.
توی ۲-۳ سال اخیر و البته شاید ۱ سال گذشته (توی ایران) اما این فیلد دیگه مثل قبل نیست.
برای من این موضوع که با کسی صحبت میکنم و متوجه میشم
اکثرا
اگر یا عنوان تخصصی مثل
خلاصه که چون توی چندسال اخیر فیلد ما خیلی رفته سمت کار با ابزار ترجیح دادم وارد فیلدهای دیگه بشم و اکثر وقت و کارم رو توی اونها بگذرونم تا چالشهای واقعی رو خودم حل کنم؛ (دیدید ۹۸-۹۹٪ پروژههای
همهی اینا باعث شده من جز یک پروژه اصلی که قرارداد دارم؛ بیشتر وقتم رو روی
درنهایت برگردم به سوال اصلی؛
هدف از این کانال هیچوقت دیده شدن و معرفی خودم نبوده. فقط خواستم کنار دوستانم رشد کنیم (هرچند دوستان بسیاری هم پیدا کردم) همین هدف باعث شده وقتی چیز جذابی برای گفتن ندارم و وقتی چیز جذابی نمیبینم چیزی هم ننویسم و سکوت کنم.
توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟
انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم!
من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل از اون ۱ سال روش کار کرده بودم توی یک همکاری دیگر)
دلیل اصلی اینکه وارد این فیلد کاری شدم جدابیتهای حل مسئلهاش بود؛ اینکه یک سری جالشهای سخت رو با ترکیب چند راهکار یا پیشنهاد راهکاری جدید حل میکردند برام خیلی جذاب بود چالشهایی که بعضا با برنامهنویسی قابل حل نبود.
مثل همون
image classification, segmentation, ... بهترین بخش این موضوع اما اینجا بود که با آدمهایی آشنا میشدم که هم علاقه بسیار به کاری که میکردند داشتند (پول کافی توش نبود واقعا) هم خیلی nerd بودند.و اکثرا هم از فیلدهایی اومده بودند (شغل اصلیشون) که بقول خودشون دیگه چالش بزرگی براشون نداشت.
توی ۲-۳ سال اخیر و البته شاید ۱ سال گذشته (توی ایران) اما این فیلد دیگه مثل قبل نیست.
برای من این موضوع که با کسی صحبت میکنم و متوجه میشم
ML Engineer, Deep learning, ... هست خیلی جذابیت داره واقعا با ذوق و شوق راجب کارم (برنامهنویسی بطورکلیتر) با آدمها صحبت میکنم اما اینکه بعد متوجه میشم هیچ درک درستی از مفاهیم نداره بدتر خیلی انرژیم رو میگیره؛ اینکه نمیدونه python, embedding, transformer, ... چطور کار میکنه یا چه قابلیتهایی داره ولی به خودش تایتل میده و میگه با Agent, LLM, ... کار میکنه واقعا تاثیر منفی روی من داره.اکثرا
n8n, langchain, openai api یا کارهایی ازین دست انجام میدند و فکر میکنند دیگه تبدیل به متخصص هوش مصنوعی شدند درحالی که فقط یاد گرفت بین هزاران ابزار موجود برای برنامهنویسها با ۲-۳ مورد از سادهترینهاش کار کنه.اگر یا عنوان تخصصی مثل
ML Engineer, Data-scientist , ... بدون درک مفاهیم فقط یادگرفتی از این ابزارها استفاده کنی؛ هیج جذابتی برای من نداره کاری که میکنی اما اگر یک Software engineer هستی که برای آپدیت بودن سراغ این ابزارها رفتی برات بسیار احترام قائلم که وقت گذاشتی و ابزارهایی که فکر کردی به کارت میاد رو یاد گرفتی. خلاصه که چون توی چندسال اخیر فیلد ما خیلی رفته سمت کار با ابزار ترجیح دادم وارد فیلدهای دیگه بشم و اکثر وقت و کارم رو توی اونها بگذرونم تا چالشهای واقعی رو خودم حل کنم؛ (دیدید ۹۸-۹۹٪ پروژههای
AI رفته سمت اینکه ی api wrapper بنویسیم دور chatgpt, gemini یا ... اگرم جواب نداد بگیم شدنی نیست؛ نه کسی دیتا جمع میکنه نه کسی راهکار میده حتی دیتا کلین کردن هم دیگه خیلی جاها نمیدونن چیه همرو میده به chatgpt تا انجام بده.)همهی اینا باعث شده من جز یک پروژه اصلی که قرارداد دارم؛ بیشتر وقتم رو روی
Rust, Python, Backend Development و یادگیری درمورد چالشهایی مسائلی مثل Distributed processing؛ System Architecture, ... بگذرونم و در زمینه AI فعلا سعی میکتم بیشتر مقالاتی که راهکارهای جذاب ارائه میدند رو بخونم فقط و تا اطلاع ثانوی فقط خودم رو Software Engineer معرفی کنم.درنهایت برگردم به سوال اصلی؛
چرا فعالیت نمیکنم روی کانال ؟
هدف از این کانال هیچوقت دیده شدن و معرفی خودم نبوده. فقط خواستم کنار دوستانم رشد کنیم (هرچند دوستان بسیاری هم پیدا کردم) همین هدف باعث شده وقتی چیز جذابی برای گفتن ندارم و وقتی چیز جذابی نمیبینم چیزی هم ننویسم و سکوت کنم.
❤42👍15
یکی از بهترین نویسندهها در زمینه Machine Learning بالاخره کتابش رو روی Pytorch هم منتشر کرد.
البته نسخه کامل کتاب فعلا فقط روی
یک نگاهی به مباحث بخش
خلاصه پترن پترن چندسال اخیر و نسخههای تنسورفلو و کراس کتاب هست.
Aurelien Geron البته نسخه کامل کتاب فعلا فقط روی
Oreilly Media در دسترس هست ولی حدودا ۲ هفته دیگه از همهی پلتفرمها میتونید خرید کنید.یک نگاهی به مباحث بخش
pytorch انداختم؛ بنظر میاد خیلی از مباحث مهم رو قراره از بیس کد بزنید اما فقط بخشهای مهم رو و وقتی به درک خوبی از کلیت عملکرد رسیدید از پکیجهای آماده مثل transformers و ... استفاده بشه.خلاصه پترن پترن چندسال اخیر و نسخههای تنسورفلو و کراس کتاب هست.
❤36
Forwarded from RandRng
#توصیه@per3onal
این رو به خواهر دوستم گفتم؛ رفیقم زنگ زده، که آقا خواهر من یک شرکتی وارد شده بهش یه سری منابع دادند که بخونه، تازه ۲ هفتهاس وارد شده (این اولین تجربه کاریش هست)
ولی همش میگه، هیچی متوجه نمیشه؛ دوره آموزش یا راهکار یا چیزی داری براش ؟
راهنماییاش کردم و تمام، گفتم این پست رو بنویسم ...
وقتی قراره چیزی یاد بگیری، چه دانشجو، چه کاری چه اصن سنیور
همیشه باید یک نکتهای رو یادت باشه؛
تو بخاطر اینکه هیچ درکی از اون موضوع نداری یا اصلا بلدش نیستی داری اون موضوع رو یاد میگیری.
یعنی اینکه به خودت بگی؛
من چه غلطی دارم میکنم.
من هیچ چیزی نمیفهمم.
من هیچ درکی از کاری که میکنم ندارم.
و ....
کاملاً طبیعی هست؛ نمیگم درستهها حرف تو دهن من نذارید بعداً، میگم طبیعی هست.
چون یادتون رفته یادگیری دقیقاً برای چیزهایی هست که آدم نمیفهمه، که بعد از خوندن یک کتاب ی ذره بفهمه و همین روند ادامه پیدا کنه تا یکجایی برسه که بگه اوکی بعد از خوندن انقدر کتاب و انقدر ویدئو دیدن حالا میفهمم.
اما مهمترین بخشش هم همین هست؛ اون اوایل که هیچی ازش نمیفهمی نا امید نشی و ادامه بدی.
بذارید مثال ساده بزنم، یکی رو پیدا کنید که هیچی برنامهنویسی بلد نیست و میخواد پایتون یاد بگیره؛
بعد جلوش کدهای یک سنیور از پروژهی
بنظرتون بعد از چندماه اگر ببینیدش، انگیزهای براش مونده ؟
یا اینکه اگر بیاد به شما بگه چیزی نفهمیده، خنگترین آدم دنیاس ؟
حالا کنار دست همین آدم، یک راهنما بذارید یک چیزی مثل chatgpt, grok, gemini یا ...
بنظرتون حالا چطوری عمل میکنه ؟
احتمالاً بازهم انگیزه کمی خواهد داشت، اما دیگه مباحث زیادی رو هم میدونه؛
مثلاً میدونه که متغییر چیه؛ یا def برای تعریف تابع هست
حالا کنار دست همین آدم منابع دیگری رو هم بذارید؛ مثل یوتیوب یا ...
ممکنه کمی کند ولی راه خودش رو هم پیدا میکنه؛ از پایتون شروع میکنه تا به جنگو برسه.
داستان همین هست؛ خیلی از منابعی که میخونید ورژن سادهتر نداره.
کتاب
خیلی از بخشهاش رو انقدر توی کار تجربه کردم که برام کاملاً واضح هست و میگم چرا نویسنده وقت مارو داره تلف میکنه ؟
و یک سری بخشها هم، کاملاً اینطوری هستم که من اصلاً نمیفهمم این چی میگه! اصلاً این کلمهها چیه استفاده کرده و ....
جاهایی که همهی متن رو سریع میفهمم و میرم جلو؛ بهم حس خیلی خوبی میده درصورتی که اصلاً چیز خوبی نیست؛ این یعنی من هیچی یاد نگرفتم ازین کتاب، چون چیزی نداره که به من اضافه کنه
اما همین احساس خوب موقتی باعث میشه یادم بره من برای اینکه چیز جدید یاد بگیرم این کتاب رو انتخاب کردم و وقتی وارد مباحثی که بلد نیستم میشم؛ چون توی فصلها و بخشهای قبلی اون حس خوب کاذب رو داشتم، باعث میشه به خودم بگم :
من هیچی نمیفهمم،
من خنگم و ....
خلاصه که اگر شماهم مثل خواهر این دوست من یادتون میره درحال یادگیری هستید، یکجا بنویسید و بذارید جلو چشمتون:
توی برخوردم با آدمها و این روزا؛ بنظرم خیلیها نیاز دارند این نوشته دمه دستشون باشه!
فقط از وقتی که دارید، سواستفاده کنید و برای یادگیری عجله داشته باشید.
در نهایت:
قدم اول برای اینکه شروع کنید به یادگیری، این هست که بفهمید اون موضوع رو یاد نگرفتید یا نفهمیدید.
دقیقاً، پیشرفت بعد از درک نفهمیدم هست.
این رو به خواهر دوستم گفتم؛ رفیقم زنگ زده، که آقا خواهر من یک شرکتی وارد شده بهش یه سری منابع دادند که بخونه، تازه ۲ هفتهاس وارد شده (این اولین تجربه کاریش هست)
ولی همش میگه، هیچی متوجه نمیشه؛ دوره آموزش یا راهکار یا چیزی داری براش ؟
راهنماییاش کردم و تمام، گفتم این پست رو بنویسم ...
وقتی قراره چیزی یاد بگیری، چه دانشجو، چه کاری چه اصن سنیور
همیشه باید یک نکتهای رو یادت باشه؛
تو بخاطر اینکه هیچ درکی از اون موضوع نداری یا اصلا بلدش نیستی داری اون موضوع رو یاد میگیری.
یعنی اینکه به خودت بگی؛
من چه غلطی دارم میکنم.
من هیچ چیزی نمیفهمم.
من هیچ درکی از کاری که میکنم ندارم.
و ....
کاملاً طبیعی هست؛ نمیگم درستهها حرف تو دهن من نذارید بعداً، میگم طبیعی هست.
چون یادتون رفته یادگیری دقیقاً برای چیزهایی هست که آدم نمیفهمه، که بعد از خوندن یک کتاب ی ذره بفهمه و همین روند ادامه پیدا کنه تا یکجایی برسه که بگه اوکی بعد از خوندن انقدر کتاب و انقدر ویدئو دیدن حالا میفهمم.
اما مهمترین بخشش هم همین هست؛ اون اوایل که هیچی ازش نمیفهمی نا امید نشی و ادامه بدی.
بذارید مثال ساده بزنم، یکی رو پیدا کنید که هیچی برنامهنویسی بلد نیست و میخواد پایتون یاد بگیره؛
بعد جلوش کدهای یک سنیور از پروژهی
Django رو بذارید؛ هیچ منبع دیگهای بهش ندید جز چندماه وقت.بنظرتون بعد از چندماه اگر ببینیدش، انگیزهای براش مونده ؟
یا اینکه اگر بیاد به شما بگه چیزی نفهمیده، خنگترین آدم دنیاس ؟
حالا کنار دست همین آدم، یک راهنما بذارید یک چیزی مثل chatgpt, grok, gemini یا ...
بنظرتون حالا چطوری عمل میکنه ؟
احتمالاً بازهم انگیزه کمی خواهد داشت، اما دیگه مباحث زیادی رو هم میدونه؛
مثلاً میدونه که متغییر چیه؛ یا def برای تعریف تابع هست
حالا کنار دست همین آدم منابع دیگری رو هم بذارید؛ مثل یوتیوب یا ...
ممکنه کمی کند ولی راه خودش رو هم پیدا میکنه؛ از پایتون شروع میکنه تا به جنگو برسه.
داستان همین هست؛ خیلی از منابعی که میخونید ورژن سادهتر نداره.
کتاب
Latency که چندروز پیش گفتم؛ واقعاً نسخه سادهتر نداره! خیلی از بخشهاش رو انقدر توی کار تجربه کردم که برام کاملاً واضح هست و میگم چرا نویسنده وقت مارو داره تلف میکنه ؟
و یک سری بخشها هم، کاملاً اینطوری هستم که من اصلاً نمیفهمم این چی میگه! اصلاً این کلمهها چیه استفاده کرده و ....
جاهایی که همهی متن رو سریع میفهمم و میرم جلو؛ بهم حس خیلی خوبی میده درصورتی که اصلاً چیز خوبی نیست؛ این یعنی من هیچی یاد نگرفتم ازین کتاب، چون چیزی نداره که به من اضافه کنه
اما همین احساس خوب موقتی باعث میشه یادم بره من برای اینکه چیز جدید یاد بگیرم این کتاب رو انتخاب کردم و وقتی وارد مباحثی که بلد نیستم میشم؛ چون توی فصلها و بخشهای قبلی اون حس خوب کاذب رو داشتم، باعث میشه به خودم بگم :
من هیچی نمیفهمم،
من خنگم و ....
خلاصه که اگر شماهم مثل خواهر این دوست من یادتون میره درحال یادگیری هستید، یکجا بنویسید و بذارید جلو چشمتون:
من خنگ نیستم، فقط به اندازه کافی راجب این موضوع اطلاع ندارم.
واسه همین دارم اطلاعات کسب میکنم.
توی برخوردم با آدمها و این روزا؛ بنظرم خیلیها نیاز دارند این نوشته دمه دستشون باشه!
فقط از وقتی که دارید، سواستفاده کنید و برای یادگیری عجله داشته باشید.
در نهایت:
قدم اول برای اینکه شروع کنید به یادگیری، این هست که بفهمید اون موضوع رو یاد نگرفتید یا نفهمیدید.
❤31👍4
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech…
#Quick
۱۰ سال زمان برده تا به این دستاورد رسیدند تا
یادمه توی یک مصاحبه؛ از ایلان ماسک راجب انفجارها و فرودهای ناموفق راکتها سوال پرسیدند گفتند خسته نمیشی انقدر پول خرج میکنی و موفق نمیشی ؟
جواب داد قرار نیست فرود موفق ببینیم روی این سری؛ هدف اینه که اشتباهات رو پیدا کنیم هربار که این تستها انجام میشه برای این هست که سیستم رو امنتر کنیم (یعنی یک سری از انفجارها و ... از قبل برنامهریزی شده بود) و اگر انفجار انجام نشه باید نگران باشیم.
البته با ایران مقایسه نشهها؛ اینا شرکتهای خصوصی هستند.
ما شرکتهای خصوصیمون هیچ ریسکی نمیکنند؛
دولتیها ریسک میکنند که خب البته بیشتر هدف دزدی هست نه یادگیری و پیشرفت.
۱۰ سال زمان برده تا به این دستاورد رسیدند تا
250x سریعتر از رقبا و توی همین بازه هم تو زمان ساخت حدود ۱۸ ماه هیچ پیشرفت خاصی نداشتند (هزینه هرماه حدود ۸ میلیون دلار) جز fail کردن و یادگرفتن؛ این چیزیه که مدیرعامل شرکت میگه این دید قشنگی هست برای ساخت.یادمه توی یک مصاحبه؛ از ایلان ماسک راجب انفجارها و فرودهای ناموفق راکتها سوال پرسیدند گفتند خسته نمیشی انقدر پول خرج میکنی و موفق نمیشی ؟
جواب داد قرار نیست فرود موفق ببینیم روی این سری؛ هدف اینه که اشتباهات رو پیدا کنیم هربار که این تستها انجام میشه برای این هست که سیستم رو امنتر کنیم (یعنی یک سری از انفجارها و ... از قبل برنامهریزی شده بود) و اگر انفجار انجام نشه باید نگران باشیم.
البته با ایران مقایسه نشهها؛ اینا شرکتهای خصوصی هستند.
ما شرکتهای خصوصیمون هیچ ریسکی نمیکنند؛
دولتیها ریسک میکنند که خب البته بیشتر هدف دزدی هست نه یادگیری و پیشرفت.
👍27❤3
بهترین نکته در مورد
ChatGpt Atlas
که بمیرم هم نصب نمیکنم بعنوان کسی که هم AI کار کرده هم امنیت.
از مشکلات، privacy و امنیتش بگذرم این بود که!
اینا از chromium دارند استفاده میکنند و یک تیم هم برای توسعه این موضوع تشکیل شده!
جانم؟
مگه سمآلتمن و ... نبودند گفتند با این نسخه میشه کارهای software engineer هارو انجام داد؟
خب الان دوتا سوال دارم:
۱- برای توسعه ۴ تا فیچر احمقانه که نمونه کدهای ورژن سادهاش همه جا هست، چرا تیم توسعه دهنده تشکیل دادید؟
۲- اگر انقدر نتایج روی آنچه خود تیم openai تسکهای واقعی
چرا یک
شارلاتان تر از سم آلتمن دنیا به خودش ندیده؛ آدمای درست رو دنبال کنید که
و تورو به اعتقاداتتون دست بردارید از این سوالا که من تازه برنامهنویسی رو شروع کنم، بنچمارک جدید مدل فلان شده ۹۰٪ نمیدونم ....
ازین پیاما به من ندید!
بکشید بیرون از اینستاگرام!
ChatGpt Atlas
که بمیرم هم نصب نمیکنم بعنوان کسی که هم AI کار کرده هم امنیت.
از مشکلات، privacy و امنیتش بگذرم این بود که!
اینا از chromium دارند استفاده میکنند و یک تیم هم برای توسعه این موضوع تشکیل شده!
جانم؟
مگه سمآلتمن و ... نبودند گفتند با این نسخه میشه کارهای software engineer هارو انجام داد؟
خب الان دوتا سوال دارم:
۱- برای توسعه ۴ تا فیچر احمقانه که نمونه کدهای ورژن سادهاش همه جا هست، چرا تیم توسعه دهنده تشکیل دادید؟
۲- اگر انقدر نتایج روی آنچه خود تیم openai تسکهای واقعی
software engineering اسم میذاره خوب هست! چرا یک
fork از chromium گرفتید که حالا به هر دلیلی بدنامی chrome رو دنبال خودش داره ؟ آها شاید openai پول کافی برای شارژ تعداد توکن مورد نیاز جهت توسعه این محصول رو نداره، بازم زود قضاوت کردم.
شارلاتان تر از سم آلتمن دنیا به خودش ندیده؛ آدمای درست رو دنبال کنید که
openai رو ساختند : John Schulman, Ilya Sutskever, Dario Amodei, ...و تورو به اعتقاداتتون دست بردارید از این سوالا که من تازه برنامهنویسی رو شروع کنم، بنچمارک جدید مدل فلان شده ۹۰٪ نمیدونم ....
ازین پیاما به من ندید!
بکشید بیرون از اینستاگرام!
👍26❤12
دستاوردهای یادگیری عمیق(InTec)
یکی از بهترین نویسندهها در زمینه Machine Learning بالاخره کتابش رو روی Pytorch هم منتشر کرد. Aurelien Geron البته نسخه کامل کتاب فعلا فقط روی Oreilly Media در دسترس هست ولی حدودا ۲ هفته دیگه از همهی پلتفرمها میتونید خرید کنید. یک نگاهی به مباحث بخش…
نسخه نهایی منتشر شد.
Kindle, Epub
Kindle, Epub
❤25👍3