تازگی داشتم با Anthropic Claude Computer Use کار میکردم
این چیز واقعاً ترسناکه!
میتونه خودش کامپیوتر رو کنترل کنه، روی دکمهها کلیک کنه، فرمها رو پر کنه
گفتم برام یک فاکتور توی اکسل درست کن
خودش فایل رو باز کرد، جدول کشید، فرمول نوشت، حتی رنگبندی کرد
یعنی اون assistant اداری که شرکتها استخدام میکنن برای این کارا الان چیکار کنه؟
فعلاً خیلی beta هست و گاهی خراب میکنه ولی آیندهاش روشنه
تا 2 سال دیگه شاید بتونیم بگیم: "کل فروش امروز رو بررسی کن و گزارش بده"
و خودش انجام بده
پ.ن: به قول محمدرضا شعبانعلی به زودی شاهد نابودی وب خواهیم بود. شاید بگین چه ربطی داره؟ خب وقتی ایجینت خودش محتوا تصویر و متنی آماده کنه، خودش هم میره ویو فیک میزنه و همه چی خودکار و بدون دخالت انسان انجام میشه. پس وب دیگه چه ارزش افزوده ای خواهد داشت؟
لینک: https://docs.anthropic.com/en/docs/computer-use
این چیز واقعاً ترسناکه!
میتونه خودش کامپیوتر رو کنترل کنه، روی دکمهها کلیک کنه، فرمها رو پر کنه
گفتم برام یک فاکتور توی اکسل درست کن
خودش فایل رو باز کرد، جدول کشید، فرمول نوشت، حتی رنگبندی کرد
یعنی اون assistant اداری که شرکتها استخدام میکنن برای این کارا الان چیکار کنه؟
فعلاً خیلی beta هست و گاهی خراب میکنه ولی آیندهاش روشنه
تا 2 سال دیگه شاید بتونیم بگیم: "کل فروش امروز رو بررسی کن و گزارش بده"
و خودش انجام بده
پ.ن: به قول محمدرضا شعبانعلی به زودی شاهد نابودی وب خواهیم بود. شاید بگین چه ربطی داره؟ خب وقتی ایجینت خودش محتوا تصویر و متنی آماده کنه، خودش هم میره ویو فیک میزنه و همه چی خودکار و بدون دخالت انسان انجام میشه. پس وب دیگه چه ارزش افزوده ای خواهد داشت؟
لینک: https://docs.anthropic.com/en/docs/computer-use
👍7
چند وقت پیش یک دوستی از پیام داد:
"من با Python خیلی خوبم، حالا کدوم فریمورک یاد بگیرم؟ Django یا FastAPI؟"
گفتم: "کی آخرین بار برنامت کرش کرد؟"
گفت: "دیروز"
"چرا؟"
"نمیدونم، memory leak بود یا چیزی"
گفتم برو اول اینارو یاد بگیر:
چطور کدت رو debug کنی
چطور memory رو مدیریت کنی
چطور test بنویسی
چطور error handling کنی
بعدش بیا فریمورک یاد بگیر😄
پایه قوی نداشته باشی، هر فریمورکی یاد بگیری مشکلت همونه😉
"من با Python خیلی خوبم، حالا کدوم فریمورک یاد بگیرم؟ Django یا FastAPI؟"
گفتم: "کی آخرین بار برنامت کرش کرد؟"
گفت: "دیروز"
"چرا؟"
"نمیدونم، memory leak بود یا چیزی"
گفتم برو اول اینارو یاد بگیر:
چطور کدت رو debug کنی
چطور memory رو مدیریت کنی
چطور test بنویسی
چطور error handling کنی
بعدش بیا فریمورک یاد بگیر😄
پایه قوی نداشته باشی، هر فریمورکی یاد بگیری مشکلت همونه😉
❤6👍5
یک چیز باحال دیدم: Replit Agent
میگی: "یک فروشگاه آنلاین بساز"
خودش کد مینویسه، دیتابیس میسازه، UI طراحی میکنه، تست میکنه، deploy میکنه
10 دقیقه طول کشید
اگه ترسیدی و به درستی پیش خودت میگی: پس ما برنامهنویسا چیکار کنیم؟
جوابش اینه: بجای code monkey بودن، باید product manager و problem solver بشیم
ابزار کد مینویسه، ولی نمیدونه چه چیزی بسازه
ما باید بگیم چه مشکلی حل کنه
نقش ما داره تغییر میکنه، نابود نمیشه (عجب جلمه قصاری گفتم🥹)
همون نصیحت همیشگی من: مهندس نرم افزار باش تا 5 سال آینده توپ هم نمی تونه تکونت بده😎
لینک ابزار: https://replit.com/agent
میگی: "یک فروشگاه آنلاین بساز"
خودش کد مینویسه، دیتابیس میسازه، UI طراحی میکنه، تست میکنه، deploy میکنه
10 دقیقه طول کشید
اگه ترسیدی و به درستی پیش خودت میگی: پس ما برنامهنویسا چیکار کنیم؟
جوابش اینه: بجای code monkey بودن، باید product manager و problem solver بشیم
ابزار کد مینویسه، ولی نمیدونه چه چیزی بسازه
ما باید بگیم چه مشکلی حل کنه
نقش ما داره تغییر میکنه، نابود نمیشه (عجب جلمه قصاری گفتم🥹)
همون نصیحت همیشگی من: مهندس نرم افزار باش تا 5 سال آینده توپ هم نمی تونه تکونت بده😎
لینک ابزار: https://replit.com/agent
❤7👍3🔥1
دوستان عزیز، سال ۲۰۲۵ هست
بهینه ساز SGD
برای اکثر کارهای deep learning دیگه گزینه اول نیست
ساده بگم:
SGD: قدیمی، کنده، نیاز به تنظیم زیاد
Adam: سریع، خودکار، برای اکثر کارها خوبه
AdamW: نسخه بهتر Adam با weight decay
یک قاعده ساده (که لزوما همه جا هم جواب نمیده):
اول Adam رو امتحان کنید
اگر overfitting دیدید، برید سراغ AdamW
کدش:
بهینه ساز SGD
برای اکثر کارهای deep learning دیگه گزینه اول نیست
ساده بگم:
SGD: قدیمی، کنده، نیاز به تنظیم زیاد
Adam: سریع، خودکار، برای اکثر کارها خوبه
AdamW: نسخه بهتر Adam با weight decay
یک قاعده ساده (که لزوما همه جا هم جواب نمیده):
اول Adam رو امتحان کنید
اگر overfitting دیدید، برید سراغ AdamW
کدش:
optimizer = torch.optim.AdamW(model.parameters(), lr=1e-4, weight_decay=0.01)
❤13👍1
یک تیم می شناسم که 6 ماهه دنبال ML engineer میگرده و پیدا نمی کنه
گفتم: "چه شرایطی میخواید؟"
لیست شرایط:
PhD در AI/ML
5+ سال تجربه
مسلط به PyTorch, Hugging Face
تجربه MLOps و Kubernetes
تجربه fine-tuning مدلهای بزرگ
گفتم: "حقوق چقدر؟"
گفت: "22 میلیون تومان"
گفتم این حقوق برای یک junior developer خوبه!
کسی که این رزومه رو داره، حداقل 50 میلیون میارزه
یا بره شرکتهای بینالمللی کار کنه
بازار کار خیلی غیرواقعی شده
انتظارات بالا، پول کم
پ.ن: خیلی وقت بود پست ناله محور نزاشته بودم😃
گفتم: "چه شرایطی میخواید؟"
لیست شرایط:
PhD در AI/ML
5+ سال تجربه
مسلط به PyTorch, Hugging Face
تجربه MLOps و Kubernetes
تجربه fine-tuning مدلهای بزرگ
گفتم: "حقوق چقدر؟"
گفت: "22 میلیون تومان"
گفتم این حقوق برای یک junior developer خوبه!
کسی که این رزومه رو داره، حداقل 50 میلیون میارزه
یا بره شرکتهای بینالمللی کار کنه
بازار کار خیلی غیرواقعی شده
انتظارات بالا، پول کم
پ.ن: خیلی وقت بود پست ناله محور نزاشته بودم😃
👍25❤2😁1
image_2025-09-23_17-28-31.png
76.5 KB
Iranian developers are building amazing AI tools but nobody knows about them
لینک: https://devm.io/machine-learning/ai-tools-haghiri
بدون شرح
لینک: https://devm.io/machine-learning/ai-tools-haghiri
بدون شرح
❤4🔥1
یکی از دوستام گفت: «من از AI هیچی استفاده نمیکنم، ترجیح میدم خودم کار کنم»
گفتم باشه، بیا یه تست کنیم
بهش گفتم یه ایمیل رسمی به انگلیسی بنویس برای درخواست مرخصی
۲۰ دقیقه نشست، ۳ بار نوشت و پاک کرد
آخرش یه متن ۴ خطی نوشت که گرامرش هم مشکل داشت
من همون متن رو ۳۰ ثانیه تو Claude دادم:
«این متن فارسی رو به انگلیسی ترجمه کن، لحن رسمی و مؤدب باشه»
یه ایمیل حرفهای ۱۰ خطی برگردوند
دوستم گفت: «خب این که تقلبه!»
گفتم نه، این هوشمندیه😎
مثل اینکه بگی استفاده از ماشین حساب توی ریاضی تقلبه
کار AI اینه که کارهای تکراری رو برامون انجام بده تا وقت بیشتری برای فکر کردن و خلاقیت داشته باشیم
نه اینکه جایگزین مغزمون بشه
پ.ن: ولی ته ذهنم اینه که هوش مصنوعی مارا تنبل بار میارن و خلاقیتمون کم می کنن😄☺️
گفتم باشه، بیا یه تست کنیم
بهش گفتم یه ایمیل رسمی به انگلیسی بنویس برای درخواست مرخصی
۲۰ دقیقه نشست، ۳ بار نوشت و پاک کرد
آخرش یه متن ۴ خطی نوشت که گرامرش هم مشکل داشت
من همون متن رو ۳۰ ثانیه تو Claude دادم:
«این متن فارسی رو به انگلیسی ترجمه کن، لحن رسمی و مؤدب باشه»
یه ایمیل حرفهای ۱۰ خطی برگردوند
دوستم گفت: «خب این که تقلبه!»
گفتم نه، این هوشمندیه😎
مثل اینکه بگی استفاده از ماشین حساب توی ریاضی تقلبه
کار AI اینه که کارهای تکراری رو برامون انجام بده تا وقت بیشتری برای فکر کردن و خلاقیت داشته باشیم
نه اینکه جایگزین مغزمون بشه
پ.ن: ولی ته ذهنم اینه که هوش مصنوعی مارا تنبل بار میارن و خلاقیتمون کم می کنن😄☺️
❤11👍6
فک کنم نزدیک به دو ساله پیام چاپ مقاله نزاشته بودم😢
ولی خب الان میگم که مقاله جدیدمون اکسپت شد😎
به زودی پابلیش میشه و DOIاش میزارم
از خانم زارعی هم تشکر می کنم
این دومین کار مشترکمون شد
فعلا لینک آرکایو داشته باشید☺️
https://arxiv.org/abs/2311.13925
ولی خب الان میگم که مقاله جدیدمون اکسپت شد😎
به زودی پابلیش میشه و DOIاش میزارم
از خانم زارعی هم تشکر می کنم
این دومین کار مشترکمون شد
فعلا لینک آرکایو داشته باشید☺️
https://arxiv.org/abs/2311.13925
arXiv.org
Deep Neural Decision Forest: A Novel Approach for Predicting...
It is crucial for emergency physicians to identify patients at higher risk of mortality to effectively prioritize hospital resources, particularly in regions with limited medical services. This...
❤7
دیتاهاب
فک کنم نزدیک به دو ساله پیام چاپ مقاله نزاشته بودم😢 ولی خب الان میگم که مقاله جدیدمون اکسپت شد😎 به زودی پابلیش میشه و DOIاش میزارم از خانم زارعی هم تشکر می کنم این دومین کار مشترکمون شد فعلا لینک آرکایو داشته باشید☺️ https://arxiv.org/abs/2311.13925
راستی یکی دو تا کار تحقیقاتی جدید شروع کردیم
با موضوعات هوش مصنوعی در پزشکی
و مدل های زبانی
از دوستان، کسی علاقه داشت چه توی بخش پیاده سازی چه نگارش مشارکت داشته باشه و اسمش درج بشه
رزومه خودش به این اکانت بفرسته (حداکثر تا 2 هفته آینده- چون به زودی تیم بسته میشه و کار سریعا شروع خواهد شد)
@data_hub
با موضوعات هوش مصنوعی در پزشکی
و مدل های زبانی
از دوستان، کسی علاقه داشت چه توی بخش پیاده سازی چه نگارش مشارکت داشته باشه و اسمش درج بشه
رزومه خودش به این اکانت بفرسته (حداکثر تا 2 هفته آینده- چون به زودی تیم بسته میشه و کار سریعا شروع خواهد شد)
@data_hub
❤3
یه خبری می خوندم که: Meta داره Threads رو به یه پلتفرم برنامهنویسی تبدیل میکنه!
منظورم اینه که الان میتونی مستقیم توی Threads کد بنویسی و اجرا کنی
مثل Jupyter Notebook ولی توی یه شبکه اجتماعی!
هنوزم مطمئن نیستم و حدس میزنم ممکنه خبر فیک باشه
ولی اگه بهش فکر کنیم چقدر جالب میشه:
کدت رو مینویسی، بقیه لایک میکنن، کامنت میزارن، suggest میدن
یه جور GitHub + Twitter = Threads
و اگه موفق بشه، LinkedIn خیلی ناراحت میشه 😄
فکر کن بتونی portfolio کدت رو مثل پست اینستاگرام share کنی
منظورم اینه که الان میتونی مستقیم توی Threads کد بنویسی و اجرا کنی
مثل Jupyter Notebook ولی توی یه شبکه اجتماعی!
هنوزم مطمئن نیستم و حدس میزنم ممکنه خبر فیک باشه
ولی اگه بهش فکر کنیم چقدر جالب میشه:
کدت رو مینویسی، بقیه لایک میکنن، کامنت میزارن، suggest میدن
یه جور GitHub + Twitter = Threads
و اگه موفق بشه، LinkedIn خیلی ناراحت میشه 😄
فکر کن بتونی portfolio کدت رو مثل پست اینستاگرام share کنی
👍11
داشتم با Claude Sonnet 4.5 کار میکردم
یهو متوجه شدم این مدل توی reasoning واقعا فرق کرده
یک مسئله پیچیده کدنویسی بهش دادم که GPT-4 گیر کرده بود
نه تنها جواب داد، بلکه مراحل فکریش رو هم توضیح داد
این نسل جدید مدلها دارن یک چیز یاد میگیرن: فکر کردن
دیگه فقط pattern matching نیست، دارن میفهمن چرا یک راه حل کار میکنه
برای کسایی که میخوان کد بزنن:
مدل Claude رو امتحان کنید با پرامپتهای طولانیتر
بهش بگید "قبل از جواب، مراحل فکریت رو بنویس"
تفاوت رو حس میکنید.
پ.ن: نه، این پست اسپانسر نیست😂 واقعا تجربه خودمه
یهو متوجه شدم این مدل توی reasoning واقعا فرق کرده
یک مسئله پیچیده کدنویسی بهش دادم که GPT-4 گیر کرده بود
نه تنها جواب داد، بلکه مراحل فکریش رو هم توضیح داد
این نسل جدید مدلها دارن یک چیز یاد میگیرن: فکر کردن
دیگه فقط pattern matching نیست، دارن میفهمن چرا یک راه حل کار میکنه
برای کسایی که میخوان کد بزنن:
مدل Claude رو امتحان کنید با پرامپتهای طولانیتر
بهش بگید "قبل از جواب، مراحل فکریت رو بنویس"
تفاوت رو حس میکنید.
پ.ن: نه، این پست اسپانسر نیست😂 واقعا تجربه خودمه
👍16❤2
یک اشتباه رایج که تازه متوجه شدم:
خیلیها فکر میکنن fine-tuning همیشه جوابه
نه دوستان، خیلی وقتها RAG بهتره
بذارید ساده بگم:
Fine-tuning = آموزش دوباره مدل
زمانبر، پرهزینه، نیاز به GPU قوی
وقتی دادهتون تغییر کنه، باید دوباره تیون کنید
RAG = دادن اطلاعات در لحظه به مدل
سریع، ارزون، فقط یک vector database لازمه
داده تغییر کرد؟ فقط دیتابیس رو آپدیت کنید
قاعده ساده:
دادهتون ثابته و میخواید سبک نوشتار تغییر کنه؟ → Fine-tune
دادهتون مدام عوض میشه و میخواید مدل بهش دسترسی داشته باشه؟ → RAG
برای شروع یادگیری RAG
LangChain + ChromaDB + OpenAI API
یک آخر هفته کافیه برای یادگیریش
خیلیها فکر میکنن fine-tuning همیشه جوابه
نه دوستان، خیلی وقتها RAG بهتره
بذارید ساده بگم:
Fine-tuning = آموزش دوباره مدل
زمانبر، پرهزینه، نیاز به GPU قوی
وقتی دادهتون تغییر کنه، باید دوباره تیون کنید
RAG = دادن اطلاعات در لحظه به مدل
سریع، ارزون، فقط یک vector database لازمه
داده تغییر کرد؟ فقط دیتابیس رو آپدیت کنید
قاعده ساده:
دادهتون ثابته و میخواید سبک نوشتار تغییر کنه؟ → Fine-tune
دادهتون مدام عوض میشه و میخواید مدل بهش دسترسی داشته باشه؟ → RAG
برای شروع یادگیری RAG
LangChain + ChromaDB + OpenAI API
یک آخر هفته کافیه برای یادگیریش
👍9❤4
یک پند به دوستان جونیور:
دیروز یک نفر پرسید: "چطور میتونم سریعتر کد بزنم؟"
جوابم این بود: "کپیپیست کردن سریع نیست، تکرار کردنه"
توضیح میدم:
وقتی از ChatGPT یا Copilot استفاده میکنید، کد رو کپی نکنید
بخونید، بفهمید، خودتون دوباره بنویسید
چرا؟
چون مغز شما باید الگوها رو یاد بگیره
کپیپیست = حافظه کوتاهمدت
تایپ کردن = حافظه بلندمدت
یک تمرین ساده:
۱. کد AI رو بخونید
۲. پنجره رو ببندید
۳. خودتون از حفظ بنویسید
۴. مقایسه کنید
قطعا اول کاری سخته، ولی بعد از ۱۰ بار، دیگه نیاز به AI ندارید
این فرق یک junior که copy-paste میکنه با یک mid-level که واقعا بلده
دیروز یک نفر پرسید: "چطور میتونم سریعتر کد بزنم؟"
جوابم این بود: "کپیپیست کردن سریع نیست، تکرار کردنه"
توضیح میدم:
وقتی از ChatGPT یا Copilot استفاده میکنید، کد رو کپی نکنید
بخونید، بفهمید، خودتون دوباره بنویسید
چرا؟
چون مغز شما باید الگوها رو یاد بگیره
کپیپیست = حافظه کوتاهمدت
تایپ کردن = حافظه بلندمدت
یک تمرین ساده:
۱. کد AI رو بخونید
۲. پنجره رو ببندید
۳. خودتون از حفظ بنویسید
۴. مقایسه کنید
قطعا اول کاری سخته، ولی بعد از ۱۰ بار، دیگه نیاز به AI ندارید
این فرق یک junior که copy-paste میکنه با یک mid-level که واقعا بلده
❤28👍1
یک چیز عجیب دیدم توی LinkedIn:
یک نفر نوشته بود: "من 15تا مدل machine learning train کردم"
ولی هیچ کدوم deploy نکرده بود
رفقا، مدل train کردن ۲۰٪ کاره
دیپلوی کردن و نگهداری کردنش ۸۰٪ کاره
یک مدل که روی Jupyter Notebook کار میکنه، هنوز آماده محیط واقعی نیست
چیزایی که باید یاد بگیرید:
۱. Docker → از مدلتون کانتینر بسازید.
۲. FastAPI → یک ای پی آی ساده بسازید
۳. AWS/GCP → یاد بگیرید چطور دیپلوی کنید
یک پروژه عملی:
یک مدل ساده بسازید، با FastAPI براش API بنویسید، با Docker یک کانتینر ازش بسازید، روی Heroku یا Railway اونو deploy کنید
این یک پروژه، ارزش ۱۰ تا notebook توی GitHub داره
برای شروع:
FastAPI: https://fastapi.tiangolo.com
Railway: https://railway.app
یک نفر نوشته بود: "من 15تا مدل machine learning train کردم"
ولی هیچ کدوم deploy نکرده بود
رفقا، مدل train کردن ۲۰٪ کاره
دیپلوی کردن و نگهداری کردنش ۸۰٪ کاره
یک مدل که روی Jupyter Notebook کار میکنه، هنوز آماده محیط واقعی نیست
چیزایی که باید یاد بگیرید:
۱. Docker → از مدلتون کانتینر بسازید.
۲. FastAPI → یک ای پی آی ساده بسازید
۳. AWS/GCP → یاد بگیرید چطور دیپلوی کنید
یک پروژه عملی:
یک مدل ساده بسازید، با FastAPI براش API بنویسید، با Docker یک کانتینر ازش بسازید، روی Heroku یا Railway اونو deploy کنید
این یک پروژه، ارزش ۱۰ تا notebook توی GitHub داره
برای شروع:
FastAPI: https://fastapi.tiangolo.com
Railway: https://railway.app
Tiangolo
FastAPI framework, high performance, easy to learn, fast to code, ready for production
👍16❤3
امروز میخوام یک مفهوم رو ساده کنم که خیلیها ازش میترسن:
Mixture of Experts (MoE)
بذارید با یک مثال توضیح بدم:
فرض کنید یک رستوران دارید
به جای اینکه یک آشپز همه غذاها رو بپزه
۱۰ تا آشپز دارید، هرکدوم متخصص یک نوع غذا
وقتی سفارش میگیرید، فقط آشپز مربوطه کار میکنه
نتیجه: سریعتر، بهتر، کارآمدتر
تکنیک MoE دقیقا همینه:
به جای یک مدل بزرگ، چندتا مدل کوچیک (experts) و
یک router تکه صمیم میگیره کدوم expert باید کار کنه
مثال واقعی: Mixtral 8x7B
۸ تا expert داره، ولی فقط ۲ تا برای هر input فعال میشن
نتیجه: سرعت بالا، مصرف واحد پردازشی کمتر
چرا مهمه؟
کممصرفتر، سریعتر، مقیاسپذیرتر
اگر میخواید با MoE کار کنید:
مدل Mixtral رو از Hugging Face امتحان کنید
لینک: https://huggingface.co/mistralai/Mixtral-8x7B-v0.1
Mixture of Experts (MoE)
بذارید با یک مثال توضیح بدم:
فرض کنید یک رستوران دارید
به جای اینکه یک آشپز همه غذاها رو بپزه
۱۰ تا آشپز دارید، هرکدوم متخصص یک نوع غذا
وقتی سفارش میگیرید، فقط آشپز مربوطه کار میکنه
نتیجه: سریعتر، بهتر، کارآمدتر
تکنیک MoE دقیقا همینه:
به جای یک مدل بزرگ، چندتا مدل کوچیک (experts) و
یک router تکه صمیم میگیره کدوم expert باید کار کنه
مثال واقعی: Mixtral 8x7B
۸ تا expert داره، ولی فقط ۲ تا برای هر input فعال میشن
نتیجه: سرعت بالا، مصرف واحد پردازشی کمتر
چرا مهمه؟
کممصرفتر، سریعتر، مقیاسپذیرتر
اگر میخواید با MoE کار کنید:
مدل Mixtral رو از Hugging Face امتحان کنید
لینک: https://huggingface.co/mistralai/Mixtral-8x7B-v0.1
huggingface.co
mistralai/Mixtral-8x7B-v0.1 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
👍8
امروز یک چیز کاربردی براتون دارم
میخواید ببینید مدل زبانیتون چقدر دقیقه؟
این متریک رو حتما اندازه بگیرید:
معیار Perplexity
Perplexity = میزان سردرگمی مدل
عدد کمتر = مدل مطمئنتر
کد ساده با پایتون:
عدد زیر ۲۰؟ مدلتون خوبه
عدد بالای ۵۰؟ یک جایی مشکل داره
درسته که این یک معیار سادست ولی خیلی کمک میکنه بفهمید مدلتون چقدر روی دادهتون خوب کار میکنه، البته معیارهای مکمل هم باید در نظر بگیرین
میخواید ببینید مدل زبانیتون چقدر دقیقه؟
این متریک رو حتما اندازه بگیرید:
معیار Perplexity
Perplexity = میزان سردرگمی مدل
عدد کمتر = مدل مطمئنتر
کد ساده با پایتون:
from transformers import GPT2LMHeadModel, GPT2Tokenizer
import torch
model = GPT2LMHeadModel.from_pretrained('gpt2')
tokenizer = GPT2Tokenizer.from_pretrained('gpt2')
text = "Your text here"
inputs = tokenizer(text, return_tensors='pt')
with torch.no_grad():
outputs = model(**inputs, labels=inputs['input_ids'])
loss = outputs.loss
perplexity = torch.exp(loss)
print(f"Perplexity: {perplexity.item()}")
عدد زیر ۲۰؟ مدلتون خوبه
عدد بالای ۵۰؟ یک جایی مشکل داره
درسته که این یک معیار سادست ولی خیلی کمک میکنه بفهمید مدلتون چقدر روی دادهتون خوب کار میکنه، البته معیارهای مکمل هم باید در نظر بگیرین
👍9❤1
نرخ نامه خدمات طراحی گرافیک 1404.pdf
434.4 KB
هی بهتون میگم برنامه نویسی نون و آب نداره😂
برید سمت طراحی
گوش نمیدین😁
یک نگاه به تعرفه هاشون بندازید، وسوسه انگیزه
تازه تعرفه هاشون واسه نیمه اول امسال بوده
برید سمت طراحی
گوش نمیدین😁
یک نگاه به تعرفه هاشون بندازید، وسوسه انگیزه
تازه تعرفه هاشون واسه نیمه اول امسال بوده
❤2
این پست جدیدم توی لینکدین خیلی دوست دارم
سعی کردم یک سوالی که خیلی پرسیده میشد و دغدغه خیلی ها بود را با مثال واقعی بررسی کنم
لینک پست
سعی کردم یک سوالی که خیلی پرسیده میشد و دغدغه خیلی ها بود را با مثال واقعی بررسی کنم
لینک پست
Linkedin
آیا واقعا هوش مصنوعی "داره جای کپیرایترا رو میگیره؟"
این مدل سوال ها خوراک خودمه و سرم درد میکنه برای پاسخ بهش
پس هفته پیش یه…
این مدل سوال ها خوراک خودمه و سرم درد میکنه برای پاسخ بهش
پس هفته پیش یه…
آیا واقعا هوش مصنوعی "داره جای کپیرایترا رو میگیره؟"
این مدل سوال ها خوراک خودمه و سرم درد میکنه برای پاسخ بهش
پس هفته پیش یه تست ساده کردم تا ببینم واقعاً چقدر این ادعا درسته.
به ChatGPT گفتم: "یه Caption برای پست اینستاگرام واسه یه کافه بنویس."
نوشت:…
این مدل سوال ها خوراک خودمه و سرم درد میکنه برای پاسخ بهش
پس هفته پیش یه تست ساده کردم تا ببینم واقعاً چقدر این ادعا درسته.
به ChatGPT گفتم: "یه Caption برای پست اینستاگرام واسه یه کافه بنویس."
نوشت:…
❤4
یکی از بچه ها می پرسید: "چرا مدلم overfitting میشه؟"
نگاه کردم به کدش، ۵۰۰ تا سمپل داشت
۱۵ تا فیچر ساخته بود
مدلش ۱۰ لایه داشت
بهش گفتم مشتی، تو داری با تفنگ ژ3 به گنجشک شلیک میکنی!
قاعده کوچولوی امروزمون:
اگر دیتاست کوچیک داری، مدل ساده بساز
اگر دیتاست بزرگ داری، مدل پیچیده
ترین مدل سنگین و مصرف کلی GPU هنر نیست و جایزه نمیدن بابتش
توی محیط صنعت اتفاقا گاهی با روش های ساده تر حل کردن، ترندتره
اگه بخام نکته کنکوریش بگم: (علمی و وحی منزل نیست)
کمتر از ۱۰۰۰ سمپل → Logistic Regression یا Decision Tree
۱۰۰۰ تا ۱۰۰۰۰ → Random Forest یا XGBoost
بیشتر از ۱۰۰۰۰ → حالا میتونی سراغ Deep Learning بری
پند نهایی☺️
همیشه از ساده شروع کنید
بعد پیچیدهترش کنید، نه برعکس
پ.ن: گاهی مشکلاتمون با یک مدل ساده حل میشه، نه GPT-5 😅
نگاه کردم به کدش، ۵۰۰ تا سمپل داشت
۱۵ تا فیچر ساخته بود
مدلش ۱۰ لایه داشت
بهش گفتم مشتی، تو داری با تفنگ ژ3 به گنجشک شلیک میکنی!
قاعده کوچولوی امروزمون:
اگر دیتاست کوچیک داری، مدل ساده بساز
اگر دیتاست بزرگ داری، مدل پیچیده
ترین مدل سنگین و مصرف کلی GPU هنر نیست و جایزه نمیدن بابتش
توی محیط صنعت اتفاقا گاهی با روش های ساده تر حل کردن، ترندتره
اگه بخام نکته کنکوریش بگم: (علمی و وحی منزل نیست)
کمتر از ۱۰۰۰ سمپل → Logistic Regression یا Decision Tree
۱۰۰۰ تا ۱۰۰۰۰ → Random Forest یا XGBoost
بیشتر از ۱۰۰۰۰ → حالا میتونی سراغ Deep Learning بری
پند نهایی☺️
همیشه از ساده شروع کنید
بعد پیچیدهترش کنید، نه برعکس
پ.ن: گاهی مشکلاتمون با یک مدل ساده حل میشه، نه GPT-5 😅
👍14