Forwarded from DevTwitter | توییت برنامه نویسی
Best tool for creating custom wordlists! Manipulate words as you need, without touching the disk.
https://github.com/glitchedgitz/cook
@DevTwitter | <xlr8/>
https://github.com/glitchedgitz/cook
@DevTwitter | <xlr8/>
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 جناب آقای مجتبی مودب تغییراتی در TaskPire اعمال کرده است که شامل افزودن نصب اسکریپت با داکر و حذف node_modules و ایجاد .gitignore است.
https://github.com/Rayiumir/TaskPire
#task
#mern
@TheRaymondDev
https://github.com/Rayiumir/TaskPire
#task
#mern
@TheRaymondDev
GitHub
GitHub - TaskPire/TaskPire: Task management tool
Task management tool. Contribute to TaskPire/TaskPire development by creating an account on GitHub.
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 نظر غیرمحبوب: هیچکدام از فرصتهای شغلی در لینکدین واقعاً به استخدام منجر نمیشوند.
#توییت
@TheRaymondDev
#توییت
@TheRaymondDev
Forwarded from Linuxor ?
ورژن ها معمولا سه بخشی ان :
<Major>.<Minor>.<Patch>
که تغییرات اصلی و پایه ای بخوان انجام بدن Major رو تغییر میدن بخوان مثلا فیچری اضافه کنن Minor رو یه واحد اضافه میکنن و اگه تغییر جزئی باشه مثلا فیکس کردن یه باگ Patch رو تغییر میدن.
هیچ کسی هم هیچ اجباری نکرده به این شکلی ساخته بشه اگه چیز بهتری داشتین بسازین بقیه هم ازتون ایده میگیرن. (در واقع این یه رشته نمادینه، برای اپ های اندرویدی ورژن کد که به صورت int هست اون مهمه)
حالا یه شرکتی میآد میگه من چهار تاییش میکنم چون توی یه ورژن خاص و یکسان ممکنه کانفیگ های متفاوتی بدم. مثلا یه بیلد برای فلان نوع دستگاه یه بیلد برای فلان نوع دستگاه دیگه. ورژن همون ورژنه ولی کانفیگ تغییر کرده اگه عدد Patch رو اضافه کنن سردرگم میشن. چون هیچ کدی تو برنامه تغییر نکرده فقط یه سری کانفیگ برای بیلد تغییر کرده که مثلا برای دستگاه های مختلف سازگار باشه.
در واقع اگه کسی از استاندارد semver یا همون سه تایی استفاده کنه فقط سه تای اول مهمه و تغییر بقیش اصولا نباید منجر به تغییر کد یا چیزی شده باشه و باید یکسان باشه.
@Linuxor
<Major>.<Minor>.<Patch>
که تغییرات اصلی و پایه ای بخوان انجام بدن Major رو تغییر میدن بخوان مثلا فیچری اضافه کنن Minor رو یه واحد اضافه میکنن و اگه تغییر جزئی باشه مثلا فیکس کردن یه باگ Patch رو تغییر میدن.
هیچ کسی هم هیچ اجباری نکرده به این شکلی ساخته بشه اگه چیز بهتری داشتین بسازین بقیه هم ازتون ایده میگیرن. (در واقع این یه رشته نمادینه، برای اپ های اندرویدی ورژن کد که به صورت int هست اون مهمه)
حالا یه شرکتی میآد میگه من چهار تاییش میکنم چون توی یه ورژن خاص و یکسان ممکنه کانفیگ های متفاوتی بدم. مثلا یه بیلد برای فلان نوع دستگاه یه بیلد برای فلان نوع دستگاه دیگه. ورژن همون ورژنه ولی کانفیگ تغییر کرده اگه عدد Patch رو اضافه کنن سردرگم میشن. چون هیچ کدی تو برنامه تغییر نکرده فقط یه سری کانفیگ برای بیلد تغییر کرده که مثلا برای دستگاه های مختلف سازگار باشه.
در واقع اگه کسی از استاندارد semver یا همون سه تایی استفاده کنه فقط سه تای اول مهمه و تغییر بقیش اصولا نباید منجر به تغییر کد یا چیزی شده باشه و باید یکسان باشه.
@Linuxor
Forwarded from mosTafa Arshadi
کسایی که تا حالا ماینکرفت بازی کردن خوب میفهمن که چطور توی حالت creative معمولا ادم بیشتر تخریب میکنه تا اینکه بسازه و توی حالت survival کلا تو فکر توسعه و درست کردنه. این ذات انسانه، شخصی که از اول توی ناز و نعمت بوده اونقدر نمیتونه ارزش خاصی خلق کنه اما در عوض اونی که سختی کشیده و از صفر شروع کرده فقط به فکر خلق ارزش و پیشرفته.
@hamidreza01
@hamidreza01
Forwarded from Linuxor ?
از فردا نرید ورژن هاتون رو چهارتایی کنید صرفا چون یه شرکت بزرگی این کارو کرده.
من خوشبینانه نوشتم اگه میخواید واقعا از Semver استفاده اصلا اجازه چهار تایی نمیده
حتی اجازه نمیده کاراکتر v هم اولش اضافه کنید
مثلا این vهم حتی اشتباهه
v1.4.5
ولی با یه + تهش میتونید آتو آشغال اضافه کنید که موثر نباشه توی ورژن
1.2.3+linuxor
1.2.3+alfa11111
1.2.3+beta
1.2.3+build7272727
1.2.3+20251018
و این پنج تا ورژن باید یکسان باشن و همچنین نکته دوم اینه که بعد از علامت + همچی لکزیکالی مرتب میشه و مشکلی هم بابت alfa و beta و rc نمیآد. (در واقع باید طوری بنویسید که وقتی لکزیکالی مرتب شد معلوم بشه کدوم نسخه بعد کدوم داده شده bata بعد alfa ست چون b لکزیکالی بعد a هست)
@Linuxor
من خوشبینانه نوشتم اگه میخواید واقعا از Semver استفاده اصلا اجازه چهار تایی نمیده
حتی اجازه نمیده کاراکتر v هم اولش اضافه کنید
مثلا این vهم حتی اشتباهه
v1.4.5
ولی با یه + تهش میتونید آتو آشغال اضافه کنید که موثر نباشه توی ورژن
1.2.3+linuxor
1.2.3+alfa11111
1.2.3+beta
1.2.3+build7272727
1.2.3+20251018
و این پنج تا ورژن باید یکسان باشن و همچنین نکته دوم اینه که بعد از علامت + همچی لکزیکالی مرتب میشه و مشکلی هم بابت alfa و beta و rc نمیآد. (در واقع باید طوری بنویسید که وقتی لکزیکالی مرتب شد معلوم بشه کدوم نسخه بعد کدوم داده شده bata بعد alfa ست چون b لکزیکالی بعد a هست)
@Linuxor
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 هیچکس ۹۰٪ کد خودش را با کمک هوش مصنوعی نمینویسد.
حقیقت ناخوشایند این است که افزایش واقعی بهره وری از کدنویسی با هوش مصنوعی بیشتر در حد ۱۰٪ است، نه ۹۰٪ که بعضیها ادعا میکنند.
ساندار پیچای در سال ۲۰۲۴ گفت که ۳۰٪ از کد جدید در گوگل توسط هوش مصنوعی تولید شده است. اما او در پادکست لکس فریدمن (Lex Friedman's) اعتراف کرد که سرعت توسعه مهندسی تنها حدود ۱۰٪ افزایش یافته است.
کدی که با هوش مصنوعی تولید میشود، رایگان یا بدون هزینه نیست؛ همچنان باید بازبینی، تست و برای استفاده در محیط تولید آماده شود. بهینه سازی یک مرحله (تولید کد) الزاماً خروجی نهایی را بیشتر نمیکند، چون گلوگاهها به جاهای دیگر مثل بازبینی کد منتقل میشوند. مهم نیست چقدر کد تولید کنید، اگر نتوانید فرایند بازبینی را هم پای آن جلو ببرید.
#توییت
@TheRaymondDev
حقیقت ناخوشایند این است که افزایش واقعی بهره وری از کدنویسی با هوش مصنوعی بیشتر در حد ۱۰٪ است، نه ۹۰٪ که بعضیها ادعا میکنند.
ساندار پیچای در سال ۲۰۲۴ گفت که ۳۰٪ از کد جدید در گوگل توسط هوش مصنوعی تولید شده است. اما او در پادکست لکس فریدمن (Lex Friedman's) اعتراف کرد که سرعت توسعه مهندسی تنها حدود ۱۰٪ افزایش یافته است.
کدی که با هوش مصنوعی تولید میشود، رایگان یا بدون هزینه نیست؛ همچنان باید بازبینی، تست و برای استفاده در محیط تولید آماده شود. بهینه سازی یک مرحله (تولید کد) الزاماً خروجی نهایی را بیشتر نمیکند، چون گلوگاهها به جاهای دیگر مثل بازبینی کد منتقل میشوند. مهم نیست چقدر کد تولید کنید، اگر نتوانید فرایند بازبینی را هم پای آن جلو ببرید.
#توییت
@TheRaymondDev
X (formerly Twitter)
Santiago (@svpino) on X
Nobody is writing 90% of their code using AI.
Here's the uncomfortable truth:
The real productivity gain from using AI to write code is closer to 10%, nowhere near the 90% people claim.
Sundar Pichai said in 2024 that 30% of the new code at Google was…
Here's the uncomfortable truth:
The real productivity gain from using AI to write code is closer to 10%, nowhere near the 90% people claim.
Sundar Pichai said in 2024 that 30% of the new code at Google was…
Forwarded from Armon technical logs (armon Taheri)
تغییرات جدید پروژه:
افزودن شبکه خصوصی (Private Network) همراه با FQDN
امکان تعیین اندازه دیسک (Disk Size) برای ماشین مجازی
بهبود خروجی شبکه (Network Output) برای ماشینهای دارای چند رابط شبکه
امکان تغییر hostname از طریق متغیرهای Terraform
اضافه شدن بررسی حداقل نسخه Terraform
اضافه شدن ساپورت از چند نتورک اینترفیس
افزودن شبکه خصوصی (Private Network) همراه با FQDN
امکان تعیین اندازه دیسک (Disk Size) برای ماشین مجازی
بهبود خروجی شبکه (Network Output) برای ماشینهای دارای چند رابط شبکه
امکان تغییر hostname از طریق متغیرهای Terraform
اضافه شدن بررسی حداقل نسخه Terraform
اضافه شدن ساپورت از چند نتورک اینترفیس
Forwarded from a pessimistic researcher (Kc)
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from Linuxor ?
Forwarded from محتوای آزاد سهراب (Sohrab)
Forwarded from Linuxor ?
نزدیک به 300k اینماد ثبت شده. شاید فکر کنید این نشون دهنده پیشرفت باشه و مردم دوست دارن به سمت استارتاپ و کسب و کار خودشون برن؛
اما آمار که میگه 99% شون شکست خوردن پس نشون دهنده پیشرفت نیست و چیز دیگه ای هستش، من بهش میگم آب از سر گذشتن... مردم وقتی امنیت شغلی نداشته باشن تمایل پیدا میکنن به ریسک کردن با زندگی خودشون و بجای کار کردن یه جای امن شروع میکنن به راه انداختن استارتاپ و کسب و کار خودشون و طبق تجربه ای که من دارم این فضا به هیچ کس رحم نمیکنه و بدبخت ترشون هم میکنه اتفاقا. هرچند آرزو دارم که هرکس کسبو کاری راه میندازه موفق بشه و خیلی کمک های مفیدی هم بالا توی کانال کردم :)
@Linuxor
اما آمار که میگه 99% شون شکست خوردن پس نشون دهنده پیشرفت نیست و چیز دیگه ای هستش، من بهش میگم آب از سر گذشتن... مردم وقتی امنیت شغلی نداشته باشن تمایل پیدا میکنن به ریسک کردن با زندگی خودشون و بجای کار کردن یه جای امن شروع میکنن به راه انداختن استارتاپ و کسب و کار خودشون و طبق تجربه ای که من دارم این فضا به هیچ کس رحم نمیکنه و بدبخت ترشون هم میکنه اتفاقا. هرچند آرزو دارم که هرکس کسبو کاری راه میندازه موفق بشه و خیلی کمک های مفیدی هم بالا توی کانال کردم :)
@Linuxor
Forwarded from Reza Jafari
چطور بهترین مدل ماشین لرنینگ رو برای پروژهمون انتخاب کنیم؟
انتخاب مدل مناسب یکی از مهمترین بخشهای هر پروژهی Machine Learning به حساب میاد. وقتی با انبوهی از الگوریتمها و گزینههای مختلف روبهرو میشی، خیلی راحت ممکنه سردرگم بشی؛ اینکه بهتره یک مدل ساده و قابل تفسیر رو انتخاب کنی یا یک مدل پیچیده که دقت بالاتری داره اما به سختی قابل توضیحه. یا اینکه باید دنبال بالاترین نمرهی معیارها باشی یا مدلی که سریعتر و راحتتر قابل پیادهسازیه. واقعیت اینه که بهترین مدل اونیه که متناسب با دادهها، نیازهای مسئله و انتظارات ذینفعها انتخاب بشه، نه صرفاً پیچیدهترین یا دقیقترین مدل.
برای شروع باید دقیق بدونی منظورت از «بهترین» در اون پروژه چیه. توی بعضی حوزهها مثل تشخیص تقلب، شاید بخوای به هر قیمتی موارد تقلب رو پیدا کنی حتی اگر چند هشدار اشتباه داشته باشی. در عوض، توی موتورهای پیشنهاد محصول یا فیلم، سرعت پردازش و مقیاسپذیری مهمتر از شفافیت مدل میشه. در پزشکی هم دقت پیشبینی حیاتی هست ولی اگر مدل توضیحپذیر نباشه، پزشک به اون اعتماد نمیکنه. بدون این وضوح، ممکنه مدلی انتخاب کنی که روی کاغذ عالی به نظر میاد اما در عمل کارایی نداره.
قدم بعدی شروع با یک baseline ساده است. به جای اینکه مستقیم بری سراغ neural network یا مدلهای ensemble، اول با الگوریتمهای سادهای مثل linear regression، logistic regression یا decision tree شروع کن. این مدلها کمک میکنن بفهمی دادههات به طور پایهای چقدر اطلاعات دارن و آیا ارزش داره به سمت مدلهای پیچیدهتر بری یا نه. در ضمن، همین baselineها نقطهی مقایسهای ایجاد میکنن که باهاش بتونی عملکرد مدلهای پیشرفتهتر رو واقعبینانه بسنجی.
بعد از داشتن baseline باید معیار درست رو برای سنجش موفقیت انتخاب کنی. Accuracy شاید معروفترین معیار باشه، اما همیشه مناسب نیست، مخصوصاً وقتی دادهها نامتعادلن. مثلاً در تشخیص یک بیماری نادر، اگر همیشه بگی «بیمار نیست»، به ظاهر دقت خیلی بالایی به دست میاری ولی در واقع مدلی ساختی که هیچ فایدهای نداره. برای همین باید بسته به نوع مسئله، معیارهایی مثل Precision، Recall، F1 Score یا ROC-AUC رو در نظر بگیری. در مسائل رگرسیون هم شاخصهایی مثل RMSE، MAE یا R² میتونن دید درستی از کیفیت پیشبینی بهت بدن.
وقتی معیار مشخص شد، باید مطمئن بشی نتایج قابل اعتمادن. استفاده از Cross-Validation جلوی اینکه یک بار تقسیمبندی train و test باعث خوششانسی یا بدشانسی بشه رو میگیره. با تقسیم داده به چند بخش و چرخوندن نقش test بین اونها، تصویر واقعیتر و پایدارتری از عملکرد مدل به دست میاری. این موضوع مخصوصاً وقتی داده کمی داری خیلی مهمه.
از طرف دیگه، باید تعادل بین دقت و Interpretability رو هم در نظر بگیری. شاید مدلهای پیشرفته مثل gradient boosting یا deep learning بهترین اعداد رو نشون بدن، اما اگر کسی نتونه توضیح بده مدل چرا این تصمیم رو گرفته، بهخصوص در حوزههای حساس مثل سلامت یا مالی، پذیرش اون سخت میشه. ابزارهایی مثل SHAP یا LIME میتونن کمک کنن، ولی خودشون پیچیدگی اضافه میکنن و همه جا هم پذیرفته نیستن.
در نهایت، هیچ چیزی جای آزمایش روی دادهی واقعی رو نمیگیره. دادههای آزمایشگاهی تمیز و مرتب معمولاً با شرایط پر از نویز و خطا در دنیای واقعی فاصله دارن. مدلی که در محیط تست خوب عمل میکنه، ممکنه وقتی وارد تولید بشه، با مشکلاتی مثل تغییر شرایط اقتصادی یا ورود دادههای عجیب و غیرمنتظره عملکردش افت کنه. برای همین توصیه میشه همیشه مدل رو توی یک محیط staging یا پایلوت روی دادهی واقعی آزمایش کنی و علاوه بر دقت، پایداری، سرعت و منابع مصرفی رو هم بررسی کنی.
جمعبندی اینه که انتخاب بهترین مدل بیشتر از اینکه مسابقه برای پیدا کردن پیچیدهترین الگوریتم باشه، فرآیندی برای هماهنگ کردن مدل با نیاز واقعی مسئله و محدودیتهاست. با تعریف هدف روشن، شروع ساده، انتخاب معیار درست، استفاده از cross-validation، حفظ تعادل بین دقت و توضیحپذیری و در نهایت تست در شرایط واقعی، میتونی مطمئن باشی مدلی که انتخاب میکنی واقعاً بهترین گزینه برای کارته.
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🌐 لینک ارتباط با اهورا
@reza_jafari_ai
انتخاب مدل مناسب یکی از مهمترین بخشهای هر پروژهی Machine Learning به حساب میاد. وقتی با انبوهی از الگوریتمها و گزینههای مختلف روبهرو میشی، خیلی راحت ممکنه سردرگم بشی؛ اینکه بهتره یک مدل ساده و قابل تفسیر رو انتخاب کنی یا یک مدل پیچیده که دقت بالاتری داره اما به سختی قابل توضیحه. یا اینکه باید دنبال بالاترین نمرهی معیارها باشی یا مدلی که سریعتر و راحتتر قابل پیادهسازیه. واقعیت اینه که بهترین مدل اونیه که متناسب با دادهها، نیازهای مسئله و انتظارات ذینفعها انتخاب بشه، نه صرفاً پیچیدهترین یا دقیقترین مدل.
برای شروع باید دقیق بدونی منظورت از «بهترین» در اون پروژه چیه. توی بعضی حوزهها مثل تشخیص تقلب، شاید بخوای به هر قیمتی موارد تقلب رو پیدا کنی حتی اگر چند هشدار اشتباه داشته باشی. در عوض، توی موتورهای پیشنهاد محصول یا فیلم، سرعت پردازش و مقیاسپذیری مهمتر از شفافیت مدل میشه. در پزشکی هم دقت پیشبینی حیاتی هست ولی اگر مدل توضیحپذیر نباشه، پزشک به اون اعتماد نمیکنه. بدون این وضوح، ممکنه مدلی انتخاب کنی که روی کاغذ عالی به نظر میاد اما در عمل کارایی نداره.
قدم بعدی شروع با یک baseline ساده است. به جای اینکه مستقیم بری سراغ neural network یا مدلهای ensemble، اول با الگوریتمهای سادهای مثل linear regression، logistic regression یا decision tree شروع کن. این مدلها کمک میکنن بفهمی دادههات به طور پایهای چقدر اطلاعات دارن و آیا ارزش داره به سمت مدلهای پیچیدهتر بری یا نه. در ضمن، همین baselineها نقطهی مقایسهای ایجاد میکنن که باهاش بتونی عملکرد مدلهای پیشرفتهتر رو واقعبینانه بسنجی.
بعد از داشتن baseline باید معیار درست رو برای سنجش موفقیت انتخاب کنی. Accuracy شاید معروفترین معیار باشه، اما همیشه مناسب نیست، مخصوصاً وقتی دادهها نامتعادلن. مثلاً در تشخیص یک بیماری نادر، اگر همیشه بگی «بیمار نیست»، به ظاهر دقت خیلی بالایی به دست میاری ولی در واقع مدلی ساختی که هیچ فایدهای نداره. برای همین باید بسته به نوع مسئله، معیارهایی مثل Precision، Recall، F1 Score یا ROC-AUC رو در نظر بگیری. در مسائل رگرسیون هم شاخصهایی مثل RMSE، MAE یا R² میتونن دید درستی از کیفیت پیشبینی بهت بدن.
وقتی معیار مشخص شد، باید مطمئن بشی نتایج قابل اعتمادن. استفاده از Cross-Validation جلوی اینکه یک بار تقسیمبندی train و test باعث خوششانسی یا بدشانسی بشه رو میگیره. با تقسیم داده به چند بخش و چرخوندن نقش test بین اونها، تصویر واقعیتر و پایدارتری از عملکرد مدل به دست میاری. این موضوع مخصوصاً وقتی داده کمی داری خیلی مهمه.
از طرف دیگه، باید تعادل بین دقت و Interpretability رو هم در نظر بگیری. شاید مدلهای پیشرفته مثل gradient boosting یا deep learning بهترین اعداد رو نشون بدن، اما اگر کسی نتونه توضیح بده مدل چرا این تصمیم رو گرفته، بهخصوص در حوزههای حساس مثل سلامت یا مالی، پذیرش اون سخت میشه. ابزارهایی مثل SHAP یا LIME میتونن کمک کنن، ولی خودشون پیچیدگی اضافه میکنن و همه جا هم پذیرفته نیستن.
در نهایت، هیچ چیزی جای آزمایش روی دادهی واقعی رو نمیگیره. دادههای آزمایشگاهی تمیز و مرتب معمولاً با شرایط پر از نویز و خطا در دنیای واقعی فاصله دارن. مدلی که در محیط تست خوب عمل میکنه، ممکنه وقتی وارد تولید بشه، با مشکلاتی مثل تغییر شرایط اقتصادی یا ورود دادههای عجیب و غیرمنتظره عملکردش افت کنه. برای همین توصیه میشه همیشه مدل رو توی یک محیط staging یا پایلوت روی دادهی واقعی آزمایش کنی و علاوه بر دقت، پایداری، سرعت و منابع مصرفی رو هم بررسی کنی.
جمعبندی اینه که انتخاب بهترین مدل بیشتر از اینکه مسابقه برای پیدا کردن پیچیدهترین الگوریتم باشه، فرآیندی برای هماهنگ کردن مدل با نیاز واقعی مسئله و محدودیتهاست. با تعریف هدف روشن، شروع ساده، انتخاب معیار درست، استفاده از cross-validation، حفظ تعادل بین دقت و توضیحپذیری و در نهایت تست در شرایط واقعی، میتونی مطمئن باشی مدلی که انتخاب میکنی واقعاً بهترین گزینه برای کارته.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Gopher Academy
🔵 عنوان مقاله
Flight Recorder in Go 1.25
🟢 خلاصه مقاله:
Flight Recorder در Go 1.25 ابزاری تشخیصی است که بهصورت پیوسته ردیابی اجرای برنامه را ضبط میکند و چند ثانیهی اخیر را در یک بافر چرخشی نگه میدارد. مزیت اصلی این است که پس از وقوع مشکل، میتوان همان پنجره زمانیِ مرتبط را ذخیره و تحلیل کرد، بدون نیاز به فعالبودنِ دائمیِ ردیابی سنگین. این قابلیت برای عیبیابی مسائل گذرا در محیط production—مثل افزایش مقطعی تاخیر، بنبستها، رقابت بر سر قفلها یا تعاملات GC—با سربار کم مفید است و زمان رسیدن به ریشه مشکل را کاهش میدهد. همچنین میتوان بخش ضبطشده را صادر کرد و در ابزارهای آشنای ردیابی Go بررسی نمود تا اتفاقات منتهی به رخداد بهروشنی دیده شود.
#Go #Go125 #FlightRecorder #Tracing #Diagnostics #Observability #ProductionDebugging #Profiling
🟣لینک مقاله:
https://golangweekly.com/link/175049/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Flight Recorder in Go 1.25
🟢 خلاصه مقاله:
Flight Recorder در Go 1.25 ابزاری تشخیصی است که بهصورت پیوسته ردیابی اجرای برنامه را ضبط میکند و چند ثانیهی اخیر را در یک بافر چرخشی نگه میدارد. مزیت اصلی این است که پس از وقوع مشکل، میتوان همان پنجره زمانیِ مرتبط را ذخیره و تحلیل کرد، بدون نیاز به فعالبودنِ دائمیِ ردیابی سنگین. این قابلیت برای عیبیابی مسائل گذرا در محیط production—مثل افزایش مقطعی تاخیر، بنبستها، رقابت بر سر قفلها یا تعاملات GC—با سربار کم مفید است و زمان رسیدن به ریشه مشکل را کاهش میدهد. همچنین میتوان بخش ضبطشده را صادر کرد و در ابزارهای آشنای ردیابی Go بررسی نمود تا اتفاقات منتهی به رخداد بهروشنی دیده شود.
#Go #Go125 #FlightRecorder #Tracing #Diagnostics #Observability #ProductionDebugging #Profiling
🟣لینک مقاله:
https://golangweekly.com/link/175049/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
go.dev
Flight Recorder in Go 1.25 - The Go Programming Language
Go 1.25 introduces a new tool in the diagnostic toolbox, flight recording.
Forwarded from code2 - تکنولوژی و فناوری
یه مدل با نام supernova عرضه شده که ide های cursor و windsurf هم فعلا به رایگان ارائه میدند و میتونید ازش استفاده کنید.
به نظر میرسه فعلا مشخص نیست عرضه کنندهاش چه شرکتی هست و صرفا توسط بازیگرهای اصلی حوزه ide های هوش مصنوعی به صورت پارتنرشیپ داره عرضه میشه.
اما در مجموع مدل خوب و قوی و راضی کنندهای هست. از مودل کد زدن و اجرای دستوراتش حس میکنم که از مدلهای چینی باید باشه. البته صرفا حدس. به نظرم ارزش امتحان کردن داره.
@code2_ir
کانال کد۲
به نظر میرسه فعلا مشخص نیست عرضه کنندهاش چه شرکتی هست و صرفا توسط بازیگرهای اصلی حوزه ide های هوش مصنوعی به صورت پارتنرشیپ داره عرضه میشه.
اما در مجموع مدل خوب و قوی و راضی کنندهای هست. از مودل کد زدن و اجرای دستوراتش حس میکنم که از مدلهای چینی باید باشه. البته صرفا حدس. به نظرم ارزش امتحان کردن داره.
مدل کدنویسی سوپرنوا یک مدل هوش مصنوعی کدنویسی جدید، رایگان و بهسرعت در حال ظهور است که قابلیتهای چندحالته (مولتیمودال) دارد و روی پلتفرمهایی مانند Kilo Code و Cursor در دسترس است. این مدل میتواند کد را از روی تصاویر درک و تولید کند و یک پنجرهی متنی بسیار بزرگ با ظرفیت ۲۰۰,۰۰۰ توکن ارائه میدهد، هرچند در انجام وظایف پیچیده نتایج متناقضی نشان داده است. برخی معتقدند که این مدل میتواند نسخهای از هوش مصنوعی کدنویسی Grok باشد. همچنین یک نسخهی بزرگتر با پنجرهی متنی ۱ میلیون توکن نیز منتشر شده است.
@code2_ir
کانال کد۲
Forwarded from کانال مهرداد لینوکس
ممنون از همه دوستانی که در نظر سنجی شرکت کردند 💐❤️
Forwarded from DevTwitter | توییت برنامه نویسی
کامپیوترها برای نگهداری و نمایش کاراکترهای یک متن از یه فضای یک بایتی (معادل هشت بیت 0 یا 1) استفاده میکردن
این میزان فضا توی کامپیوتر میتونه شامل 255 حالت مختلف بشه
کامپیوترها برای نشانههای گرامری، حروف انگلیسی و عدد از استاندارد اسکی (ASCII) استفاده میکردن
این استاندارد آمریکایی میاد برای هر کاراکتر یه معادل عددی تعریف میکنه
مثلا کاراکتر A در اسکی معادل عدد 65هست
قرار گرفتن این اعداد پشت سر هم در کامپیوتر یک متن رو میسازه
مشابه این استاندارد معادل عددی برای پشتیبانی از تمام زبانهای دنیا به وجود اومد که یونیکد (Unicode) نام داره
کاراکترهای انگلیسی و اعداد انگلیسی توی یونیکد از همون اعداد استاندارد اسکی استفاده میکنن و در ادامه پشتیبانی از کاراکترهای بقیه زبانهای دنیا بهش اضافه میشه
یونیکد در حال حاضر دارای چیزی حدود 297,000 معادل عددی برای کاراکترهای مختلف از زبانهای مختلف، اموجیها و ... هست
فضای یک بایتی برای پشتیبانی از این میزان حالتهای مختلف کافی نیس
شما برای این جا دادن این میزان از حالتهای مختلف به شکل بیت کامیپوتر به حداقل سه بایت نیاز دارین
سه بایت میتونه تا حدود 16 میلیون عدد مختلف رو برای شما نگه داری کنه
حالا شما برای نگهداری یک متن که شامل کاراکترهای
یونیکد هست نیاز دارین 3 بایت برای هر کاراکتر اختصاص بدین
کاراکترهای انگلیسی تو یونیکد تنها یک بایت هم براشون کافیه ولی اگه شما برای یه متن انگلیسی، هر کاراکتر رو سه بایت در نظر بگیرین عملا به ازای هر کاراکتر انگلیسی دو بایت فضا رو هدر دادین
مثلا تو یه متن با ده هزار کاراکتر،
یه چیزی حدود 20 کیلوبایت فضای کامپیوتر رو هدر دادین
چه وقتی میخاین ازش استفاده کنین و توی رم هست و چه وقتی که روی هارد دیسک برای استفاده در آینده ذخیره شده
اینجاست که UTF-8 میتونه کمک کنه
این استاندارد که توسط یونیکد تعریف شده به جای اینکه بیاد فضای 3 بایتی به هر کاراکتر
اختصاص بده، میاد از 7 بیت راست یک بایت برای کاراکترهای اسکی استفاده میکنه
و برای کاراکترهای بعدی علاوه بر خود کاراکتر، تعداد بایت مصرف شده برای اون کاراکتر هم داخل بایت اول ذخیره میکنه
یعنی 128 کاراکتر اول اسکی به شکل عادی ذخیره میشن بدون تغییر خاصی با فقط یک بایت فضا
ولی برای کاراکترهای بعدی میاد و داخل بایت اول مشخص میکنه چه میزان فضا برای کاراکتر استفاده شده
این میزان فضا از یک بایت تا چهاربایت میتونه متغیر باشه
حالا چه شکلی اینکارو میکنه
تو یه بایت برای 128 عدد اولیه اسکی، بیت چپ همیشه صفر هست
اما وقتی بیت چپ یک میشه یعنی با یه کاراکتر UTF8 طرف هستیم
همونطور که گفتم هر کاراکتر توی UTF-8 میتونه از یک بایت تا چهاربایت متغیر باشه
کامپیوتر چطور اینو تشخیص میده؟
بیتهای 1 اولِ بایت رو میشماره تا به عدد 0 صفر برسه
یعنی اگه بایت اول با عدد باینری 110 شروع بشه، یعنی دوبایت فضا استفاده شده
اگه 1110 باشه سه بایت و ...
تو UTF-8 فضای بیتهای بایت اول بین خود کاراکتر و تعداد بایت تقسیم میشه و متغیره
اما تو بایتهای دوم و سوم و چهارم همیشه شش تا بیت راست برای خود کاراکتر استفاده میشه و دو بیت دیگه برای هندل کردن ارور تو utf-8 استفاده میشه
امیدوارم تونسته باشم با دانش ناقص خودم شما رو در مورد این انکدینگ رایج دنیای کامپیوتر آشنا کرده باشم
توضیحات دقیقتر:
https://en.wikipedia.org/wiki/UTF-8
سایت استفاده شده برای تست بایت UTF-8:
https://utf8-playground.netlify.app/
@DevTwitter | <Amir/>
این میزان فضا توی کامپیوتر میتونه شامل 255 حالت مختلف بشه
کامپیوترها برای نشانههای گرامری، حروف انگلیسی و عدد از استاندارد اسکی (ASCII) استفاده میکردن
این استاندارد آمریکایی میاد برای هر کاراکتر یه معادل عددی تعریف میکنه
مثلا کاراکتر A در اسکی معادل عدد 65هست
قرار گرفتن این اعداد پشت سر هم در کامپیوتر یک متن رو میسازه
مشابه این استاندارد معادل عددی برای پشتیبانی از تمام زبانهای دنیا به وجود اومد که یونیکد (Unicode) نام داره
کاراکترهای انگلیسی و اعداد انگلیسی توی یونیکد از همون اعداد استاندارد اسکی استفاده میکنن و در ادامه پشتیبانی از کاراکترهای بقیه زبانهای دنیا بهش اضافه میشه
یونیکد در حال حاضر دارای چیزی حدود 297,000 معادل عددی برای کاراکترهای مختلف از زبانهای مختلف، اموجیها و ... هست
فضای یک بایتی برای پشتیبانی از این میزان حالتهای مختلف کافی نیس
شما برای این جا دادن این میزان از حالتهای مختلف به شکل بیت کامیپوتر به حداقل سه بایت نیاز دارین
سه بایت میتونه تا حدود 16 میلیون عدد مختلف رو برای شما نگه داری کنه
حالا شما برای نگهداری یک متن که شامل کاراکترهای
یونیکد هست نیاز دارین 3 بایت برای هر کاراکتر اختصاص بدین
کاراکترهای انگلیسی تو یونیکد تنها یک بایت هم براشون کافیه ولی اگه شما برای یه متن انگلیسی، هر کاراکتر رو سه بایت در نظر بگیرین عملا به ازای هر کاراکتر انگلیسی دو بایت فضا رو هدر دادین
مثلا تو یه متن با ده هزار کاراکتر،
یه چیزی حدود 20 کیلوبایت فضای کامپیوتر رو هدر دادین
چه وقتی میخاین ازش استفاده کنین و توی رم هست و چه وقتی که روی هارد دیسک برای استفاده در آینده ذخیره شده
اینجاست که UTF-8 میتونه کمک کنه
این استاندارد که توسط یونیکد تعریف شده به جای اینکه بیاد فضای 3 بایتی به هر کاراکتر
اختصاص بده، میاد از 7 بیت راست یک بایت برای کاراکترهای اسکی استفاده میکنه
و برای کاراکترهای بعدی علاوه بر خود کاراکتر، تعداد بایت مصرف شده برای اون کاراکتر هم داخل بایت اول ذخیره میکنه
یعنی 128 کاراکتر اول اسکی به شکل عادی ذخیره میشن بدون تغییر خاصی با فقط یک بایت فضا
ولی برای کاراکترهای بعدی میاد و داخل بایت اول مشخص میکنه چه میزان فضا برای کاراکتر استفاده شده
این میزان فضا از یک بایت تا چهاربایت میتونه متغیر باشه
حالا چه شکلی اینکارو میکنه
تو یه بایت برای 128 عدد اولیه اسکی، بیت چپ همیشه صفر هست
اما وقتی بیت چپ یک میشه یعنی با یه کاراکتر UTF8 طرف هستیم
همونطور که گفتم هر کاراکتر توی UTF-8 میتونه از یک بایت تا چهاربایت متغیر باشه
کامپیوتر چطور اینو تشخیص میده؟
بیتهای 1 اولِ بایت رو میشماره تا به عدد 0 صفر برسه
یعنی اگه بایت اول با عدد باینری 110 شروع بشه، یعنی دوبایت فضا استفاده شده
اگه 1110 باشه سه بایت و ...
تو UTF-8 فضای بیتهای بایت اول بین خود کاراکتر و تعداد بایت تقسیم میشه و متغیره
اما تو بایتهای دوم و سوم و چهارم همیشه شش تا بیت راست برای خود کاراکتر استفاده میشه و دو بیت دیگه برای هندل کردن ارور تو utf-8 استفاده میشه
امیدوارم تونسته باشم با دانش ناقص خودم شما رو در مورد این انکدینگ رایج دنیای کامپیوتر آشنا کرده باشم
توضیحات دقیقتر:
https://en.wikipedia.org/wiki/UTF-8
سایت استفاده شده برای تست بایت UTF-8:
https://utf8-playground.netlify.app/
@DevTwitter | <Amir/>
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
دیگران: چرا از گروه های برنامه نویسی دوری کردی؟
من:
من: