🔵 عنوان مقاله
Investigate memory leaks and OOMs with Datadog's guided workflow (5 minute read)
🟢 خلاصه مقاله:
مقاله حاضر به بررسی و معرفی سیستم جدید Datadog در زمینه رصد و حل مشکلات مربوط به نشت حافظه میپردازد. این سیستم که با نام "Datadog's Memory Leaks workflow" شناخته میشود، اطلاعات مرتبط را در یک مرکز متمرکز سازی میکند و مراحل هدایتشدهای را برای شناسایی، بررسی و حل سریع مسائل مرتبط با حافظه فراهم میآورد. استفاده از این سیستم منجر به بهبود سلامت سرویسها و کاهش زمان اختلال در عملکرد آنها میشود. از ویژگیهای مهم این سیستم میتوان به ترکیز دادهها و فراهم کردن دستورالعملهای مشخص جهت درک بهتر و سریعتر مشکلا و راهحلهای آن اشاره کرد. این ابزار جدید با هدف کاستن از پیچیدگیهای مدیریت حافظه و بهینهسازی عملکرد سیستمهای مبتنی بر داده طراحی شده است.
🟣لینک مقاله:
https://www.datadoghq.com/blog/memory-leak-workflow/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Investigate memory leaks and OOMs with Datadog's guided workflow (5 minute read)
🟢 خلاصه مقاله:
مقاله حاضر به بررسی و معرفی سیستم جدید Datadog در زمینه رصد و حل مشکلات مربوط به نشت حافظه میپردازد. این سیستم که با نام "Datadog's Memory Leaks workflow" شناخته میشود، اطلاعات مرتبط را در یک مرکز متمرکز سازی میکند و مراحل هدایتشدهای را برای شناسایی، بررسی و حل سریع مسائل مرتبط با حافظه فراهم میآورد. استفاده از این سیستم منجر به بهبود سلامت سرویسها و کاهش زمان اختلال در عملکرد آنها میشود. از ویژگیهای مهم این سیستم میتوان به ترکیز دادهها و فراهم کردن دستورالعملهای مشخص جهت درک بهتر و سریعتر مشکلا و راهحلهای آن اشاره کرد. این ابزار جدید با هدف کاستن از پیچیدگیهای مدیریت حافظه و بهینهسازی عملکرد سیستمهای مبتنی بر داده طراحی شده است.
🟣لینک مقاله:
https://www.datadoghq.com/blog/memory-leak-workflow/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Datadog
Investigate memory leaks and OOMs with Datadog's guided workflow | Datadog
Learn how Datadog's service pages provide a step-by-step investigation workflow to help you easily identify the root cause of memory leaks and other problems.
👍1
🔵 عنوان مقاله
GKE delivers breakthrough Horizontal Pod Autoscaler performance (3 minute read)
🟢 خلاصه مقاله:
شرکت Google Cloud به تازگی نسخه بهبود یافتهای از Horizontal Pod Autoscaler (HPA) را برای Google Kubernetes Engine (GKE) معرفی کرده است که قابلیتهایی مانند سرعت اسکیلبندی دو برابر سریعتر، دقت بهتر در متریکها و پشتیبانی از تا ۱۰۰۰ شی HPA برای استقرارهای مقیاس بزرگ را ارائه میدهد. این پروفایل عملکردی HPA منجر به بهینهسازی مصرف منابع، بهبود پاسخگویی برنامهها و افزایش کارایی عملیاتی میشود. این ویژگی هم اکنون به عنوان یک قابلیت آزمایشی قابل انتخاب است. این پیشرفتها امکان مدیریت بهتر و کارآمدتر کلسترهای بزرگ را فراهم میآورد و برای سازمانهایی که نیازمند توسعه و کوچکسازی پویا در محیطهای تولیدی هستند، ایدهآل است.
🟣لینک مقاله:
https://cloud.google.com/blog/products/containers-kubernetes/rearchitected-gke-hpa-improves-scaling-performance/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GKE delivers breakthrough Horizontal Pod Autoscaler performance (3 minute read)
🟢 خلاصه مقاله:
شرکت Google Cloud به تازگی نسخه بهبود یافتهای از Horizontal Pod Autoscaler (HPA) را برای Google Kubernetes Engine (GKE) معرفی کرده است که قابلیتهایی مانند سرعت اسکیلبندی دو برابر سریعتر، دقت بهتر در متریکها و پشتیبانی از تا ۱۰۰۰ شی HPA برای استقرارهای مقیاس بزرگ را ارائه میدهد. این پروفایل عملکردی HPA منجر به بهینهسازی مصرف منابع، بهبود پاسخگویی برنامهها و افزایش کارایی عملیاتی میشود. این ویژگی هم اکنون به عنوان یک قابلیت آزمایشی قابل انتخاب است. این پیشرفتها امکان مدیریت بهتر و کارآمدتر کلسترهای بزرگ را فراهم میآورد و برای سازمانهایی که نیازمند توسعه و کوچکسازی پویا در محیطهای تولیدی هستند، ایدهآل است.
🟣لینک مقاله:
https://cloud.google.com/blog/products/containers-kubernetes/rearchitected-gke-hpa-improves-scaling-performance/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Google Cloud Blog
Rearchitected GKE HPA improves scaling performance | Google Cloud Blog
We rearchitected the Google Kubernetes Engine (GKE) Horizontal Pod Autoscaler (HPA) for a significant improvement in scaling performance.
🔵 عنوان مقاله
Thoughts On A Month With Devin (7 minute read)
🟢 خلاصه مقاله:
Devin، یک مهندس نرمافزار هوش مصنوعی مستقل، در ابتدا با تواناییهای خود در انجام وظایف برنامهنویسی ساده و ادغام خودکار APIها توانمندیهای خود را نشان داد و پتانسیل خود را در توسعههای جدید به نمایش گذاشت. با این حال، آزمایشهای گسترده عملکرد ناپایدار، شکستهای مکرر، و کارایی ناکافی را آشکار ساخت، به طوری که تنها سه از ۲۰ وظیفه با موفقیت انجام شد. این نتایج نیاز به تغییر در ابزارهای هوش مصنوعی را برجسته کرد، نشان داد که در محیطهای واقعی، بهتر است این ابزارها به جای کاملاً مستقل بودن، کاربر-راهنمایی شدهای داشته باشند. این نگرش به درک بیشتری از محدودیتهای فعلی و ضرورت هدایت کاربر در جریان کار واقعی منجر شده است.
🟣لینک مقاله:
https://www.answer.ai/posts/2025-01-08-devin.html?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Thoughts On A Month With Devin (7 minute read)
🟢 خلاصه مقاله:
Devin، یک مهندس نرمافزار هوش مصنوعی مستقل، در ابتدا با تواناییهای خود در انجام وظایف برنامهنویسی ساده و ادغام خودکار APIها توانمندیهای خود را نشان داد و پتانسیل خود را در توسعههای جدید به نمایش گذاشت. با این حال، آزمایشهای گسترده عملکرد ناپایدار، شکستهای مکرر، و کارایی ناکافی را آشکار ساخت، به طوری که تنها سه از ۲۰ وظیفه با موفقیت انجام شد. این نتایج نیاز به تغییر در ابزارهای هوش مصنوعی را برجسته کرد، نشان داد که در محیطهای واقعی، بهتر است این ابزارها به جای کاملاً مستقل بودن، کاربر-راهنمایی شدهای داشته باشند. این نگرش به درک بیشتری از محدودیتهای فعلی و ضرورت هدایت کاربر در جریان کار واقعی منجر شده است.
🟣لینک مقاله:
https://www.answer.ai/posts/2025-01-08-devin.html?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Answer.AI
Thoughts On A Month With Devin – Answer.AI
Our impressions of Devin after giving it 20+ tasks.
🔵 عنوان مقاله
Introducing Customizable Resource Auto-naming in Pulumi (5 minute read)
🟢 خلاصه مقاله:
Pulumi، ابزار مدیریت منابع ابری، امکانی جدید را به کاربران خود ارائه داده است که امکان سفارشیسازی نامهای خودکار منابع ابری را ممکن میسازد. این ویژگی جدید که بهعنوان قابلیت پیکربندی نامگذاری خودکار شناخته میشود، به کاربران این امکان را میدهد تا نامهای منابع ابری تولیدی خودکار را تغییر دهند تا با استانداردهای نامگذاری سازمانی خود مطابقت پیدا کنند. این ویژگی به ویژه برای رفع نیازهای جامعه کاربران پولومی طراحی شده است تا علاوه بر افزایش سازگاری با استانداردهای نامگذاری، همچنان امکان مدیریت مناسب و مؤثر منابع ابری را حفظ کند. امکان پیکربندی نامگذاری خودکار میتواند در بهبود سازماندهی و مدیریت منابع در محیطهای ابری کمک شایانی کند.
🟣لینک مقاله:
https://www.pulumi.com/blog/autonaming-configuration/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Introducing Customizable Resource Auto-naming in Pulumi (5 minute read)
🟢 خلاصه مقاله:
Pulumi، ابزار مدیریت منابع ابری، امکانی جدید را به کاربران خود ارائه داده است که امکان سفارشیسازی نامهای خودکار منابع ابری را ممکن میسازد. این ویژگی جدید که بهعنوان قابلیت پیکربندی نامگذاری خودکار شناخته میشود، به کاربران این امکان را میدهد تا نامهای منابع ابری تولیدی خودکار را تغییر دهند تا با استانداردهای نامگذاری سازمانی خود مطابقت پیدا کنند. این ویژگی به ویژه برای رفع نیازهای جامعه کاربران پولومی طراحی شده است تا علاوه بر افزایش سازگاری با استانداردهای نامگذاری، همچنان امکان مدیریت مناسب و مؤثر منابع ابری را حفظ کند. امکان پیکربندی نامگذاری خودکار میتواند در بهبود سازماندهی و مدیریت منابع در محیطهای ابری کمک شایانی کند.
🟣لینک مقاله:
https://www.pulumi.com/blog/autonaming-configuration/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
pulumi
Introducing Customizable Resource Auto-naming in Pulumi
Discover how to customize Pulumi's resource naming to align with your organization's standards and naming conventions.
Forwarded from Bardia & Erfan
🔵 عنوان مقاله
Ultimate guide to CI/CD by GitLab: Fundamentals to advanced implementation (14 minute read)
🟢 خلاصه مقاله:
مقالهای که مورد بررسی قرار گرفته، به تبیین کاربرد فرآیندهای CI/CD در توسعه نرمافزار میپردازد که به منظور اتوماسیون یکپارچهسازی کد، آزمایش و استقرار آنها بهکار میروند تا به سرعت بخشیدن و افزایش قابلیت اطمینان در انتشارها منجر شود. هوش مصنوعی میتواند نقش مهمی در بهبود این فرآیندها داشته باشد. استفاده از AI اطمینان میدهد که کیفیت، انطباق با مقررات و امنیت در تمام مراحل خط لوله نگهداری شود. این ترکیب پیشرفته، کمک میکند که تیمهای توسعه نرمافزار به طور مداوم و بدون خطا بتوانند نسخههای جدید را با ثبات و امنیت بالا عرضه کنند. در نهایت، به کارگیری AI در سیستمهای CI/CD، راههای جدیدی برای بهینهسازی عملیات توسعه نرمافزاری ایجاد میکند و به شرکتها امکان میدهد تا با کارایی بیشتری رقابت کنند.
🟣لینک مقاله:
https://about.gitlab.com/blog/2025/01/06/ultimate-guide-to-ci-cd-fundamentals-to-advanced-implementation/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Ultimate guide to CI/CD by GitLab: Fundamentals to advanced implementation (14 minute read)
🟢 خلاصه مقاله:
مقالهای که مورد بررسی قرار گرفته، به تبیین کاربرد فرآیندهای CI/CD در توسعه نرمافزار میپردازد که به منظور اتوماسیون یکپارچهسازی کد، آزمایش و استقرار آنها بهکار میروند تا به سرعت بخشیدن و افزایش قابلیت اطمینان در انتشارها منجر شود. هوش مصنوعی میتواند نقش مهمی در بهبود این فرآیندها داشته باشد. استفاده از AI اطمینان میدهد که کیفیت، انطباق با مقررات و امنیت در تمام مراحل خط لوله نگهداری شود. این ترکیب پیشرفته، کمک میکند که تیمهای توسعه نرمافزار به طور مداوم و بدون خطا بتوانند نسخههای جدید را با ثبات و امنیت بالا عرضه کنند. در نهایت، به کارگیری AI در سیستمهای CI/CD، راههای جدیدی برای بهینهسازی عملیات توسعه نرمافزاری ایجاد میکند و به شرکتها امکان میدهد تا با کارایی بیشتری رقابت کنند.
🟣لینک مقاله:
https://about.gitlab.com/blog/2025/01/06/ultimate-guide-to-ci-cd-fundamentals-to-advanced-implementation/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
about.gitlab.com
Ultimate guide to CI/CD: Fundamentals to advanced implementation
Learn how to modernize continuous integration/continuous deployment, including automating the development, delivery, and security of pipelines.
🔵 عنوان مقاله
How data habits help build a data culture (5 minute read)
🟢 خلاصه مقاله:
ایجاد فرهنگ مبتنی بر داده در یک سازمان نیازمند توسعه عادتهای سازمانی است که به دسترسی آسان، ارتباط و قابلیت اقدام دادهها اهمیت میدهند تا صرفاً متمرکز بودن بر فناوری. شرکتها میتوانند با ادغام دادهها در فرآیندهای کاری، ایجاد آگاهی سراسری از طریق اخطارهای مناسب و تشویق به استفاده خلاقانه از دادهها، تصمیمگیری مبتنی بر داده را به بخش غریزی و بدیهی از عملکرد خود تبدیل کنند. این رویکرد به تقویت توانایی سازمان در پاسخگویی به تحولات و چالشها کمک میکند، در حالی که به بهبود مستمر در تصمیمگیریها و نوآوریها منجر میشود.
🟣لینک مقاله:
https://incident.io/blog/how-data-habits-help-build-a-data-culture?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
How data habits help build a data culture (5 minute read)
🟢 خلاصه مقاله:
ایجاد فرهنگ مبتنی بر داده در یک سازمان نیازمند توسعه عادتهای سازمانی است که به دسترسی آسان، ارتباط و قابلیت اقدام دادهها اهمیت میدهند تا صرفاً متمرکز بودن بر فناوری. شرکتها میتوانند با ادغام دادهها در فرآیندهای کاری، ایجاد آگاهی سراسری از طریق اخطارهای مناسب و تشویق به استفاده خلاقانه از دادهها، تصمیمگیری مبتنی بر داده را به بخش غریزی و بدیهی از عملکرد خود تبدیل کنند. این رویکرد به تقویت توانایی سازمان در پاسخگویی به تحولات و چالشها کمک میکند، در حالی که به بهبود مستمر در تصمیمگیریها و نوآوریها منجر میشود.
🟣لینک مقاله:
https://incident.io/blog/how-data-habits-help-build-a-data-culture?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
incident.io
How data habits help build a data culture | Blog
Building a data-driven culture in a company is hard, but we've made it possible across incident.io with some unique tried and tested strategies.
🔵 عنوان مقاله
Logical replication in Postgres: Basics (7 minute read)
🟢 خلاصه مقاله:
این مقاله به بررسی تکرار منطقی (logical replication) در PostgreSQL و توانایی آن در تکرار تغییرات خاص دادهها (مانند درجها، بهروزرسانیها) بین پایگاههای داده با نسخههای مختلف PostgreSQL میپردازد. نویسنده با یک مثال عملی، تکرار منطقی را راهاندازی میکند، کد منبع PostgreSQL را تغییر میدهد تا تغییرات ثبت شده را ثبت کند، و نمایش میدهد چگونه پایگاههای داده مشترک و ناشر پیامها را رد و بدل میکنند. این فرآیند امکان انتقال دادهها و تغییرات بین نسخهای مختلف و حتی ساختارهای متفاوت پایگاه داده را فراهم میآورد، که در نهایت به بهبود بخشیدن به همگامسازی داده و کارایی سامانههای پایگاه دادهای کمک میکند.
🟣لینک مقاله:
https://www.enterprisedb.com/blog/logical-replication-postgres-basics?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Logical replication in Postgres: Basics (7 minute read)
🟢 خلاصه مقاله:
این مقاله به بررسی تکرار منطقی (logical replication) در PostgreSQL و توانایی آن در تکرار تغییرات خاص دادهها (مانند درجها، بهروزرسانیها) بین پایگاههای داده با نسخههای مختلف PostgreSQL میپردازد. نویسنده با یک مثال عملی، تکرار منطقی را راهاندازی میکند، کد منبع PostgreSQL را تغییر میدهد تا تغییرات ثبت شده را ثبت کند، و نمایش میدهد چگونه پایگاههای داده مشترک و ناشر پیامها را رد و بدل میکنند. این فرآیند امکان انتقال دادهها و تغییرات بین نسخهای مختلف و حتی ساختارهای متفاوت پایگاه داده را فراهم میآورد، که در نهایت به بهبود بخشیدن به همگامسازی داده و کارایی سامانههای پایگاه دادهای کمک میکند.
🟣لینک مقاله:
https://www.enterprisedb.com/blog/logical-replication-postgres-basics?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
EDB
Logical replication in Postgres: Basics
In this post we'll explore the basics of logical replication between two Postgres databases as both a user and a developer. Postgres first implemented physical replication where it shipped bytes on disk from one database A to another database B. Database…
🔵 عنوان مقاله
Securing Argo CD for 2025: Looking Back at Key Achievements and Innovations in 2024 (5 minute read)
🟢 خلاصه مقاله:
در این مقاله، به بررسی نقاط برجستهی Argo CD در سال 2024 پرداخته شده است. تیم Argo CD با حل کردن 28 آسیبپذیری از جمله مسائل حیاتی مانند رمزنگاری حافظهی موقت Redis و حفرههای امنیتی XSS در رابط کاربری، به تعهد خود نسبت به امنیت با بهروزرسانیهای مرتب و همکاریهایی نظیر برنامهی جایزهی اشکالیابی اینترنت HackerOne ادامه دادهاند. این اقدامات نشاندهندهی پیشرفت قابل توجهی در بهبود امنیت و پایداری این ابزار مدیریت توزیع است.
🟣لینک مقاله:
https://codefresh.io/blog/argo-cd-and-codefresh-gitops-security-updates-3-18-2024-preventing-brute-force-and-denial-of-service-2/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Securing Argo CD for 2025: Looking Back at Key Achievements and Innovations in 2024 (5 minute read)
🟢 خلاصه مقاله:
در این مقاله، به بررسی نقاط برجستهی Argo CD در سال 2024 پرداخته شده است. تیم Argo CD با حل کردن 28 آسیبپذیری از جمله مسائل حیاتی مانند رمزنگاری حافظهی موقت Redis و حفرههای امنیتی XSS در رابط کاربری، به تعهد خود نسبت به امنیت با بهروزرسانیهای مرتب و همکاریهایی نظیر برنامهی جایزهی اشکالیابی اینترنت HackerOne ادامه دادهاند. این اقدامات نشاندهندهی پیشرفت قابل توجهی در بهبود امنیت و پایداری این ابزار مدیریت توزیع است.
🟣لینک مقاله:
https://codefresh.io/blog/argo-cd-and-codefresh-gitops-security-updates-3-18-2024-preventing-brute-force-and-denial-of-service-2/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Codefresh
Securing Argo CD for 2025: Looking Back at Key Achievements and Innovations in 2024
🔵 عنوان مقاله
Story of a Pentester Recruitment 2025 (17 minute read)
🟢 خلاصه مقاله:
مقالهی مورد بحث به بررسی چالش پرورش قارچ Silent Signal پرداخته است که از سال ۲۰۱۵ تاکنون به عنوان یک ابزار موثر برای استخدام ۱۴ متخصص نفوذ تست در شرکت به خدمت گرفته شده است. این چالش، که طی سالها تغییر چندانی نکرده است، مهارتهای داوطلبان را از طریق آزمونهایی در زمینههای XSS منعکس شده و آسیبپذیریهای انژکشن SQL مورد ارزیابی قرار داده و مشکلات مربوط به هشینگ MD5 و فیلترهای امنیتی سمت سرور را نشان داده است. از طریق اجرای این چالش، اطلاعات قابل توجهی درباره شیوهها و رویههای استخدامی و ارزیابی در صنعت به دست آمده است. این گزارش بیانگر این است که چگونه یک تست کاربردی وب میتواند به عنوان ابزاری کارآمد برای شناسایی و استخدام نیروهای متخصص در زمینه امنیت سایبری عمل کند.
🟣لینک مقاله:
https://blog.silentsignal.eu/2025/01/14/pentester-recruitment-2025-mushroom/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Story of a Pentester Recruitment 2025 (17 minute read)
🟢 خلاصه مقاله:
مقالهی مورد بحث به بررسی چالش پرورش قارچ Silent Signal پرداخته است که از سال ۲۰۱۵ تاکنون به عنوان یک ابزار موثر برای استخدام ۱۴ متخصص نفوذ تست در شرکت به خدمت گرفته شده است. این چالش، که طی سالها تغییر چندانی نکرده است، مهارتهای داوطلبان را از طریق آزمونهایی در زمینههای XSS منعکس شده و آسیبپذیریهای انژکشن SQL مورد ارزیابی قرار داده و مشکلات مربوط به هشینگ MD5 و فیلترهای امنیتی سمت سرور را نشان داده است. از طریق اجرای این چالش، اطلاعات قابل توجهی درباره شیوهها و رویههای استخدامی و ارزیابی در صنعت به دست آمده است. این گزارش بیانگر این است که چگونه یک تست کاربردی وب میتواند به عنوان ابزاری کارآمد برای شناسایی و استخدام نیروهای متخصص در زمینه امنیت سایبری عمل کند.
🟣لینک مقاله:
https://blog.silentsignal.eu/2025/01/14/pentester-recruitment-2025-mushroom/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Silent Signal Techblog
Story of a Pentester Recruitment 2025
Because we can!
🔵 عنوان مقاله
Measuring productivity impact with Diff Authoring Time (40 minute podcast)
🟢 خلاصه مقاله:
متا تصمیم گرفته است از زمان برنامهنویسی تفاوتها (Diff Authoring Time) به عنوان یکی از روشها برای اندازهگیری بهرهوری توسعهدهندگان داخلی در پایگاه کد خود استفاده کند. این معیار به معنای محاسبه زمان لازم برای ایجاد تغییرات در کد قبل از ارسال آنها برای بازبینی است. این روش اجازه میدهد تا شرکت بتواند به درک بهتری از کارایی و سرعت کار تیم توسعهدهنده خود دست یابد. استفاده از زمان برنامهنویسی تفاوتها کمک میکند تا تأثیر پذیری زمانی از تصمیمات مدیریتی، ابزارهای جدید، و تغییرات ساختاری در روند توسعه نرمافزار دقیقتر ارزیابی شود. این رویکرد به متا امکان میدهد تا استراتژیهای بهینهسازی مداوم برای افزایش بهرهوری کلی و کاهش زمان توسعه را پیادهسازی کند. این استراتژیها میتوانند شامل تحسینهای فنی، آموزشهای مرتبط و بهبود ارتباط داخل تیمها باشد.
🟣لینک مقاله:
https://engineering.fb.com/2025/01/16/developer-tools/measuring-productivity-impact-with-diff-authoring-time/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Measuring productivity impact with Diff Authoring Time (40 minute podcast)
🟢 خلاصه مقاله:
متا تصمیم گرفته است از زمان برنامهنویسی تفاوتها (Diff Authoring Time) به عنوان یکی از روشها برای اندازهگیری بهرهوری توسعهدهندگان داخلی در پایگاه کد خود استفاده کند. این معیار به معنای محاسبه زمان لازم برای ایجاد تغییرات در کد قبل از ارسال آنها برای بازبینی است. این روش اجازه میدهد تا شرکت بتواند به درک بهتری از کارایی و سرعت کار تیم توسعهدهنده خود دست یابد. استفاده از زمان برنامهنویسی تفاوتها کمک میکند تا تأثیر پذیری زمانی از تصمیمات مدیریتی، ابزارهای جدید، و تغییرات ساختاری در روند توسعه نرمافزار دقیقتر ارزیابی شود. این رویکرد به متا امکان میدهد تا استراتژیهای بهینهسازی مداوم برای افزایش بهرهوری کلی و کاهش زمان توسعه را پیادهسازی کند. این استراتژیها میتوانند شامل تحسینهای فنی، آموزشهای مرتبط و بهبود ارتباط داخل تیمها باشد.
🟣لینک مقاله:
https://engineering.fb.com/2025/01/16/developer-tools/measuring-productivity-impact-with-diff-authoring-time/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Engineering at Meta
Measuring productivity impact with Diff Authoring Time
Do types actually make developers more productive? Or is it just more typing on the keyboard? To answer that question we’re revisiting Diff Authoring Time (DAT) – how Meta measures how long it take…
🔵 عنوان مقاله
Avoid global outages by partitioning cloud applications to reduce blast radius (4 minute read)
🟢 خلاصه مقاله:
تقسیم بندی برنامههای ابری به استکهای خدماتی مجزا این امکان را میدهد که خطاهای خاصی فقط در بخشهای معینی از سرویس اثر بگذارند و از خطرات خاموشی سراسری میکاهد، به این ترتیب اجرای تغییرات به شکل ایمنتر و کنترل شدهای صورت میگیرد. هرچند چالشهایی نظیر همراستایی مدلهای داده و مدیریت منابع وجود دارد، اما این روش به بهبود دسترسپذیری، حمایت از آزمایش و تضمین انطباق با قوانین حفظ حقوق دادهها کمک کرده و یک رویکرد قوی برای توسعهدهندگانی فراهم میکند که بر روی تعادل بین نوآوری و ثبات تمرکز دارند. این استراتژی با بهبود پایداری سیستم و تقویت امنیت داده به شکل قابل توجهی به افزایش اعتماد به برنامههای ابری کمک میکند.
🟣لینک مقاله:
https://cloud.google.com/blog/products/devops-sre/how-to-partition-cloud-applications-to-avoid-global-outages/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Avoid global outages by partitioning cloud applications to reduce blast radius (4 minute read)
🟢 خلاصه مقاله:
تقسیم بندی برنامههای ابری به استکهای خدماتی مجزا این امکان را میدهد که خطاهای خاصی فقط در بخشهای معینی از سرویس اثر بگذارند و از خطرات خاموشی سراسری میکاهد، به این ترتیب اجرای تغییرات به شکل ایمنتر و کنترل شدهای صورت میگیرد. هرچند چالشهایی نظیر همراستایی مدلهای داده و مدیریت منابع وجود دارد، اما این روش به بهبود دسترسپذیری، حمایت از آزمایش و تضمین انطباق با قوانین حفظ حقوق دادهها کمک کرده و یک رویکرد قوی برای توسعهدهندگانی فراهم میکند که بر روی تعادل بین نوآوری و ثبات تمرکز دارند. این استراتژی با بهبود پایداری سیستم و تقویت امنیت داده به شکل قابل توجهی به افزایش اعتماد به برنامههای ابری کمک میکند.
🟣لینک مقاله:
https://cloud.google.com/blog/products/devops-sre/how-to-partition-cloud-applications-to-avoid-global-outages/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Google Cloud Blog
How to partition cloud applications to avoid global outages | Google Cloud Blog
Learn how to lessen the chance of a global outage by vertically partitioning the serving stack, thus limiting the “blast radius,” or extent.
👍1
🔵 عنوان مقاله
Red Hat Completes Acquisition of Neural Magic (3 minute read)
🟢 خلاصه مقاله:
شرکت Red Hat اخیراً شرکت Neural Magic را به منظور تقویت تواناییهای خود در زمینه هوش مصنوعی تولیدی خریداری کرده است. این اقدام با هدف بهبود و افزایش کارایی در مدلهای هوش مصنوعی است که قادر به استقرار در محیطهای ابری مختلط میباشند. خرید Neural Magic، دانش و تخصص این شرکت در زمینه بهینهسازی عملکرد و مدلهای استنتاج را در اختیار Red Hat قرار میدهد، که این امر با تعهد Red Hat به نوآوری منبع باز و ارائه انتخاب به مشتریان در استراتژیهای هوش مصنوعی همراستا است. این ادغام نه تنها به تقویت بخش هوش مصنوعی Red Hat کمک میکند بلکه به آنها امکان میدهد به طور گستردهتری از قابلیتهای مدلهای بهینه هوش مصنوعی در پلتفرمهای مختلف ابری بهرهمند شوند.
🟣لینک مقاله:
https://www.devopsdigest.com/red-hat-completes-acquisition-of-neural-magic?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Red Hat Completes Acquisition of Neural Magic (3 minute read)
🟢 خلاصه مقاله:
شرکت Red Hat اخیراً شرکت Neural Magic را به منظور تقویت تواناییهای خود در زمینه هوش مصنوعی تولیدی خریداری کرده است. این اقدام با هدف بهبود و افزایش کارایی در مدلهای هوش مصنوعی است که قادر به استقرار در محیطهای ابری مختلط میباشند. خرید Neural Magic، دانش و تخصص این شرکت در زمینه بهینهسازی عملکرد و مدلهای استنتاج را در اختیار Red Hat قرار میدهد، که این امر با تعهد Red Hat به نوآوری منبع باز و ارائه انتخاب به مشتریان در استراتژیهای هوش مصنوعی همراستا است. این ادغام نه تنها به تقویت بخش هوش مصنوعی Red Hat کمک میکند بلکه به آنها امکان میدهد به طور گستردهتری از قابلیتهای مدلهای بهینه هوش مصنوعی در پلتفرمهای مختلف ابری بهرهمند شوند.
🟣لینک مقاله:
https://www.devopsdigest.com/red-hat-completes-acquisition-of-neural-magic?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Devopsdigest
Red Hat Completes Acquisition of Neural Magic | DEVOPSdigest
Red Hat has completed its acquisition of Neural Magic, a provider of software and algorithms that accelerate generative AI (gen AI) inference workloads.
🔵 عنوان مقاله
Improving Recruiting Efficiency with a Hybrid Bulk Data Processing Framework (9 minute read)
🟢 خلاصه مقاله:
مقاله درباره چگونگی استفاده از چهارچوب پردازش دادهها به شیوهی هیبریدی بحث میکند که چگونه این چهارچوب به اطمینان، قابلیت ارتقاء و قابلیت مشاهده بالایی در انتقال مالکیت برای استخدامکنندگان کمک میکند، و به طور کلی باعث بهبود بهرهوری در استخدام و کاهش وقفهها میشود. این فرایند به مدیران و مشاوران منابع انسانی این قدرت را میدهد که فرایندهای استخدامی خود را به شکلی روان و مؤثر مدیریت کنند، به طوری که تأثیر منفی کمتری بر فعالیتهای جاری سازمان داشته باشد. با استفاده از این چهارچوب، تیمها قادر خواهند بود دادهها را با سهولت بیشتری انتقال دهند، و با زیرساختهای قویتر و ابزارهای نظارتی پیشرفته، اطلاعات بکار گرفته شده در استخدام را بهینهسازی کنند. این امر نهایتاً به بازدهی بیشتر و کاهش در هزینههای مرتبط با استخدام منجر میشود.
🟣لینک مقاله:
https://www.linkedin.com/blog/engineering/data-streaming-processing/improving-recruiting-efficiency-with-hybrid-bulk-data-processing-framework?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Improving Recruiting Efficiency with a Hybrid Bulk Data Processing Framework (9 minute read)
🟢 خلاصه مقاله:
مقاله درباره چگونگی استفاده از چهارچوب پردازش دادهها به شیوهی هیبریدی بحث میکند که چگونه این چهارچوب به اطمینان، قابلیت ارتقاء و قابلیت مشاهده بالایی در انتقال مالکیت برای استخدامکنندگان کمک میکند، و به طور کلی باعث بهبود بهرهوری در استخدام و کاهش وقفهها میشود. این فرایند به مدیران و مشاوران منابع انسانی این قدرت را میدهد که فرایندهای استخدامی خود را به شکلی روان و مؤثر مدیریت کنند، به طوری که تأثیر منفی کمتری بر فعالیتهای جاری سازمان داشته باشد. با استفاده از این چهارچوب، تیمها قادر خواهند بود دادهها را با سهولت بیشتری انتقال دهند، و با زیرساختهای قویتر و ابزارهای نظارتی پیشرفته، اطلاعات بکار گرفته شده در استخدام را بهینهسازی کنند. این امر نهایتاً به بازدهی بیشتر و کاهش در هزینههای مرتبط با استخدام منجر میشود.
🟣لینک مقاله:
https://www.linkedin.com/blog/engineering/data-streaming-processing/improving-recruiting-efficiency-with-hybrid-bulk-data-processing-framework?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Linkedin
Improving Recruiting Efficiency with a Hybrid Bulk Data Processing Framework
👍1
🔵 عنوان مقاله
What is Adaptive Telemetry, and how can it reduce MTTR, noise, and cost? (6 minute read)
🟢 خلاصه مقاله:
مقالهای که مورد بررسی قرار گرفته به بررسی فناوری "Telemetry Adaptive" میپردازد که سیستمی برای طبقهبندی و بهینهسازی دادههای مشاهدهپذیری است. این فناوری اطلاعات را به گونهای هوشمند طبقهبندی میکند تا تنها دادههای مهم ذخیره و درخواست شوند. این کار به شکل چشمگیری زمان تا بازیابی کامل سرویس (MTTR) را کاهش داده، نویز را از بین برده و هزینهها را کم میکند، در حالی که بینشهای حیاتی لازم برای عملکرد روان سیستمها را حفظ میکند. استفاده از این فناوری میتواند به مدیریت بهتر و کارآمدتر دادههای مشاهدهای کمک کند، عملکرد سیستمها را بهبود بخشیده و اساساً تجربه بهتری برای کاربران فراهم میآورد.
🟣لینک مقاله:
https://grafana.com/blog/2025/01/14/what-is-adaptive-telemetry-and-how-can-it-reduce-mttr-noise-and-cost/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
What is Adaptive Telemetry, and how can it reduce MTTR, noise, and cost? (6 minute read)
🟢 خلاصه مقاله:
مقالهای که مورد بررسی قرار گرفته به بررسی فناوری "Telemetry Adaptive" میپردازد که سیستمی برای طبقهبندی و بهینهسازی دادههای مشاهدهپذیری است. این فناوری اطلاعات را به گونهای هوشمند طبقهبندی میکند تا تنها دادههای مهم ذخیره و درخواست شوند. این کار به شکل چشمگیری زمان تا بازیابی کامل سرویس (MTTR) را کاهش داده، نویز را از بین برده و هزینهها را کم میکند، در حالی که بینشهای حیاتی لازم برای عملکرد روان سیستمها را حفظ میکند. استفاده از این فناوری میتواند به مدیریت بهتر و کارآمدتر دادههای مشاهدهای کمک کند، عملکرد سیستمها را بهبود بخشیده و اساساً تجربه بهتری برای کاربران فراهم میآورد.
🟣لینک مقاله:
https://grafana.com/blog/2025/01/14/what-is-adaptive-telemetry-and-how-can-it-reduce-mttr-noise-and-cost/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Grafana Labs
What is Adaptive Telemetry, and how can it reduce MTTR, noise, and cost? | Grafana Labs
Learn how Adaptive Telemetry in Grafana Cloud helps you optimize costs without sacrificing the insights you need to keep your systems running smoothly.
🔵 عنوان مقاله
Why does Cloudflare Pages have such a generous free tier? (3 minute read)
🟢 خلاصه مقاله:
خلاصه مقاله:
Cloudflare Pages با ارائه پهنای باند نامحدود برای سایتهای استاتیک، در مقایسه با رقبایی که دارای محدودیتهایی در پهنای باند هستند، متمایز میشود. این ویژگی با هدف ارتقا دادن امنیت و قابلیت اعتماد اینترنت، منطبق با مأموریت Cloudflare است. استراتژی ارائه پهنای باند نامحدود به Cloudflare کمک میکند تا با ارتقای حسن نیت و تشویق کاربران به ارتقاء سرویسهایشان، بهره برداری از حمایت کاربران را افزایش دهد. این استراتژی نه تنها به تقویت پایگاه کاربری Cloudflare کمک میکند، بلکه به عنوان یک ابزار بازاریابی مؤثر عمل میکند که ممکن است منجر به افزایش درآمد و برند سازی مثبت شود.
🟣لینک مقاله:
https://mattsayar.com/why-does-cloudflare-pages-have-such-a-generous-free-tier/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Why does Cloudflare Pages have such a generous free tier? (3 minute read)
🟢 خلاصه مقاله:
خلاصه مقاله:
Cloudflare Pages با ارائه پهنای باند نامحدود برای سایتهای استاتیک، در مقایسه با رقبایی که دارای محدودیتهایی در پهنای باند هستند، متمایز میشود. این ویژگی با هدف ارتقا دادن امنیت و قابلیت اعتماد اینترنت، منطبق با مأموریت Cloudflare است. استراتژی ارائه پهنای باند نامحدود به Cloudflare کمک میکند تا با ارتقای حسن نیت و تشویق کاربران به ارتقاء سرویسهایشان، بهره برداری از حمایت کاربران را افزایش دهد. این استراتژی نه تنها به تقویت پایگاه کاربری Cloudflare کمک میکند، بلکه به عنوان یک ابزار بازاریابی مؤثر عمل میکند که ممکن است منجر به افزایش درآمد و برند سازی مثبت شود.
🟣لینک مقاله:
https://mattsayar.com/why-does-cloudflare-pages-have-such-a-generous-free-tier/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
mattsayar.com
Why does Cloudflare Pages have such a generous Free tier?
This site is hosted with Cloudflare Pages and I'm really happy with it. When I explored how to create a site like mine in 2025, I wondered why there's an abundance of good, free hosting these days. Years ago, you'd have to pay for hosting,…
🔵 عنوان مقاله
Optimizing GPU Monitoring for AI Efficiency with Kubecost (4 minute read)
🟢 خلاصه مقاله:
مقالهای که به بررسی ابزار مانیتورینگ پیشرفته GPU از کوبکاست (Kubecost) میپردازد، توضیح میدهد که چگونه این ابزار میتواند به بهینهسازی استفاده از منابع، کاهش هدررفت منابع و همخوانی برنامههای هوش مصنوعی با اهداف مالی و پایداری کمک کند. این ابزار به کاربران امکان میدهد تا در زمان واقعی دیدگاههایی دقیق در مورد استفاده و کارآمدی GPU های خود به دست آورند. این دیدگاهها به تیمها کمک میکنند تا تصمیمات آگاهانهای در مورد تخصیص منابع و مدیریت آنها در محیطهای مختلف کاربری بگیرند. به کمک اطلاعات بهروز و دقیق از میزان استفاده و بهرهوری منابع GPU، سازمانها میتوانند هزینههای ناخواسته را کاهش دهند و به اهداف استراتژیک خود در زمینه کارایی و پایداری بیشتر دست یابند.
🟣لینک مقاله:
https://blog.kubecost.com/blog/optimizing-gpu-monitoring/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Optimizing GPU Monitoring for AI Efficiency with Kubecost (4 minute read)
🟢 خلاصه مقاله:
مقالهای که به بررسی ابزار مانیتورینگ پیشرفته GPU از کوبکاست (Kubecost) میپردازد، توضیح میدهد که چگونه این ابزار میتواند به بهینهسازی استفاده از منابع، کاهش هدررفت منابع و همخوانی برنامههای هوش مصنوعی با اهداف مالی و پایداری کمک کند. این ابزار به کاربران امکان میدهد تا در زمان واقعی دیدگاههایی دقیق در مورد استفاده و کارآمدی GPU های خود به دست آورند. این دیدگاهها به تیمها کمک میکنند تا تصمیمات آگاهانهای در مورد تخصیص منابع و مدیریت آنها در محیطهای مختلف کاربری بگیرند. به کمک اطلاعات بهروز و دقیق از میزان استفاده و بهرهوری منابع GPU، سازمانها میتوانند هزینههای ناخواسته را کاهش دهند و به اهداف استراتژیک خود در زمینه کارایی و پایداری بیشتر دست یابند.
🟣لینک مقاله:
https://blog.kubecost.com/blog/optimizing-gpu-monitoring/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Apptio
Optimizing GPU Monitoring for AI Efficiency - Apptio
As artificial intelligence and machine learning transform and create entirely new industries, the need for efficient GPU usage has never been greater. The
❤1
پادکست نیمچه برنامه نویس:
این پادکست به شکل روان و داستانی موضوعاتی را در حوزهی دواپس و برنامه نویسی روایت میکند.
مثلا در چند اپیزود اخیر به روایت و بررسی کالبدشکافی داون تایم شرکت های بزرگ پرداخته است.
اپیزود های کوتاه و جذاب این پادکست به صورت هفتگی منتشر میشوند.
میتوانید کانال این پادکست را در کستباکس دنبال کنید:
https://castbox.fm/vh/6294201
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
این پادکست به شکل روان و داستانی موضوعاتی را در حوزهی دواپس و برنامه نویسی روایت میکند.
مثلا در چند اپیزود اخیر به روایت و بررسی کالبدشکافی داون تایم شرکت های بزرگ پرداخته است.
اپیزود های کوتاه و جذاب این پادکست به صورت هفتگی منتشر میشوند.
میتوانید کانال این پادکست را در کستباکس دنبال کنید:
https://castbox.fm/vh/6294201
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
❤1🤩1
Forwarded from Bardia & Erfan
📚 معرفی دو کتاب عالی در زمینه ساختمان داده و الگوریتمها
اگر به دنبال منابع قوی برای یادگیری ساختمان دادهها (Data Structures) و الگوریتمها (Algorithms) هستید، این دو کتاب را از دست ندهید:👇
🔵https://skybooks.ir/products/Grokking-Algorithms
Table of Contents
1. Introduction to algorithms
2. Selection sort
3. Recursion
4. Quicksort
5. Hash tables
6. Beadth-first search
7. Trees
8. Balanced trees
9. Dijkstra’s algorithm
10. Greedy algorithms
11. Dynamic programming
12. k-nearest neighbors
13. where to go next
➖➖➖➖➖➖➖➖
🔵https://skybooks.ir/products/Grokking-Data-Structures
Table of Contents
1. Introducing data structures: Why you should learn about data structures
2. Static arrays: Building your first data structure
3. Sorted arrays: Searching faster, at a price
4. Big-O notation: A framework for measuring algorithm efficiency
5. Dynamic arrays: Handling dynamically sized datasets
6. Linked lists: A flexible dynamic collection
7. Abstract data types: Designing the simplest container—the bag
8. Stacks: Piling up data before processing it
9. Queues: Keeping information in the same order as it arrives
10. Priority queues and heaps: Handling data according to its priority
11. Binary search trees: A balanced container
12. Dictionaries and hash tables: How to build and use associative arrays
13. Graphs: Learning how to model complex relationships in data
اگر به دنبال منابع قوی برای یادگیری ساختمان دادهها (Data Structures) و الگوریتمها (Algorithms) هستید، این دو کتاب را از دست ندهید:👇
🔵https://skybooks.ir/products/Grokking-Algorithms
Table of Contents
1. Introduction to algorithms
2. Selection sort
3. Recursion
4. Quicksort
5. Hash tables
6. Beadth-first search
7. Trees
8. Balanced trees
9. Dijkstra’s algorithm
10. Greedy algorithms
11. Dynamic programming
12. k-nearest neighbors
13. where to go next
➖➖➖➖➖➖➖➖
🔵https://skybooks.ir/products/Grokking-Data-Structures
Table of Contents
1. Introducing data structures: Why you should learn about data structures
2. Static arrays: Building your first data structure
3. Sorted arrays: Searching faster, at a price
4. Big-O notation: A framework for measuring algorithm efficiency
5. Dynamic arrays: Handling dynamically sized datasets
6. Linked lists: A flexible dynamic collection
7. Abstract data types: Designing the simplest container—the bag
8. Stacks: Piling up data before processing it
9. Queues: Keeping information in the same order as it arrives
10. Priority queues and heaps: Handling data according to its priority
11. Binary search trees: A balanced container
12. Dictionaries and hash tables: How to build and use associative arrays
13. Graphs: Learning how to model complex relationships in data
🔵 عنوان مقاله
Split Out Unrelated Changes (10 minute read)
🟢 خلاصه مقاله:
مقالهی مورد نظر بر اهمیت تقسیم تغییرات غیر مرتبط به درخواستهای کششی (pull request) جداگانه تاکید دارد تا به بهبود کارآیی بررسیها، کاهش ریسکها و حفظ تاریخچههای تمیزتر در گیت (Git) کمک کند. این مقاله پیشنهاد میدهد که درخواستهای کششی باید بر روی وظایف یا تغییرات منطقی تکی متمرکز شوند. همچنین، استفاده از خودکارسازی برای بهروزرسانیهای سبکی جایی که ممکن است، و تعادل بین میانهروی و ارتباطات واضح زمانی که تغییرات کوچک و غیرمرتبط گنجانده میشوند، توصیه شده است. اصرار بر این نکته وجود دارد که رعایت این اصول میتواند به تسهیل فرآیند بررسی و درک بهتر تغییرات اعمال شده توسط تیمهای توسعه کمک کند، در نتیجه منجر به نگهداری بهتر پروژهها و کاهش خطاهای احتمالی میشود.
🟣لینک مقاله:
https://www.joshuakgoldberg.com/blog/split-out-unrelated-changes/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Split Out Unrelated Changes (10 minute read)
🟢 خلاصه مقاله:
مقالهی مورد نظر بر اهمیت تقسیم تغییرات غیر مرتبط به درخواستهای کششی (pull request) جداگانه تاکید دارد تا به بهبود کارآیی بررسیها، کاهش ریسکها و حفظ تاریخچههای تمیزتر در گیت (Git) کمک کند. این مقاله پیشنهاد میدهد که درخواستهای کششی باید بر روی وظایف یا تغییرات منطقی تکی متمرکز شوند. همچنین، استفاده از خودکارسازی برای بهروزرسانیهای سبکی جایی که ممکن است، و تعادل بین میانهروی و ارتباطات واضح زمانی که تغییرات کوچک و غیرمرتبط گنجانده میشوند، توصیه شده است. اصرار بر این نکته وجود دارد که رعایت این اصول میتواند به تسهیل فرآیند بررسی و درک بهتر تغییرات اعمال شده توسط تیمهای توسعه کمک کند، در نتیجه منجر به نگهداری بهتر پروژهها و کاهش خطاهای احتمالی میشود.
🟣لینک مقاله:
https://www.joshuakgoldberg.com/blog/split-out-unrelated-changes/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Joshuakgoldberg
Split Out Unrelated Changes | Goldblog
This is a general explainer for pull request reviews where I think unrelated changes should be split into a separate PR.
👍2