DevOps Labdon
441 subscribers
22 photos
1 video
1 file
600 links
👑 DevOps Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Investigate memory leaks and OOMs with Datadog's guided workflow (5 minute read)

🟢 خلاصه مقاله:
مقاله حاضر به بررسی و معرفی سیستم جدید Datadog در زمینه‌ رصد و حل مشکلات مربوط به نشت حافظه می‌پردازد. این سیستم که با نام "Datadog's Memory Leaks workflow" شناخته می‌شود، اطلاعات مرتبط را در یک مرکز متمرکز سازی می‌کند و مراحل هدایت‌شده‌ای را برای شناسایی، بررسی و حل سریع مسائل مرتبط با حافظه فراهم می‌آورد. استفاده از این سیستم منجر به بهبود سلامت سرویس‌ها و کاهش زمان اختلال در عملکرد آن‌ها می‌شود. از ویژگی‌های مهم این سیستم می‌توان به ترکیز داده‌ها و فراهم کردن دستورالعمل‌های مشخص جهت درک بهتر و سریع‌تر مشکلا و راه‌حل‌های آن اشاره کرد. این ابزار جدید با هدف کاستن از پیچیدگی‌های مدیریت حافظه و بهینه‌سازی عملکرد سیستم‌های مبتنی بر داده طراحی شده است.

🟣لینک مقاله:
https://www.datadoghq.com/blog/memory-leak-workflow/?utm_source=tldrdevops


👑 @DevOps_Labdon
👍1
🔵 عنوان مقاله
GKE delivers breakthrough Horizontal Pod Autoscaler performance (3 minute read)

🟢 خلاصه مقاله:
شرکت Google Cloud به تازگی نسخه بهبود یافته‌ای از Horizontal Pod Autoscaler (HPA) را برای Google Kubernetes Engine (GKE) معرفی کرده است که قابلیت‌هایی مانند سرعت اسکیل‌بندی دو برابر سریع‌تر، دقت بهتر در متریک‌ها و پشتیبانی از تا ۱۰۰۰ شی HPA برای استقرار‌های مقیاس بزرگ را ارائه می‌دهد. این پروفایل عملکردی HPA منجر به بهینه‌سازی مصرف منابع، بهبود پاسخگویی برنامه‌ها و افزایش کارایی عملیاتی می‌شود. این ویژگی هم اکنون به عنوان یک قابلیت آزمایشی قابل انتخاب است. این پیشرفت‌ها امکان مدیریت بهتر و کارآمدتر کلستر‌های بزرگ را فراهم می‌آورد و برای سازمان‌هایی که نیازمند توسعه و کوچک‌سازی پویا در محیط‌های تولیدی هستند، ایده‌آل است.

🟣لینک مقاله:
https://cloud.google.com/blog/products/containers-kubernetes/rearchitected-gke-hpa-improves-scaling-performance/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Thoughts On A Month With Devin (7 minute read)

🟢 خلاصه مقاله:
Devin، یک مهندس نرم‌افزار هوش مصنوعی مستقل، در ابتدا با توانایی‌های خود در انجام وظایف برنامه‌نویسی ساده و ادغام خودکار APIها توانمندی‌های خود را نشان داد و پتانسیل خود را در توسعه‌های جدید به نمایش گذاشت. با این حال، آزمایش‌های گسترده عملکرد ناپایدار، شکست‌های مکرر، و کارایی ناکافی را آشکار ساخت، به طوری که تنها سه از ۲۰ وظیفه با موفقیت انجام شد. این نتایج نیاز به تغییر در ابزارهای هوش مصنوعی را برجسته کرد، نشان داد که در محیط‌های واقعی، بهتر است این ابزارها به جای کاملاً مستقل بودن، کاربر-راهنمایی شده‌ای داشته باشند. این نگرش به درک بیشتری از محدودیت‌های فعلی و ضرورت هدایت کاربر در جریان کار واقعی منجر شده است.

🟣لینک مقاله:
https://www.answer.ai/posts/2025-01-08-devin.html?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Introducing Customizable Resource Auto-naming in Pulumi (5 minute read)

🟢 خلاصه مقاله:
Pulumi، ابزار مدیریت منابع ابری، امکانی جدید را به کاربران خود ارائه داده است که امکان سفارشی‌سازی نام‌های خودکار منابع ابری را ممکن می‌سازد. این ویژگی جدید که به‌عنوان قابلیت پیکربندی نام‌گذاری خودکار شناخته می‌شود، به کاربران این امکان را می‌دهد تا نام‌های منابع ابری تولیدی خودکار را تغییر دهند تا با استانداردهای نام‌گذاری سازمانی خود مطابقت پیدا کنند. این ویژگی به ویژه برای رفع نیازهای جامعه کاربران پولومی طراحی شده است تا علاوه بر افزایش سازگاری با استانداردهای نام‌گذاری، همچنان امکان مدیریت مناسب و مؤثر منابع ابری را حفظ کند. امکان پیکربندی نام‌گذاری خودکار می‌تواند در بهبود سازماندهی و مدیریت منابع در محیط‌های ابری کمک شایانی کند.

🟣لینک مقاله:
https://www.pulumi.com/blog/autonaming-configuration/?utm_source=tldrdevops


👑 @DevOps_Labdon
Forwarded from Bardia & Erfan
شما از کدومش استفاده می کنید؟
Anonymous Poll
69%
chat gpt
43%
deepseek
19%
others
🔵 عنوان مقاله
Ultimate guide to CI/CD by GitLab: Fundamentals to advanced implementation (14 minute read)

🟢 خلاصه مقاله:
مقاله‌ای که مورد بررسی قرار گرفته، به تبیین کاربرد فرآیند‌های CI/CD در توسعه نرم‌افزار می‌پردازد که به منظور اتوماسیون یکپارچه‌سازی کد، آزمایش و استقرار آن‌ها به‌کار می‌روند تا به سرعت‌ بخشیدن و افزایش قابلیت اطمینان در انتشارها منجر شود. هوش مصنوعی می‌تواند نقش مهمی در بهبود این فرآیندها داشته باشد. استفاده از AI اطمینان می‌دهد که کیفیت، انطباق با مقررات و امنیت در تمام مراحل خط لوله نگهداری شود. این ترکیب پیشرفته، کمک می‌کند که تیم‌های توسعه نرم‌افزار به طور مداوم و بدون خطا بتوانند نسخه‌های جدید را با ثبات و امنیت بالا عرضه کنند. در نهایت، به کارگیری AI در سیستم‌های CI/CD، راه‌های جدیدی برای بهینه‌سازی عملیات توسعه نرم‌افزاری ایجاد می‌کند و به شرکت‌ها امکان می‌دهد تا با کارایی بیشتری رقابت کنند.

🟣لینک مقاله:
https://about.gitlab.com/blog/2025/01/06/ultimate-guide-to-ci-cd-fundamentals-to-advanced-implementation/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
How data habits help build a data culture (5 minute read)

🟢 خلاصه مقاله:
ایجاد فرهنگ مبتنی بر داده در یک سازمان نیازمند توسعه عادت‌های سازمانی است که به دسترسی آسان، ارتباط و قابلیت اقدام داده‌ها اهمیت می‌دهند تا صرفاً متمرکز بودن بر فناوری. شرکت‌ها می‌توانند با ادغام داده‌ها در فرآیندهای کاری، ایجاد آگاهی سراسری از طریق اخطارهای مناسب و تشویق به استفاده خلاقانه از داده‌ها، تصمیم‌گیری مبتنی بر داده را به بخش غریزی و بدیهی از عملکرد خود تبدیل کنند. این رویکرد به تقویت توانایی سازمان در پاسخگویی به تحولات و چالش‌ها کمک می‌کند، در حالی که به بهبود مستمر در تصمیم‌گیری‌ها و نوآوری‌ها منجر می‌شود.

🟣لینک مقاله:
https://incident.io/blog/how-data-habits-help-build-a-data-culture?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Logical replication in Postgres: Basics (7 minute read)

🟢 خلاصه مقاله:
این مقاله به بررسی تکرار منطقی (logical replication) در PostgreSQL و توانایی آن در تکرار تغییرات خاص داده‌ها (مانند درج‌ها، به‌روزرسانی‌ها) بین پایگاه‌های داده با نسخه‌های مختلف PostgreSQL می‌پردازد. نویسنده با یک مثال عملی، تکرار منطقی را راه‌اندازی می‌کند، کد منبع PostgreSQL را تغییر می‌دهد تا تغییرات ثبت شده را ثبت کند، و نمایش می‌دهد چگونه پایگاه‌های داده مشترک و ناشر پیام‌ها را رد و بدل می‌کنند. این فرآیند امکان انتقال داده‌ها و تغییرات بین نسخ‌های مختلف و حتی ساختارهای متفاوت پایگاه داده را فراهم می‌آورد، که در نهایت به بهبود بخشیدن به همگام‌سازی داده و کارایی سامانه‌های پایگاه داده‌ای کمک می‌کند.

🟣لینک مقاله:
https://www.enterprisedb.com/blog/logical-replication-postgres-basics?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Securing Argo CD for 2025: Looking Back at Key Achievements and Innovations in 2024 (5 minute read)

🟢 خلاصه مقاله:
در این مقاله، به بررسی نقاط برجسته‌ی Argo CD در سال 2024 پرداخته شده است. تیم Argo CD با حل کردن 28 آسیب‌پذیری از جمله مسائل حیاتی مانند رمزنگاری حافظه‌ی موقت Redis و حفره‌های امنیتی XSS در رابط کاربری، به تعهد خود نسبت به امنیت با به‌روزرسانی‌های مرتب و همکاری‌هایی نظیر برنامه‌ی جایزه‌ی اشکال‌یابی اینترنت HackerOne ادامه داده‌اند. این اقدامات نشان‌دهنده‌ی پیشرفت قابل توجهی در بهبود امنیت و پایداری این ابزار مدیریت توزیع است.

🟣لینک مقاله:
https://codefresh.io/blog/argo-cd-and-codefresh-gitops-security-updates-3-18-2024-preventing-brute-force-and-denial-of-service-2/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Story of a Pentester Recruitment 2025 (17 minute read)

🟢 خلاصه مقاله:
مقاله‌ی مورد بحث به بررسی چالش پرورش قارچ Silent Signal پرداخته است که از سال ۲۰۱۵ تاکنون به عنوان یک ابزار موثر برای استخدام ۱۴ متخصص نفوذ تست در شرکت به خدمت گرفته شده است. این چالش، که طی سال‌ها تغییر چندانی نکرده است، مهارت‌های داوطلبان را از طریق آزمون‌‌هایی در زمینه‌های XSS منعکس شده و آسیب‌پذیری‌های انژکشن SQL مورد ارزیابی قرار داده و مشکلات مربوط به هشینگ MD5 و فیلترهای امنیتی سمت سرور را نشان داده است. از طریق اجرای این چالش، اطلاعات قابل توجهی درباره شیوه‌ها و رویه‌های استخدامی و ارزیابی در صنعت به دست آمده است. این گزارش بیانگر این است که چگونه یک تست کاربردی وب می‌تواند به عنوان ابزاری کارآمد برای شناسایی و استخدام نیروهای متخصص در زمینه امنیت سایبری عمل کند.

🟣لینک مقاله:
https://blog.silentsignal.eu/2025/01/14/pentester-recruitment-2025-mushroom/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Measuring productivity impact with Diff Authoring Time (40 minute podcast)

🟢 خلاصه مقاله:
متا تصمیم گرفته است از زمان برنامه‌نویسی تفاوت‌ها (Diff Authoring Time) به عنوان یکی از روش‌ها برای اندازه‌گیری بهره‌وری توسعه‌دهندگان داخلی در پایگاه کد خود استفاده کند. این معیار به معنای محاسبه زمان لازم برای ایجاد تغییرات در کد قبل از ارسال آنها برای بازبینی است. این روش اجازه می‌دهد تا شرکت بتواند به درک بهتری از کارایی و سرعت کار تیم توسعه‌دهنده خود دست یابد. استفاده از زمان برنامه‌نویسی تفاوت‌ها کمک می‌کند تا تأثیر پذیری زمانی از تصمیمات مدیریتی، ابزارهای جدید، و تغییرات ساختاری در روند توسعه نرم‌افزار دقیق‌تر ارزیابی شود. این رویکرد به متا امکان می‌دهد تا استراتژی‌های بهینه‌سازی مداوم برای افزایش بهره‌وری کلی و کاهش زمان توسعه را پیاده‌سازی کند. این استراتژی‌ها می‌توانند شامل تحسین‌های فنی، آموزشهای مرتبط و بهبود ارتباط داخل تیم‌ها باشد.

🟣لینک مقاله:
https://engineering.fb.com/2025/01/16/developer-tools/measuring-productivity-impact-with-diff-authoring-time/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Avoid global outages by partitioning cloud applications to reduce blast radius (4 minute read)

🟢 خلاصه مقاله:
تقسیم بندی برنامه‌های ابری به استک‌های خدماتی مجزا این امکان را می‌دهد که خطاهای خاصی فقط در بخش‌های معینی از سرویس اثر بگذارند و از خطرات خاموشی سراسری می‌کاهد، به این ترتیب اجرای تغییرات به شکل ایمن‌تر و کنترل شده‌ای صورت می‌گیرد. هرچند چالش‌هایی نظیر هم‌راستایی مدل‌های داده و مدیریت منابع وجود دارد، اما این روش به بهبود دسترس‌پذیری، حمایت از آزمایش و تضمین انطباق با قوانین حفظ حقوق داده‌ها کمک کرده و یک رویکرد قوی برای توسعه‌دهندگانی فراهم می‌کند که بر روی تعادل بین نوآوری و ثبات تمرکز دارند. این استراتژی با بهبود پایداری سیستم و تقویت امنیت داده به شکل قابل توجهی به افزایش اعتماد به برنامه‌های ابری کمک می‌کند.

🟣لینک مقاله:
https://cloud.google.com/blog/products/devops-sre/how-to-partition-cloud-applications-to-avoid-global-outages/?utm_source=tldrdevops


👑 @DevOps_Labdon
👍1
🔵 عنوان مقاله
Red Hat Completes Acquisition of Neural Magic (3 minute read)

🟢 خلاصه مقاله:
شرکت Red Hat اخیراً شرکت Neural Magic را به منظور تقویت توانایی‌های خود در زمینه هوش مصنوعی تولیدی خریداری کرده است. این اقدام با هدف بهبود و افزایش کارایی در مدل‌های هوش مصنوعی است که قادر به استقرار در محیط‌های ابری مختلط می‌باشند. خرید Neural Magic، دانش و تخصص این شرکت در زمینه بهینه‌سازی عملکرد و مدل‌های استنتاج را در اختیار Red Hat قرار می‌دهد، که این امر با تعهد Red Hat به نوآوری منبع باز و ارائه انتخاب به مشتریان در استراتژی‌های هوش مصنوعی هم‌راستا است. این ادغام نه تنها به تقویت بخش هوش مصنوعی Red Hat کمک می‌کند بلکه به آن‌ها امکان می‌دهد به طور گسترده‌تری از قابلیت‌های مدل‌های بهینه هوش مصنوعی در پلتفرم‌های مختلف ابری بهره‌مند شوند.

🟣لینک مقاله:
https://www.devopsdigest.com/red-hat-completes-acquisition-of-neural-magic?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Improving Recruiting Efficiency with a Hybrid Bulk Data Processing Framework (9 minute read)

🟢 خلاصه مقاله:
مقاله‌ درباره چگونگی استفاده از چهارچوب پردازش داده‌ها به شیوه‌ی هیبریدی بحث می‌کند که چگونه این چهارچوب به اطمینان، قابلیت ارتقاء و قابلیت مشاهده بالایی در انتقال مالکیت برای استخدام‌کنندگان کمک می‌کند، و به طور کلی باعث بهبود بهره‌وری در استخدام و کاهش وقفه‌ها می‌شود. این فرایند به مدیران و مشاوران منابع انسانی این قدرت را می‌دهد که فرایندهای استخدامی خود را به شکلی روان و مؤثر مدیریت کنند، به طوری که تأثیر منفی کمتری بر فعالیت‌های جاری سازمان داشته باشد. با استفاده از این چهارچوب، تیم‌ها قادر خواهند بود داده‌ها را با سهولت بیشتری انتقال دهند، و با زیرساخت‌های قوی‌تر و ابزارهای نظارتی پیشرفته، اطلاعات بکار گرفته شده در استخدام را بهینه‌سازی کنند. این امر نهایتاً به بازدهی بیشتر و کاهش در هزینه‌های مرتبط با استخدام منجر می‌شود.

🟣لینک مقاله:
https://www.linkedin.com/blog/engineering/data-streaming-processing/improving-recruiting-efficiency-with-hybrid-bulk-data-processing-framework?utm_source=tldrdevops


👑 @DevOps_Labdon
👍1
🔵 عنوان مقاله
What is Adaptive Telemetry, and how can it reduce MTTR, noise, and cost? (6 minute read)

🟢 خلاصه مقاله:
مقاله‌ای که مورد بررسی قرار گرفته به بررسی فناوری "Telemetry Adaptive" می‌پردازد که سیستمی برای طبقه‌بندی و بهینه‌سازی داده‌های مشاهده‌پذیری است. این فناوری اطلاعات را به گونه‌ای هوشمند طبقه‌بندی می‌کند تا تنها داده‌های مهم ذخیره و درخواست شوند. این کار به شکل چشمگیری زمان تا بازیابی کامل سرویس (MTTR) را کاهش داده، نویز را از بین برده و هزینه‌ها را کم می‌کند، در حالی که بینش‌های حیاتی لازم برای عملکرد روان سیستم‌ها را حفظ می‌کند. استفاده از این فناوری می‌تواند به مدیریت بهتر و کارآمدتر داده‌های مشاهده‌ای کمک کند، عملکرد سیستم‌ها را بهبود بخشیده و اساساً تجربه بهتری برای کاربران فراهم می‌آورد.

🟣لینک مقاله:
https://grafana.com/blog/2025/01/14/what-is-adaptive-telemetry-and-how-can-it-reduce-mttr-noise-and-cost/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Why does Cloudflare Pages have such a generous free tier? (3 minute read)

🟢 خلاصه مقاله:
خلاصه مقاله:
Cloudflare Pages با ارائه پهنای باند نامحدود برای سایت‌های استاتیک، در مقایسه با رقبایی که دارای محدودیت‌هایی در پهنای باند هستند، متمایز می‌شود. این ویژگی با هدف ارتقا دادن امنیت و قابلیت اعتماد اینترنت، منطبق با مأموریت Cloudflare است. استراتژی ارائه پهنای باند نامحدود به Cloudflare کمک می‌کند تا با ارتقای حسن نیت و تشویق کاربران به ارتقاء سرویس‌هایشان، بهره برداری از حمایت کاربران را افزایش دهد. این استراتژی نه تنها به تقویت پایگاه کاربری Cloudflare کمک می‌کند، بلکه به عنوان یک ابزار بازاریابی مؤثر عمل می‌کند که ممکن است منجر به افزایش درآمد و برند سازی مثبت شود.

🟣لینک مقاله:
https://mattsayar.com/why-does-cloudflare-pages-have-such-a-generous-free-tier/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Optimizing GPU Monitoring for AI Efficiency with Kubecost (4 minute read)

🟢 خلاصه مقاله:
مقاله‌ای که به بررسی ابزار مانیتورینگ پیشرفته GPU از کوبکاست (Kubecost) می‌پردازد، توضیح می‌دهد که چگونه این ابزار می‌تواند به بهینه‌سازی استفاده از منابع، کاهش هدررفت منابع و همخوانی برنامه‌های هوش مصنوعی با اهداف مالی و پایداری کمک کند. این ابزار به کاربران امکان می‌دهد تا در زمان واقعی دیدگاه‌هایی دقیق در مورد استفاده و کارآمدی GPU های خود به دست آورند. این دیدگاه‌ها به تیم‌ها کمک می‌کنند تا تصمیمات آگاهانه‌ای در مورد تخصیص منابع و مدیریت آن‌ها در محیط‌های مختلف کاربری بگیرند. به کمک اطلاعات به‌روز و دقیق از میزان استفاده و بهره‌وری منابع GPU، سازمان‌ها می‌توانند هزینه‌های ناخواسته را کاهش دهند و به اهداف استراتژیک خود در زمینه کارایی و پایداری بیشتر دست یابند.

🟣لینک مقاله:
https://blog.kubecost.com/blog/optimizing-gpu-monitoring/?utm_source=tldrdevops


👑 @DevOps_Labdon
1
پادکست نیمچه برنامه نویس:
این پادکست به شکل روان و داستانی موضوعاتی را در حوزه‌ی دواپس و برنامه نویسی روایت می‌کند.
مثلا در چند اپیزود اخیر به روایت و بررسی کالبدشکافی داون تایم شرکت های بزرگ پرداخته است.
اپیزود های کوتاه و جذاب این پادکست به صورت هفتگی منتشر می‌شوند.


می‌توانید کانال این پادکست را در کست‌باکس دنبال کنید:
https://castbox.fm/vh/6294201

👑 @DevOps_Labdon
1🤩1
Forwarded from Bardia & Erfan
📚 معرفی دو کتاب عالی در زمینه ساختمان داده و الگوریتم‌ها

اگر به دنبال منابع قوی برای یادگیری ساختمان داده‌ها (Data Structures) و الگوریتم‌ها (Algorithms) هستید، این دو کتاب را از دست ندهید:👇

🔵https://skybooks.ir/products/Grokking-Algorithms

Table of Contents

1. Introduction to algorithms
2. Selection sort
3. Recursion
4. Quicksort
5. Hash tables
6. Beadth-first search
7. Trees
8. Balanced trees
9. Dijkstra’s algorithm
10. Greedy algorithms
11. Dynamic programming
12. k-nearest neighbors
13. where to go next

🔵https://skybooks.ir/products/Grokking-Data-Structures

Table of Contents

1. Introducing data structures: Why you should learn about data structures
2. Static arrays: Building your first data structure
3. Sorted arrays: Searching faster, at a price
4. Big-O notation: A framework for measuring algorithm efficiency
5. Dynamic arrays: Handling dynamically sized datasets
6. Linked lists: A flexible dynamic collection
7. Abstract data types: Designing the simplest container—the bag
8. Stacks: Piling up data before processing it
9. Queues: Keeping information in the same order as it arrives
10. Priority queues and heaps: Handling data according to its priority
11. Binary search trees: A balanced container
12. Dictionaries and hash tables: How to build and use associative arrays
13. Graphs: Learning how to model complex relationships in data
🔵 عنوان مقاله
Split Out Unrelated Changes (10 minute read)

🟢 خلاصه مقاله:
مقاله‌ی مورد نظر بر اهمیت تقسیم تغییرات غیر مرتبط به درخواست‌های کششی (pull request) جداگانه تاکید دارد تا به بهبود کارآیی بررسی‌ها، کاهش ریسک‌ها و حفظ تاریخچه‌های تمیزتر در گیت (Git) کمک کند. این مقاله پیشنهاد می‌دهد که درخواست‌های کششی باید بر روی وظایف یا تغییرات منطقی تکی متمرکز شوند. همچنین، استفاده از خودکارسازی برای به‌روزرسانی‌های سبکی جایی که ممکن است، و تعادل بین میانه‌روی و ارتباطات واضح زمانی که تغییرات کوچک و غیرمرتبط گنجانده می‌شوند، توصیه شده است. اصرار بر این نکته وجود دارد که رعایت این اصول می‌تواند به تسهیل فرآیند بررسی و درک بهتر تغییرات اعمال شده توسط تیم‌های توسعه کمک کند، در نتیجه منجر به نگهداری بهتر پروژه‌ها و کاهش خطاهای احتمالی می‌شود.

🟣لینک مقاله:
https://www.joshuakgoldberg.com/blog/split-out-unrelated-changes/?utm_source=tldrdevops


👑 @DevOps_Labdon
👍2