DevOps Labdon
456 subscribers
24 photos
3 videos
2 files
684 links
👑 DevOps Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Gateway API v1.3.0: Advancements in Request Mirroring, CORS, Gateway Merging, and Retry Budgets

🟢 خلاصه مقاله:
در نسخه v1.3.0 از Gateway API مجموعه‌ای از قابلیت‌های مهم معرفی شده که مدیریت ترافیک و امنیت در Kubernetes را استانداردتر و عملیاتی‌تر می‌کند. این موارد شامل percentage-based request mirroring برای سایه‌زدن بخشی از ترافیک به مقصد جایگزین، CORS filtering برای اعمال سیاست‌های cross-origin در لایه دروازه، gateway merging برای ترکیب ایمن پیکربندی تیم‌های مختلف، و retry budgets برای محدودسازی رفتار retry و جلوگیری از بار اضافی روی سرویس‌هاست. مقاله همچنین شفاف می‌کند کدام قابلیت‌ها در سطح GA قرار دارند و کدام هنوز experimental هستند. نتیجه، کنترل دقیق‌تر، پذیرش امن‌تر و یکپارچگی بیشتر سیاست‌های ترافیک در خوشه‌های Kubernetes است.

#Kubernetes #GatewayAPI #CORS #TrafficManagement #RetryBudgets #CloudNative #APIGateway #DevOps

🟣لینک مقاله:
https://ku.bz/JgPp6Zm-P


👑 @DevOps_Labdon
🔵 عنوان مقاله
kubectl-ai

🟢 خلاصه مقاله:
kubectl-ai یک دستیار مبتنی بر هوش مصنوعی برای kubectl است که مدیریت خوشه‌های Kubernetes را از طریق خط فرمان آسان‌تر می‌کند. شما هدف خود را به زبان طبیعی می‌گویید و این ابزار دستورات دقیق kubectl را پیشنهاد می‌دهد و قبل از اجرا توضیح می‌دهد چه کاری انجام خواهد شد. همچنین می‌تواند وضعیت خوشه را خلاصه کند، خطاها را تفسیر کند، اقدامات بعدی را پیشنهاد دهد و در تهیه یا اصلاح فایل‌های YAML کمک کند. تمرکز آن بر حفظ کنترل در دست کاربر، تسریع کارهای تکراری و کاهش جست‌وجوی مداوم دستورها و پارامترهاست؛ هم برای افراد تازه‌کار منحنی یادگیری را کوتاه‌تر می‌کند و هم برای متخصص‌ها بهره‌وری را بالا می‌برد.

#Kubernetes #kubectl #kubectlAI #DevOps #CloudNative #AI #CLI #Automation

🟣لینک مقاله:
https://ku.bz/c7DkSr1qv


👑 @DevOps_Labdon
🔵 عنوان مقاله
mcp-server-kubernetes – Kubernetes Management via MCP

🟢 خلاصه مقاله:
** mcp-server-kubernetes یک لایه کامل مدیریت Kubernetes را از طریق Model Context Protocol (MCP) ارائه می‌کند تا ابزارهایی مانند Claude Desktop و mcp-chat بتوانند دستورهای kubectl و Helm را به‌صورت امن اجرا کنند. این راهکار پلی میان دستیارهای مبتنی بر مدل و عملیات واقعی خوشه است و با مسیردهی درخواست‌ها از طریق MCP، امکان اعمال کنترل، اعتبارسنجی و تعیین دامنه دسترسی پیش از اجرای فرمان‌ها را فراهم می‌کند. نتیجه، اجرای وظایف رایج kubectl و Helm با یک رابط یکپارچه و سازگار با چند ابزار، بدون نیاز به دسترسی مستقیم به شل یا اعتبارنامه‌های بلندمدت است. برای تیم‌های پلتفرم و DevOps، این روش ضمن کاهش اصطکاک عملیاتی، به حفظ کنترل‌های سازمانی و بهترین‌روش‌ها در مدیریت Kubernetes کمک می‌کند.

#Kubernetes #MCP #kubectl #Helm #DevOps #PlatformEngineering #LLMOps #CloudSecurity

🟣لینک مقاله:
https://ku.bz/PDz70StnM


👑 @DevOps_Labdon
🔵 عنوان مقاله
Digging Deeper: How Pause containers skew your Kubernetes CPU/Memory Metrics

🟢 خلاصه مقاله:
این آموزش نشان می‌دهد چرا حضور pause containers که Kubernetes برای هر Pod می‌سازد می‌تواند متریک‌های CPU و Memory را منحرف کند و چطور با PromQL آن‌ها را از نتایج حذف کنیم. چون این کانتینرها در سری‌های kubelet/cAdvisor هم‌ردیف کانتینرهای کاری دیده می‌شوند، جمع‌زدن مصرف به ازای Pod یا Namespace باعث تورم مقادیر می‌شود. راه‌حل، فیلتر کردن سری‌ها با برچسب‌هاست؛ برای نمونه استفاده از container!="POD"، container!="" و در صورت نیاز image!~"pause". برای CPU می‌توان از rate روی container_cpu_usage_seconds_total و برای Memory از container_memory_working_set_bytes استفاده کرد و سپس با sum by بر اساس namespace و pod جمع زد. با مقایسه با node-level metrics و ابزارهایی مثل kubectl top می‌توان درستی فیلترها را سنجید. نتیجه، داشبوردهای دقیق‌تر، آلارم‌های سالم‌تر و برنامه‌ریزی ظرفیت هماهنگ با مصرف واقعی است.

#Kubernetes #PromQL #Monitoring #Metrics #Observability #Containers #DevOps #Grafana

🟣لینک مقاله:
https://ku.bz/w-3KDdMYk


👑 @DevOps_Labdon
🔵 عنوان مقاله
Chisel-Operator – Kubernetes Operator for Chisel Tunnels

🟢 خلاصه مقاله:
این مقاله به معرفی Chisel-Operator می‌پردازد؛ یک Kubernetes Operator که تونل‌های Chisel را به‌صورت منابع deklarative مدیریت می‌کند. با تعریف CRD، اپراتور به‌طور خودکار مؤلفه‌های لازم (مانند Chisel server/client، Service و Secret) را ایجاد کرده، وضعیت را پایش می‌کند و در صورت بروز خطا تونل را ترمیم می‌کند. این رویکرد با GitOps سازگار است، مشاهده‌پذیری و وضعیت منابع را فراهم می‌کند و برای محیط‌های چندمستاجری با RBAC و NetworkPolicy همخوان است. امنیت با استفاده از Secrets، توکن‌ها و TLS در اولویت قرار دارد و از پیکربندی‌های موردی و پرریسک جلوگیری می‌شود. کاربردهای کلیدی شامل اتصال بین namespaceها و کلاسترها، دسترسی موقت توسعه‌دهنده، اجرای وظایف CI/CD و سناریوهای air‑gapped است؛ در مقایسه با port-forward یا bastionهای دستی، روشی مقیاس‌پذیر، قابل حسابرسی و قابل اتکا ارائه می‌دهد.

#Kubernetes #Operator #Chisel #Networking #DevOps #CloudNative #Security #GitOps

🟣لینک مقاله:
https://ku.bz/NtrYVF4X-


👑 @DevOps_Labdon
Forwarded from Bardia & Erfan
پاول دوروف: آزادی اینترنت در حال نابودیه; ۴۱ سالگی رو جشن نمیگیرم

پاول دوروف در تولد ۴۱ سالگی‌اش نوشت:

«دیگه حس جشن ندارم؛ چون نسل ما داره اینترنت آزادی رو از دست می‌ده که پدران‌مون ساختن.

کشورهایی که روزی آزاد بودن، دارن به سمت کنترل کامل پیش می‌رن — از شناسه دیجیتال در بریتانیا تا اسکن پیام‌های خصوصی در اتحادیه اروپا.

در آلمان منتقدان دولت تحت پیگردن، در بریتانیا مردم برای توییت‌هاشون زندانی می‌شن و در فرانسه از مدافعان آزادی بازجویی می‌شه.

ما فریب خوردیم تا باور کنیم باید سنت، حریم خصوصی و آزادی بیان رو قربانی کنیم.

من جشن نمی‌گیرم... چون زمان ما برای نجات آزادی تموم می‌شه.»
1
🔵 عنوان مقاله
Measuring service response time and latency: How to perform a TCP check in Grafana Cloud Synthetic Monitoring (7 minute read)

🟢 خلاصه مقاله:
**
Grafana Cloud Synthetic Monitoring پشتیبانی از TCP check را اضافه کرده تا بتوان عملکرد و اتصال سرویس‌های غیر-HTTP را پایش کرد. این قابلیت با تست اتصال به hostname یا IP و پورت مشخص، و در صورت نیاز ارسال query و بررسی response، امکان سنجش پاسخ‌گویی و latency را فراهم می‌کند.

راه‌اندازی در UI ساده است: هدف درخواست را تعیین می‌کنید، در صورت نیاز query/response اضافه می‌کنید، زمان‌بندی اجرا را تنظیم و محل‌های probe را انتخاب می‌کنید تا دید بهتری از شرایط مناطق مختلف داشته باشید. در پلن رایگان، ماهانه 100k اجرای تست در دسترس است و نتایج در یک dashboard از پیش پیکربندی‌شده نمایش داده می‌شود تا شاخص‌های کلیدی و روندهای latency و response time به‌صورت یک‌جا قابل مشاهده و تحلیل باشد.

#GrafanaCloud #SyntheticMonitoring #TCP #Latency #Observability #SRE #DevOps #Monitoring

🟣لینک مقاله:
https://grafana.com/blog/2025/09/09/measuring-service-response-time-and-latency-how-to-perform-a-tcp-check-in-grafana-cloud-synthetic-monitoring/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
kgateway – Envoy-Based Kubernetes Gateway for API and LLM Traffic

🟢 خلاصه مقاله:
خلاصه‌ای از kgateway: یک درگاه API بومی Kubernetes مبتنی بر Envoy که مسیریابی، امنیت و حاکمیت ترافیک API و ترافیک AI/LLM را یکپارچه می‌کند. این راهکار برای محیط‌های چندابری و هیبریدی طراحی شده و با فراهم‌کردن کنترل‌پلن یکسان و دیتاپلن پرکاربرد، ترافیک در مقیاس میلیاردی را با قابلیت اطمینان بالا مدیریت می‌کند. kgateway قابلیت‌های مدیریت ترافیک مانند مسیریابی هوشمند، بالانس بار، retry/timeout و الگوهای انتشار تدریجی را ارائه می‌دهد و با سازوکارهای شبکه‌ای Kubernetes به‌خوبی هماهنگ می‌شود. در حوزه امنیت و حاکمیت، از mTLS و احراز هویت مبتنی بر توکن، اعمال مجوزهای ریزدانه، محدودسازی نرخ و پایش‌پذیری کامل پشتیبانی می‌کند. برای سناریوهای AI/LLM نیز برای اتصال‌های طولانی‌مدت و الگوهای پرتراکم درخواست بهینه شده، دسترسی به endpointهای مدل در ابرهای مختلف را متمرکز می‌سازد و با پیکربندی کاملاً اعلامی و بومی Kubernetes، امکان GitOps، ایزوله‌سازی چندمستاجره و مقیاس‌پذیری پویا را فراهم می‌کند.

#Kubernetes #Envoy #APIGateway #LLM #AIInfrastructure #CloudNative #MultiCloud #Security

🟣لینک مقاله:
https://ku.bz/WmWGQ11CZ


👑 @DevOps_Labdon
🔵 عنوان مقاله
From utilization to PSI: Rethinking resource starvation monitoring in Kubernetes

🟢 خلاصه مقاله:
این مقاله نشان می‌دهد تکیه بر شاخص‌های غیرمستقیم مانند استفاده از CPU/Memory و requests/limits در Kubernetes اغلب تصویر غلطی از «گرسنگی منابع» می‌دهد و پیشنهاد می‌کند به جای آن از PSI در Linux استفاده شود. PSI با اندازه‌گیری زمان‌های توقف تسک‌ها هنگام انتظار برای CPU، Memory یا I/O (به‌صورت avg10/avg60/avg300 و مقادیر some/full) خودِ «رقابت بر سر منابع» را نشان می‌دهد، نه صرفاً پر بودن ظرفیت. این کار مواردی مانند تأخیر ناشی از reclaim حافظه، صف‌های I/O، یا اثر همسایه پرسر‌وصدا را که پشت نمودارهای استفاده‌ پنهان می‌مانند، آشکار می‌کند. در عمل می‌توان PSI را در سطح نود و cgroup جمع‌آوری کرد (مثلاً با Prometheus node-exporter) و با Grafana دید، آستانه‌های هشدار و SLOها را بر مبنای فشار واقعی تعریف کرد، و حتی HPA و اتواسکیلینگ کلاستر را به فشار پایدار گره زد. نتیجه: برای تشخیص و رفع رقابت واقعی در Kubernetes باید «فشار» را سنجید و تفسیر کرد، و در کنار آن از شاخص‌های استفاده برای تکمیل تصویر بهره گرفت.

#Kubernetes
#Linux
#PSI
#Observability
#SRE
#ResourceManagement
#Prometheus
#CloudNative

🟣لینک مقاله:
https://ku.bz/Gn7372R9X


👑 @DevOps_Labdon
Forwarded from Bardia & Erfan
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی یک خط کد به پروزه اضافه میکنی😂
1🤩1
🔵 عنوان مقاله
Production Grade K8S From Bare Metal/Workstation With Multipass, MicroK8s, MetalLB, Cloudflare…

🟢 خلاصه مقاله:
این آموزش ساخت یک کلاستر Kubernetes در سطح تولید را روی یک ورک‌استیشن bare-metal نشان می‌دهد: با استفاده از Multipass برای ایجاد VMها، MicroK8s به‌عنوان توزیع Kubernetes، MetalLB برای پشتیبانی از Service نوع LoadBalancer در شبکه محلی، و یک Cloudflare Tunnel برای انتشار امن سرویس‌ها بدون باز کردن پورت‌های ورودی. مراحل شامل آماده‌سازی میزبان، پرویژن و خوشه‌بندی MicroK8s، فعال‌سازی افزونه‌هایی مثل dns، ingress، storage و metrics-server، پیکربندی آدرس‌پول MetalLB و تست یک Service نوع LoadBalancer، و راه‌اندازی cloudflared برای اتصال DNS و صدور خودکار گواهی‌ها است. همچنین به ملاحظات تولیدی مانند HA، پشتیبان‌گیری از etcd، انتخاب ذخیره‌سازی پایدار، پایش و لاگ، RBAC، NetworkPolicies، ارتقاها و GitOps (مثلاً با Argo CD یا Flux) اشاره می‌کند تا یک الگوی عملی و مقرون‌به‌صرفه برای محیط‌های خانگی و تیم‌های کوچک فراهم شود.

#Kubernetes #MicroK8s #MetalLB #Multipass #Cloudflare #DevOps #BareMetal #Homelab

🟣لینک مقاله:
https://ku.bz/wq-WT37XN


👑 @DevOps_Labdon
🔵 عنوان مقاله
Zeropod: scale to zero

🟢 خلاصه مقاله:
** Zeropod ابزاری برای مقیاس‌پذیری تا صفر در محیط‌های کانتینری است که پس از گذشت مدت مشخص از آخرین اتصال TCP، وضعیت کانتینر را به‌صورت خودکار روی دیسک ذخیره می‌کند و سپس کانتینر را متوقف می‌سازد. با ورود ترافیک جدید، کانتینر از همان نقطه به‌سرعت بازیابی می‌شود و به‌جای راه‌اندازی سرد، با حداقل تأخیر ادامه کار می‌دهد. نتیجه، کاهش محسوس هزینه‌ها و مصرف منابع در زمان بی‌کاری و حفظ پاسخ‌گویی سرویس‌هاست. این رویکرد برای سرویس‌های با ترافیک مقطعی و محیط‌های توسعه بسیار مناسب است؛ تنها باید به تنظیم آستانه بیکاری، محل ذخیره اسنپ‌شات‌ها و مدیریت صحیح حالت و وابستگی‌های خارجی توجه کرد.

#ScaleToZero #Containers #Serverless #Checkpointing #CloudNative #DevOps #CostOptimization #TCP

🟣لینک مقاله:
https://ku.bz/4gcszQMbG


👑 @DevOps_Labdon
🔵 عنوان مقاله
Helm unittest

🟢 خلاصه مقاله:
Helm unittest روشی سبک برای واحدسنجی قالب‌های Helm chart است تا قبل از استقرار روی Kubernetes مطمئن شویم خروجی رندر دقیقاً مطابق انتظار است. تست‌ها به صورت فایل‌های YAML کنار چارت نوشته می‌شوند، برای هر سناریو مجموعه‌ای از values تعریف می‌شود و روی خروجی رندر شده مجموعه‌ای از Assertionها اجرا می‌گردد؛ مثل وجود یا عدم وجود منابع، صحت مقادیر فیلدهایی مانند image، replicas، labels/annotations و رفتار بخش‌های شرطی. این رویکرد سریع است، به کلاستر وصل نمی‌شود و به‌خوبی در CI/CD (مثل GitHub Actions، GitLab CI یا Jenkins) ادغام می‌شود تا هر تغییر در قالب‌ها سریعاً بازخورد بگیرد. توجه کنید Helm unittest بر درستی سطح Template تمرکز دارد و رفتار زمان اجرا را پوشش نمی‌دهد؛ بنابراین بهتر است در کنار اعتبارسنجی‌های دیگر و تست‌های یکپارچه/سرتاسری استفاده شود تا پوشش کامل به‌دست آید.

#Helm #Kubernetes #HelmUnittest #DevOps #CICD #Testing #YAML #InfrastructureAsCode

🟣لینک مقاله:
https://ku.bz/RKlbPgYDy


👑 @DevOps_Labdon
🔵 عنوان مقاله
Introducing Gateway API Inference Extension

🟢 خلاصه مقاله:
این مقاله یک افزونه برای Kubernetes Gateway API معرفی می‌کند که مخصوص بارهای کاری LLM و inference طراحی شده است. هدف آن «مدل‌آگاه» کردن لایه شبکه است تا مسیریابی و سیاست‌های ترافیکی بر اساس مدل، نسخه، ارائه‌دهنده و فراداده درخواست انجام شود. این کار امکان‌هایی مانند A/B تست، shadowing، و fallback بین مدل‌ها و ارائه‌دهندگان مختلف را بدون تغییر کد برنامه فراهم می‌کند.

همچنین قابلیت تعیین criticality برای هر درخواست را فراهم می‌کند تا مسیرهای حساس به تأخیر نسبت به کارهای پس‌زمینه در صف‌ها، بودجه زمانی و ظرفیت، اولویت بگیرند و SLOها بهتر رعایت شوند. از طرفی، load balancing بهینه‌شده برای inference با درنظرگرفتن عمق صف، وضعیت GPU، اندازه batch، گذردهی توکن و زمان تکمیل تخمینی، به کاهش tail latency و افزایش بهره‌وری کمک می‌کند.

این طراحی بر پایه الگوی آشنای Gateway API بنا شده و با گسترش منابع موجود (Gateway و Route) به‌صورت ارائه‌دهنده‌-محور خنثی عمل می‌کند و هم backendهای درون کلاستر و هم خارجی را پوشش می‌دهد. نتیجه، لایه شبکه‌ای است که محدودیت‌های inference را می‌شناسد و استقرارهای امن‌تر، سیاست‌های هزینه‌محور و رصدپذیری دقیق‌تر در سطح مدل را برای تیم‌های پلتفرمی در Kubernetes ممکن می‌سازد.

#Kubernetes #GatewayAPI #LLM #Inference #MLOps #AIInfrastructure #LoadBalancing #ModelRouting

🟣لینک مقاله:
https://ku.bz/QhNP_lkb3


👑 @DevOps_Labdon
🔵 عنوان مقاله
Is It Time to Migrate? A Practical Look at Kubernetes Ingress vs. Gateway API

🟢 خلاصه مقاله:
** این مقاله توضیح می‌دهد چرا Ingress سنتی در Kubernetes با اتکا به annotations اختصاصی و رفتار وابسته به فروشنده شکننده می‌شود و چگونه Gateway API با مدل استاندارد و نقش‌محور (مانند Gateway، GatewayClass و HTTPRoute) این مشکلات را حل می‌کند. Calico Ingress Gateway (v3.30) مبتنی بر Envoy پیاده‌سازی‌ای ارائه می‌دهد که ورود ترافیک را استاندارد و امن می‌کند، مدیریت TLS را خودکار می‌سازد و نیاز به annotations ویژه را حذف می‌کند. اگر با قوانین مسیریابی پیچیده، چرخش گواهی‌های TLS، چند محیط ناهمگون یا تکیه به تنظیمات شکننده دست‌وپنجه نرم می‌کنید، زمان مهاجرت است: Ingressهای موجود را به HTTPRoute نگاشت کنید، GatewayClass و Gateway بسازید، TLS را خودکار کنید و به‌صورت تدریجی و موازی مهاجرت را انجام دهید تا در نهایت به پیکربندی پایدارتر و قابل‌حمل برسید.

#Kubernetes #GatewayAPI #Ingress #Calico #Envoy #TLS #CloudNative

🟣لینک مقاله:
https://ku.bz/kVLk03Ykw


👑 @DevOps_Labdon
🔵 عنوان مقاله
Kubernetes Copilot

🟢 خلاصه مقاله:
** Kubernetes Copilot یا همان kube-copilot یک دستیار هوشمند برای ساده‌سازی کارهای روزمره روی Kubernetes است. این ابزار با تمرکز بر عیب‌یابی سریع مشکلات pod و ممیزی امنیتی با Trivy، هم سلامت منابع را تحلیل می‌کند و هم آسیب‌پذیری‌ها و پیکربندی‌های پرریسک را آشکار می‌سازد. از سوی دیگر، با دریافت درخواست‌های طبیعی، مانيفست‌های Kubernetes تولید می‌کند و امکان اصلاح مرحله‌به‌مرحله جزئیات مانند محدودیت منابع و probeها را می‌دهد. همچنین با تکیه بر LLMs، دستورات kubectl را از زبان طبیعی ساخته و با سازوکارهای تأیید، ایمن اجرا می‌کند. حاصل کار، چرخه‌ی کوتاه‌تر عیب‌یابی و امن‌سازی برای تیم‌های پلتفرم و SRE است.

#Kubernetes #DevOps #CloudNative #AI #LLM #Security #Trivy #kubectl

🟣لینک مقاله:
https://ku.bz/YXW9h0WXT


👑 @DevOps_Labdon
One of the best practical YouTube Channels to learn DevOps Tools and Skills.
یکی از بهترین کانال‌هایی که بصورت عملی ابزارهای DevOps رو بصورت ملموس و خیلی کوتاه و مختصر و مفید توضیح و آموزش میده

#DevOps #Terraform #Helm #Kubernetes #AWS #GCP #Azure

https://www.youtube.com/@AntonPutra
🔵 عنوان مقاله
How to run AI model inference with GPUs on Amazon EKS Auto Mode

🟢 خلاصه مقاله:
اجرای استنتاج مدل‌های هوش مصنوعی روی GPU در Amazon EKS Auto Mode با اعلام نیازمندی‌ها در سطح Pod ساده می‌شود و خودکار ظرفیت GPU را فراهم و مقیاس می‌دهد. کافی است سرور استنتاج (مثل TensorFlow Serving، TorchServe یا NVIDIA Triton Inference Server) را با CUDA/cuDNN و NVIDIA Container Toolkit در یک ایمیج آماده کنید، در Deployment منابع nvidia.com/gpu و CPU/Memory را درخواست دهید، و با نصب NVIDIA device plugin امکان شناسایی GPU را فراهم کنید. Auto Mode براساس این درخواست‌ها نودهای GPU مناسب را در EC2 تأمین و زمان‌بندی را تسریع می‌کند. برای مقیاس‌پذیری از HPA و اتوسکیلینگ کلاستر استفاده کنید و با تکنیک‌هایی مثل dynamic batching و multi-model throughput را بالا ببرید؛ برای مدیریت هزینه، right-sizing، استفاده هدفمند از Spot و scale-to-zero را در نظر بگیرید. امنیت و شبکه با VPC CNI، Security Group و IAM Roles for Service Accounts و مشاهده‌پذیری با Prometheus/Grafana، DCGM و CloudWatch تکمیل می‌شوند. در نهایت، با CI/CD و Amazon ECR و الگوهای انتشار امن (blue/green یا canary) استقرار به‌صورت قابل تکرار و پایدار از توسعه تا تولید انجام می‌شود.

#AmazonEKS #Kubernetes #GPU #MLOps #AWS #Inference #AutoScaling #NVIDIA

🟣لینک مقاله:
https://ku.bz/jyGr1NGBX


👑 @DevOps_Labdon
🔵 عنوان مقاله
The story behind the great sidecar debate

🟢 خلاصه مقاله:
این مقاله با محور «جدال بزرگ sidecar» نشان می‌دهد چگونه می‌توان مصرف منابع data plane را میان Linkerd، Istio Legacy و Istio Ambient روی GKE به شکلی عادلانه و قابل‌تکرار مقایسه کرد. روش کار با ساخت یک تست‌بد استاندارد روی GKE آغاز می‌شود: خوشه‌ای با اندازه و نوع نود یکسان، غیرفعال‌کردن autoscaling، یک بارکاری پایه برای سنجش، و اندازه‌گیری CPU، حافظه و تاخیرهای p95/p99 بدون mesh به‌عنوان خط مبنا.

سپس هر mesh با سطح امکانات برابر تنظیم می‌شود: فعال‌سازی mTLS، حداقل telemetry یکسان، و کنترل دقیق منابع. در Linkerd و Istio Legacy از sidecar برای هر پاد استفاده می‌شود و در Istio Ambient اجزای مشترک مانند ztunnel/waypoint پیکربندی می‌گردد. آزمایش در فازهای افزایشی انجام می‌شود: ابتدا فقط mTLS، سپس سیاست‌های L7 و مسیریابی، و در نهایت telemetry؛ در هر فاز، بار گرم‌کردن، افزایش و پایداری اعمال و داده‌ها با Prometheus و ابزارهای observability جمع‌آوری می‌شود. برای اطمینان از بی‌طرفی، اجراها تکرار و ترتیب آزمون‌ها تصادفی می‌شود.

تحلیل نتایج دو سطح را پوشش می‌دهد: سربار هر پاد و اثر کلان در مقیاس خوشه. طراحی‌های مبتنی بر sidecar با افزایش تعداد پادها سربار را خطی بالا می‌برند، درحالی‌که Ambient هزینه‌ها را به اجزای مشترک منتقل می‌کند و منحنی هزینه را در مقیاس تغییر می‌دهد. مقاله همچنین ملاحظات عملی مانند جداسازی خرابی، امنیت، سادگی عملیات، و نیازهای واقعی قابلیت‌ها را مطرح می‌کند و یک الگوی مرجع برای تکرار آزمایش با Terraform/Helm و داشبوردهای استاندارد ارائه می‌دهد تا تیم‌ها بتوانند بر اساس داده‌های واقعی تصمیم بگیرند.

#ServiceMesh #Istio #Linkerd #Kubernetes #GKE #Sidecar #AmbientMesh #Benchmark

🟣لینک مقاله:
https://ku.bz/vJWcQchQn


👑 @DevOps_Labdon
🔵 عنوان مقاله
YamlQL – Query YAML Files with SQL & Natural Language

🟢 خلاصه مقاله:
YamlQL ابزاری است برای جست‌وجو و تحلیل فایل‌های YAML با دو شیوه: SQL و زبان طبیعی. این ابزار اجازه می‌دهد بدون نوشتن اسکریپت‌های یک‌بارمصرف، روی چندین فایل هم‌زمان فیلتر بزنید، فیلدها را استخراج کنید و خلاصه‌ها یا آمارهای لازم را بسازید. برای کسانی که SQL نمی‌دانند، می‌توان پرسش‌ها را به زبان طبیعی مطرح کرد تا به پرس‌وجوهای مناسب روی ساختار YAML تبدیل شوند. YamlQL به‌ویژه برای توسعه‌دهندگان و تیم‌های DevOps در سناریوهایی مثل تنظیمات برنامه، خطوط CI/CD و مانیفست‌های Kubernetes مفید است؛ از بررسی انطباق و یافتن فیلدهای ناقص تا تهیه موجودی و گزارش‌گیری سریع.

#YamlQL #YAML #SQL #NaturalLanguage #DevOps #ConfigManagement #DataQuery #Kubernetes

🟣لینک مقاله:
https://ku.bz/dGSTnVnN4


👑 @DevOps_Labdon