DevOps Labdon
496 subscribers
24 photos
4 videos
2 files
795 links
👑 DevOps Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Scalable ML with Azure, Kubernetes and KEDA: Generating Inputs with 500 Pods

🟢 خلاصه مقاله:
**
این مطالعهٔ موردی نشان می‌دهد چگونه می‌توان یک خط لولهٔ ML مقیاس‌پذیر روی Azure ساخت که با استفاده از Kubernetes و KEDA ورودی‌ها را به‌صورت رویدادمحور و تا سقف 500 پاد تولید می‌کند و سپس مدل‌ها را از طریق Azure ML آموزش، ثبت و استقرار می‌دهد. در این معماری، KEDA با پایش صف‌ها یا استریم‌ها اندازهٔ خوشه را به‌طور خودکار بالا و پایین می‌برد، هر پاد بخشی از کار را پردازش می‌کند، و خروجی‌ها در ذخیره‌سازی پایدار ذخیره می‌شوند تا Azure ML آن‌ها را برای آموزش و ارزیابی مصرف کند. استقرار مدل‌ها روی online/batch endpoints (مدیریت‌شده یا AKS) انجام می‌شود و کل فرایند با CI/CD، مانیتورینگ در Azure Monitor/Application Insights، کنترل هزینه و ملاحظات امنیتی (managed identity و شبکه خصوصی) پشتیبانی می‌گردد. نتیجه، الگویی مطمئن برای آماده‌سازی ورودی با توان انفجاری 500 پاد و MLOps استاندارد روی Azure است.

#Azure #Kubernetes #KEDA #AzureML #AKS #MLOps #Scalability #DataEngineering

🟣لینک مقاله:
https://ku.bz/0lYz58fTX


👑 @DevOps_Labdon
🔵 عنوان مقاله
Kubernetes Event Driven Autoscaling: Spring Boot & RabbitMQ

🟢 خلاصه مقاله:
این مقاله KEDA را به‌عنوان راهکاری سبک برای مقیاس‌پذیری رویدادمحور در Kubernetes معرفی می‌کند؛ رویکردی که به‌جای تکیه صرف بر CPU یا memory، بر اساس منابع رویدادی خارجی مانند طول صف در RabbitMQ مقیاس را تنظیم می‌کند. با پشتیبانی از Deployments، StatefulSets و Jobs، KEDA می‌تواند هنگام نبود کار تا سطح صفر مقیاس دهد و با افزایش پیام‌ها در صف، تعداد پادهای پردازشگر Spring Boot را بالا ببرد.

در این روش، با نصب KEDA و تعریف یک ScaledObject (یا ScaledJob) که به بارکار هدف اشاره دارد، تریگر RabbitMQ با تنظیماتی مانند نام صف، اطلاعات اتصال، هدف طول صف، pollingInterval، cooldownPeriod و حدود حداقل/حداکثر replica پیکربندی می‌شود. KEDA به‌عنوان metrics adapter عمل می‌کند و معیارهای رویدادمحور را به مسیر autoscaling وارد می‌کند تا خوشه بر اساس فشار واقعی کار نه صرفاً آستانه‌های منابع، واکنش نشان دهد.

نتیجه این است که در معماری‌های مبتنی بر صف و پردازش ناهمزمان، مقیاس‌پذیری دقیق‌تر و مقرون‌به‌صرفه‌تری نسبت به روش صرفاً مبتنی بر CPU/memory حاصل می‌شود؛ در زمان اوج، توان پردازش سریع‌تر و در زمان بیکاری، مصرف منابع حداقلی خواهد بود.

#Kubernetes #KEDA #RabbitMQ #SpringBoot #Autoscaling #EventDriven #DevOps #CloudNative

🟣لینک مقاله:
https://ku.bz/YvkjWpfTC


👑 @DevOps_Labdon
🔵 عنوان مقاله
KEDA HTTP Add-on: scale on requests

🟢 خلاصه مقاله:
مقیاس‌گذاری خودکار برای سرویس‌های HTTP در Kubernetes با تکیه بر سیگنال‌های CPU/Memory دقیق نیست. KEDA HTTP Add-on این مشکل را با مقیاس‌گذاری بر اساس ترافیک واقعی HTTP (درخواست‌های در حال پردازش و در صف) حل می‌کند. این افزونه با KEDA یکپارچه است، از scale-to-zero پشتیبانی می‌کند، با یک پروکسی سبک جلوی سرویس صف‌سازی و مسیربندی امن انجام می‌دهد تا هنگام جهش ترافیک، بارگذاری سرد و ازدحام کنترل شود. پیکربندی آن از طریق HTTPScaledObject انجام می‌شود و با Ingress و Service Mesh سازگار است، معمولاً بدون نیاز به تغییر کد برنامه. برای رصدپذیری، متریک‌ها به Prometheus صادر می‌شوند و با Grafana قابل مانیتور هستند. نتیجه، هم‌راست‌سازی تعداد Replicaها با تقاضای واقعی HTTP برای بهبود کارایی، کاهش هزینه و پوشش بهتر ترافیک‌های انفجاری است؛ همچنین می‌تواند در کنار HPA و سایر Scalerهای KEDA استفاده شود.

#KEDA #Kubernetes #Autoscaling #HTTP #Serverless #CloudNative #DevOps #Observability

🟣لینک مقاله:
https://ku.bz/9TQrYJkKK


👑 @DevOps_Labdon
🔵 عنوان مقاله
Autoscaling .NET APIs with KEDA and Kubernetes Metrics

🟢 خلاصه مقاله:
** مقیاس‌پذیری خودکار برای APIهای .NET در Kubernetes با ترکیب HPA، Kubernetes Metrics و KEDA ممکن می‌شود. KEDA با تعریف ScaledObject و تریگرهایی مثل درخواست‌درثانیه یا تأخیر از Prometheus، عمق صف در RabbitMQ/Kafka، و زمان‌بندی cron، متریک‌های خارجی را به HPA می‌دهد و حتی قابلیت scale‑to‑zero را فراهم می‌کند. برای APIهای .NET می‌توان روی نرخ درخواست، تعداد درخواست‌های درحال پردازش، یا صف کارهای پس‌زمینه مقیاس داد و هم‌زمان یک تکیه‌گاه CPU برای جهش‌های محاسباتی داشت. بهترین‌عمل‌ها شامل تنظیم درست requests/limits، همکاری با Cluster Autoscaler، تعریف readiness/liveness/startup probes، کنترل همزمانی، و بهینه‌سازی‌های .NET مانند async I/O، HttpClientFactory و connection pooling است. با پایش Prometheus/Grafana، آزمون بار مثل k6، و پنجره‌های تثبیت و cooldown مناسب، API به‌صورت رویدادمحور، دقیق و به‌صرفه مقیاس می‌گیرد و در اوج‌ها پایدار می‌ماند.

#Kubernetes #KEDA #DotNet #Autoscaling #HPA #Prometheus #CloudNative #APIs

🟣لینک مقاله:
https://ku.bz/X_jPVf71Q


👑 @DevOps_Labdon
🔵 عنوان مقاله
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda

🟢 خلاصه مقاله:
این آموزش نشان می‌دهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیام‌ها به‌صورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرف‌کننده GPU را نسبت به backlog تنظیم می‌کند (minReplicaCount=0). با فعال‌بودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد می‌شوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.

#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML

🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx


👑 @DevOps_Labdon
1
🔵 عنوان مقاله
How KEDA’s Advanced HPA Tuning Cut Our App’s Latency by 96%

🟢 خلاصه مقاله:
در این مقاله، به بررسی نحوه بهبود قابل توجه عملکرد برنامه‌مان با بهره‌گیری از تنظیمات پیشرفته HPA در KEDA می‌پردازیم. در ابتدا، مشکل اصلی ما کاهش شدید تاخیر در پاسخگویی برنامه بود. این موضوع باعث کاهش رضایت کاربران و محدودیت‌های در مقیاس‌پذیری می‌شد. تیم فنی ما پس از بررسی دقیق، تصمیم گرفتند از قابلیت‌های تنظیم دقیق HPA در KEDA استفاده کنند تا منابع را به صورت هوشمند و به‌موقع مدیریت کنند.

در نتیجه، با اعمال تنظیمات پیشرفته HPA، نه تنها توانستیم تاخیر سیستم را تا ۹۶ درصد کاهش دهیم، بلکه عملکرد برنامه را به سطح مطلوبی رساندیم. این بهبود به ما اجازه داد تا برنامه‌مان پاسخ سریع‌تر و کارایی بالاتری داشته باشد، ضمن اینکه از منابع به شکل بهینه‌تری بهره‌برداری کردیم. این تجربه نشان داد که تنظیمات تخصصی و دقیق ابزاری قدرتمند برای ارتقاء عملکرد اپلیکیشن‌ها در محیط‌های مقیاس‌پذیر است.

#پایش #KEDA #بهینه‌سازی_کارایی #HPA

🟣لینک مقاله:
https://ku.bz/BTgVZTKM-


👑 @DevOps_Labdon