🔵 عنوان مقاله
Scalable ML with Azure, Kubernetes and KEDA: Generating Inputs with 500 Pods
🟢 خلاصه مقاله:
**
این مطالعهٔ موردی نشان میدهد چگونه میتوان یک خط لولهٔ ML مقیاسپذیر روی Azure ساخت که با استفاده از Kubernetes و KEDA ورودیها را بهصورت رویدادمحور و تا سقف 500 پاد تولید میکند و سپس مدلها را از طریق Azure ML آموزش، ثبت و استقرار میدهد. در این معماری، KEDA با پایش صفها یا استریمها اندازهٔ خوشه را بهطور خودکار بالا و پایین میبرد، هر پاد بخشی از کار را پردازش میکند، و خروجیها در ذخیرهسازی پایدار ذخیره میشوند تا Azure ML آنها را برای آموزش و ارزیابی مصرف کند. استقرار مدلها روی online/batch endpoints (مدیریتشده یا AKS) انجام میشود و کل فرایند با CI/CD، مانیتورینگ در Azure Monitor/Application Insights، کنترل هزینه و ملاحظات امنیتی (managed identity و شبکه خصوصی) پشتیبانی میگردد. نتیجه، الگویی مطمئن برای آمادهسازی ورودی با توان انفجاری 500 پاد و MLOps استاندارد روی Azure است.
#Azure #Kubernetes #KEDA #AzureML #AKS #MLOps #Scalability #DataEngineering
🟣لینک مقاله:
https://ku.bz/0lYz58fTX
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Scalable ML with Azure, Kubernetes and KEDA: Generating Inputs with 500 Pods
🟢 خلاصه مقاله:
**
این مطالعهٔ موردی نشان میدهد چگونه میتوان یک خط لولهٔ ML مقیاسپذیر روی Azure ساخت که با استفاده از Kubernetes و KEDA ورودیها را بهصورت رویدادمحور و تا سقف 500 پاد تولید میکند و سپس مدلها را از طریق Azure ML آموزش، ثبت و استقرار میدهد. در این معماری، KEDA با پایش صفها یا استریمها اندازهٔ خوشه را بهطور خودکار بالا و پایین میبرد، هر پاد بخشی از کار را پردازش میکند، و خروجیها در ذخیرهسازی پایدار ذخیره میشوند تا Azure ML آنها را برای آموزش و ارزیابی مصرف کند. استقرار مدلها روی online/batch endpoints (مدیریتشده یا AKS) انجام میشود و کل فرایند با CI/CD، مانیتورینگ در Azure Monitor/Application Insights، کنترل هزینه و ملاحظات امنیتی (managed identity و شبکه خصوصی) پشتیبانی میگردد. نتیجه، الگویی مطمئن برای آمادهسازی ورودی با توان انفجاری 500 پاد و MLOps استاندارد روی Azure است.
#Azure #Kubernetes #KEDA #AzureML #AKS #MLOps #Scalability #DataEngineering
🟣لینک مقاله:
https://ku.bz/0lYz58fTX
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Scalable ML with Azure, Kubernetes and KEDA: Generating Inputs with 500 Pods
A real-world look at building a scalable ML system on Azure — from dynamic input generation to model inference using Kubernetes and…
🔵 عنوان مقاله
Kubernetes Event Driven Autoscaling: Spring Boot & RabbitMQ
🟢 خلاصه مقاله:
این مقاله KEDA را بهعنوان راهکاری سبک برای مقیاسپذیری رویدادمحور در Kubernetes معرفی میکند؛ رویکردی که بهجای تکیه صرف بر CPU یا memory، بر اساس منابع رویدادی خارجی مانند طول صف در RabbitMQ مقیاس را تنظیم میکند. با پشتیبانی از Deployments، StatefulSets و Jobs، KEDA میتواند هنگام نبود کار تا سطح صفر مقیاس دهد و با افزایش پیامها در صف، تعداد پادهای پردازشگر Spring Boot را بالا ببرد.
در این روش، با نصب KEDA و تعریف یک ScaledObject (یا ScaledJob) که به بارکار هدف اشاره دارد، تریگر RabbitMQ با تنظیماتی مانند نام صف، اطلاعات اتصال، هدف طول صف، pollingInterval، cooldownPeriod و حدود حداقل/حداکثر replica پیکربندی میشود. KEDA بهعنوان metrics adapter عمل میکند و معیارهای رویدادمحور را به مسیر autoscaling وارد میکند تا خوشه بر اساس فشار واقعی کار نه صرفاً آستانههای منابع، واکنش نشان دهد.
نتیجه این است که در معماریهای مبتنی بر صف و پردازش ناهمزمان، مقیاسپذیری دقیقتر و مقرونبهصرفهتری نسبت به روش صرفاً مبتنی بر CPU/memory حاصل میشود؛ در زمان اوج، توان پردازش سریعتر و در زمان بیکاری، مصرف منابع حداقلی خواهد بود.
#Kubernetes #KEDA #RabbitMQ #SpringBoot #Autoscaling #EventDriven #DevOps #CloudNative
🟣لینک مقاله:
https://ku.bz/YvkjWpfTC
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes Event Driven Autoscaling: Spring Boot & RabbitMQ
🟢 خلاصه مقاله:
این مقاله KEDA را بهعنوان راهکاری سبک برای مقیاسپذیری رویدادمحور در Kubernetes معرفی میکند؛ رویکردی که بهجای تکیه صرف بر CPU یا memory، بر اساس منابع رویدادی خارجی مانند طول صف در RabbitMQ مقیاس را تنظیم میکند. با پشتیبانی از Deployments، StatefulSets و Jobs، KEDA میتواند هنگام نبود کار تا سطح صفر مقیاس دهد و با افزایش پیامها در صف، تعداد پادهای پردازشگر Spring Boot را بالا ببرد.
در این روش، با نصب KEDA و تعریف یک ScaledObject (یا ScaledJob) که به بارکار هدف اشاره دارد، تریگر RabbitMQ با تنظیماتی مانند نام صف، اطلاعات اتصال، هدف طول صف، pollingInterval، cooldownPeriod و حدود حداقل/حداکثر replica پیکربندی میشود. KEDA بهعنوان metrics adapter عمل میکند و معیارهای رویدادمحور را به مسیر autoscaling وارد میکند تا خوشه بر اساس فشار واقعی کار نه صرفاً آستانههای منابع، واکنش نشان دهد.
نتیجه این است که در معماریهای مبتنی بر صف و پردازش ناهمزمان، مقیاسپذیری دقیقتر و مقرونبهصرفهتری نسبت به روش صرفاً مبتنی بر CPU/memory حاصل میشود؛ در زمان اوج، توان پردازش سریعتر و در زمان بیکاری، مصرف منابع حداقلی خواهد بود.
#Kubernetes #KEDA #RabbitMQ #SpringBoot #Autoscaling #EventDriven #DevOps #CloudNative
🟣لینک مقاله:
https://ku.bz/YvkjWpfTC
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
DEV Community
Kubernetes Event Driven Autoscaling: Spring Boot & RabbitMQ
Kubernetes Event Driven Autoscaling (KEDA) enabling Kubernetes workloads (deployments, statefulsets,...
🔵 عنوان مقاله
KEDA HTTP Add-on: scale on requests
🟢 خلاصه مقاله:
مقیاسگذاری خودکار برای سرویسهای HTTP در Kubernetes با تکیه بر سیگنالهای CPU/Memory دقیق نیست. KEDA HTTP Add-on این مشکل را با مقیاسگذاری بر اساس ترافیک واقعی HTTP (درخواستهای در حال پردازش و در صف) حل میکند. این افزونه با KEDA یکپارچه است، از scale-to-zero پشتیبانی میکند، با یک پروکسی سبک جلوی سرویس صفسازی و مسیربندی امن انجام میدهد تا هنگام جهش ترافیک، بارگذاری سرد و ازدحام کنترل شود. پیکربندی آن از طریق HTTPScaledObject انجام میشود و با Ingress و Service Mesh سازگار است، معمولاً بدون نیاز به تغییر کد برنامه. برای رصدپذیری، متریکها به Prometheus صادر میشوند و با Grafana قابل مانیتور هستند. نتیجه، همراستسازی تعداد Replicaها با تقاضای واقعی HTTP برای بهبود کارایی، کاهش هزینه و پوشش بهتر ترافیکهای انفجاری است؛ همچنین میتواند در کنار HPA و سایر Scalerهای KEDA استفاده شود.
#KEDA #Kubernetes #Autoscaling #HTTP #Serverless #CloudNative #DevOps #Observability
🟣لینک مقاله:
https://ku.bz/9TQrYJkKK
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
KEDA HTTP Add-on: scale on requests
🟢 خلاصه مقاله:
مقیاسگذاری خودکار برای سرویسهای HTTP در Kubernetes با تکیه بر سیگنالهای CPU/Memory دقیق نیست. KEDA HTTP Add-on این مشکل را با مقیاسگذاری بر اساس ترافیک واقعی HTTP (درخواستهای در حال پردازش و در صف) حل میکند. این افزونه با KEDA یکپارچه است، از scale-to-zero پشتیبانی میکند، با یک پروکسی سبک جلوی سرویس صفسازی و مسیربندی امن انجام میدهد تا هنگام جهش ترافیک، بارگذاری سرد و ازدحام کنترل شود. پیکربندی آن از طریق HTTPScaledObject انجام میشود و با Ingress و Service Mesh سازگار است، معمولاً بدون نیاز به تغییر کد برنامه. برای رصدپذیری، متریکها به Prometheus صادر میشوند و با Grafana قابل مانیتور هستند. نتیجه، همراستسازی تعداد Replicaها با تقاضای واقعی HTTP برای بهبود کارایی، کاهش هزینه و پوشش بهتر ترافیکهای انفجاری است؛ همچنین میتواند در کنار HPA و سایر Scalerهای KEDA استفاده شود.
#KEDA #Kubernetes #Autoscaling #HTTP #Serverless #CloudNative #DevOps #Observability
🟣لینک مقاله:
https://ku.bz/9TQrYJkKK
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - kedacore/http-add-on: Add-on for KEDA to scale HTTP workloads
Add-on for KEDA to scale HTTP workloads. Contribute to kedacore/http-add-on development by creating an account on GitHub.
🔵 عنوان مقاله
Autoscaling .NET APIs with KEDA and Kubernetes Metrics
🟢 خلاصه مقاله:
** مقیاسپذیری خودکار برای APIهای .NET در Kubernetes با ترکیب HPA، Kubernetes Metrics و KEDA ممکن میشود. KEDA با تعریف ScaledObject و تریگرهایی مثل درخواستدرثانیه یا تأخیر از Prometheus، عمق صف در RabbitMQ/Kafka، و زمانبندی cron، متریکهای خارجی را به HPA میدهد و حتی قابلیت scale‑to‑zero را فراهم میکند. برای APIهای .NET میتوان روی نرخ درخواست، تعداد درخواستهای درحال پردازش، یا صف کارهای پسزمینه مقیاس داد و همزمان یک تکیهگاه CPU برای جهشهای محاسباتی داشت. بهترینعملها شامل تنظیم درست requests/limits، همکاری با Cluster Autoscaler، تعریف readiness/liveness/startup probes، کنترل همزمانی، و بهینهسازیهای .NET مانند async I/O، HttpClientFactory و connection pooling است. با پایش Prometheus/Grafana، آزمون بار مثل k6، و پنجرههای تثبیت و cooldown مناسب، API بهصورت رویدادمحور، دقیق و بهصرفه مقیاس میگیرد و در اوجها پایدار میماند.
#Kubernetes #KEDA #DotNet #Autoscaling #HPA #Prometheus #CloudNative #APIs
🟣لینک مقاله:
https://ku.bz/X_jPVf71Q
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Autoscaling .NET APIs with KEDA and Kubernetes Metrics
🟢 خلاصه مقاله:
** مقیاسپذیری خودکار برای APIهای .NET در Kubernetes با ترکیب HPA، Kubernetes Metrics و KEDA ممکن میشود. KEDA با تعریف ScaledObject و تریگرهایی مثل درخواستدرثانیه یا تأخیر از Prometheus، عمق صف در RabbitMQ/Kafka، و زمانبندی cron، متریکهای خارجی را به HPA میدهد و حتی قابلیت scale‑to‑zero را فراهم میکند. برای APIهای .NET میتوان روی نرخ درخواست، تعداد درخواستهای درحال پردازش، یا صف کارهای پسزمینه مقیاس داد و همزمان یک تکیهگاه CPU برای جهشهای محاسباتی داشت. بهترینعملها شامل تنظیم درست requests/limits، همکاری با Cluster Autoscaler، تعریف readiness/liveness/startup probes، کنترل همزمانی، و بهینهسازیهای .NET مانند async I/O، HttpClientFactory و connection pooling است. با پایش Prometheus/Grafana، آزمون بار مثل k6، و پنجرههای تثبیت و cooldown مناسب، API بهصورت رویدادمحور، دقیق و بهصرفه مقیاس میگیرد و در اوجها پایدار میماند.
#Kubernetes #KEDA #DotNet #Autoscaling #HPA #Prometheus #CloudNative #APIs
🟣لینک مقاله:
https://ku.bz/X_jPVf71Q
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Autoscaling .NET APIs with KEDA and Kubernetes Metrics
Responding to Traffic Surges in Real-Time Using Event-Driven Scaling in Modern .NET Microservices
🔵 عنوان مقاله
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda
🟢 خلاصه مقاله:
این آموزش نشان میدهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیامها بهصورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرفکننده GPU را نسبت به backlog تنظیم میکند (minReplicaCount=0). با فعالبودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد میشوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.
#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML
🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda
🟢 خلاصه مقاله:
این آموزش نشان میدهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیامها بهصورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرفکننده GPU را نسبت به backlog تنظیم میکند (minReplicaCount=0). با فعالبودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد میشوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.
#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML
🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
❤1
🔵 عنوان مقاله
How KEDA’s Advanced HPA Tuning Cut Our App’s Latency by 96%
🟢 خلاصه مقاله:
در این مقاله، به بررسی نحوه بهبود قابل توجه عملکرد برنامهمان با بهرهگیری از تنظیمات پیشرفته HPA در KEDA میپردازیم. در ابتدا، مشکل اصلی ما کاهش شدید تاخیر در پاسخگویی برنامه بود. این موضوع باعث کاهش رضایت کاربران و محدودیتهای در مقیاسپذیری میشد. تیم فنی ما پس از بررسی دقیق، تصمیم گرفتند از قابلیتهای تنظیم دقیق HPA در KEDA استفاده کنند تا منابع را به صورت هوشمند و بهموقع مدیریت کنند.
در نتیجه، با اعمال تنظیمات پیشرفته HPA، نه تنها توانستیم تاخیر سیستم را تا ۹۶ درصد کاهش دهیم، بلکه عملکرد برنامه را به سطح مطلوبی رساندیم. این بهبود به ما اجازه داد تا برنامهمان پاسخ سریعتر و کارایی بالاتری داشته باشد، ضمن اینکه از منابع به شکل بهینهتری بهرهبرداری کردیم. این تجربه نشان داد که تنظیمات تخصصی و دقیق ابزاری قدرتمند برای ارتقاء عملکرد اپلیکیشنها در محیطهای مقیاسپذیر است.
#پایش #KEDA #بهینهسازی_کارایی #HPA
🟣لینک مقاله:
https://ku.bz/BTgVZTKM-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
How KEDA’s Advanced HPA Tuning Cut Our App’s Latency by 96%
🟢 خلاصه مقاله:
در این مقاله، به بررسی نحوه بهبود قابل توجه عملکرد برنامهمان با بهرهگیری از تنظیمات پیشرفته HPA در KEDA میپردازیم. در ابتدا، مشکل اصلی ما کاهش شدید تاخیر در پاسخگویی برنامه بود. این موضوع باعث کاهش رضایت کاربران و محدودیتهای در مقیاسپذیری میشد. تیم فنی ما پس از بررسی دقیق، تصمیم گرفتند از قابلیتهای تنظیم دقیق HPA در KEDA استفاده کنند تا منابع را به صورت هوشمند و بهموقع مدیریت کنند.
در نتیجه، با اعمال تنظیمات پیشرفته HPA، نه تنها توانستیم تاخیر سیستم را تا ۹۶ درصد کاهش دهیم، بلکه عملکرد برنامه را به سطح مطلوبی رساندیم. این بهبود به ما اجازه داد تا برنامهمان پاسخ سریعتر و کارایی بالاتری داشته باشد، ضمن اینکه از منابع به شکل بهینهتری بهرهبرداری کردیم. این تجربه نشان داد که تنظیمات تخصصی و دقیق ابزاری قدرتمند برای ارتقاء عملکرد اپلیکیشنها در محیطهای مقیاسپذیر است.
#پایش #KEDA #بهینهسازی_کارایی #HPA
🟣لینک مقاله:
https://ku.bz/BTgVZTKM-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
How KEDA’s Advanced HPA Tuning Cut Our App’s Latency by 96%
A deep dive into the KEDA configuration that tamed our latency beast and silenced the on-call pager.