🔵 عنوان مقاله
KubeFTP-Proxy Helm Chart
🟢 خلاصه مقاله:
**این چارت Helm با نام KubeFTP-Proxy از مخزن github.com/adrghph اجرای یک سرور FTP/FTPS در حالت passive را روی Kubernetes ساده میکند: یک vsftpd مستقر میکند، آن را با NodePort در دسترس میگذارد و پیکربندی HAProxy را برای مسیریابی درست پورتهای passive در سراسر نودها بهصورت خودکار میسازد. چالش اصلی FTP در Kubernetes جداسازی کانال کنترل از پورتهای داده پویا (PASV) و مشکلات NAT/NodePort است؛ این چارت با جلوتر قراردادن HAProxy و نگاشت رنج پورتهای passive، آدرس/پورتهای قابلدسترسی به کلاینت میدهد تا اتصال داده در هر نودی برقرار شود. تنظیمات از طریق مقادیر Helm (مثل رنج پورت passive، آدرس/Hostname خارجی و NodePort) انجام میشود و برای سناریوهای کلود یا برمتال و حفظ گردشکارهای قدیمی FTP/FTPS مناسب است؛ در عین حال بهتر است رنج پورتها محدود، دسترسی شبکه کنترل و FTPS فعال شود.
#Kubernetes #Helm #FTP #FTPS #vsftpd #HAProxy #NodePort #DevOps
🟣لینک مقاله:
https://ku.bz/hWTY1Vq11
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
KubeFTP-Proxy Helm Chart
🟢 خلاصه مقاله:
**این چارت Helm با نام KubeFTP-Proxy از مخزن github.com/adrghph اجرای یک سرور FTP/FTPS در حالت passive را روی Kubernetes ساده میکند: یک vsftpd مستقر میکند، آن را با NodePort در دسترس میگذارد و پیکربندی HAProxy را برای مسیریابی درست پورتهای passive در سراسر نودها بهصورت خودکار میسازد. چالش اصلی FTP در Kubernetes جداسازی کانال کنترل از پورتهای داده پویا (PASV) و مشکلات NAT/NodePort است؛ این چارت با جلوتر قراردادن HAProxy و نگاشت رنج پورتهای passive، آدرس/پورتهای قابلدسترسی به کلاینت میدهد تا اتصال داده در هر نودی برقرار شود. تنظیمات از طریق مقادیر Helm (مثل رنج پورت passive، آدرس/Hostname خارجی و NodePort) انجام میشود و برای سناریوهای کلود یا برمتال و حفظ گردشکارهای قدیمی FTP/FTPS مناسب است؛ در عین حال بهتر است رنج پورتها محدود، دسترسی شبکه کنترل و FTPS فعال شود.
#Kubernetes #Helm #FTP #FTPS #vsftpd #HAProxy #NodePort #DevOps
🟣لینک مقاله:
https://ku.bz/hWTY1Vq11
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
adrghph - Overview
🌐. adrghph has 6 repositories available. Follow their code on GitHub.
🔵 عنوان مقاله
Troubleshooting packet drops in a Kubernetes-based observability platform
🟢 خلاصه مقاله:
این مطالعه موردی نشان میدهد تیم SRE در Kapital Bank چگونه افتهای مقطعی بستهها و افزایش تاخیر را در یک پلتفرم مشاهدهپذیری مبتنی بر Kubernetes که به لایه Memcached متکی بود، ریشهیابی کرد. با آنکه شاخصهای سطح اپلیکیشن عادی بهنظر میرسید، بررسی عمیقتر مسیر شبکه در سطح کرنل و شمارندههای گرهها و پادها، فشار لحظهای ترافیک و اشباع صفها را آشکار کرد. تیم با آزمایشهای کنترلشده و تنظیم محتاطانه پارامترهای کرنل—از جمله عمق صفها و اندازه بافرها—پارامترها را با الگوی ترافیک Memcached روی Kubernetes همتراز کرد و در نتیجه، افت بستهها کاهش یافت و پایداری و تاخیر انتهابهانتها بهبود پیدا کرد. این روایت در medium.com یک روش عملی برای عیبیابی مسائل شبکهای در سطح کرنل در محیطهای کانتینری ارائه میدهد: مشاهدهپذیری لایهبهلایه، اعتبارسنجی فرضیات، و تیونینگ مبتنی بر شواهد.
#Kubernetes #SRE #Memcached #Observability #Networking #KernelTuning #PacketLoss #DevOps
🟣لینک مقاله:
https://ku.bz/spNnnpsM-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Troubleshooting packet drops in a Kubernetes-based observability platform
🟢 خلاصه مقاله:
این مطالعه موردی نشان میدهد تیم SRE در Kapital Bank چگونه افتهای مقطعی بستهها و افزایش تاخیر را در یک پلتفرم مشاهدهپذیری مبتنی بر Kubernetes که به لایه Memcached متکی بود، ریشهیابی کرد. با آنکه شاخصهای سطح اپلیکیشن عادی بهنظر میرسید، بررسی عمیقتر مسیر شبکه در سطح کرنل و شمارندههای گرهها و پادها، فشار لحظهای ترافیک و اشباع صفها را آشکار کرد. تیم با آزمایشهای کنترلشده و تنظیم محتاطانه پارامترهای کرنل—از جمله عمق صفها و اندازه بافرها—پارامترها را با الگوی ترافیک Memcached روی Kubernetes همتراز کرد و در نتیجه، افت بستهها کاهش یافت و پایداری و تاخیر انتهابهانتها بهبود پیدا کرد. این روایت در medium.com یک روش عملی برای عیبیابی مسائل شبکهای در سطح کرنل در محیطهای کانتینری ارائه میدهد: مشاهدهپذیری لایهبهلایه، اعتبارسنجی فرضیات، و تیونینگ مبتنی بر شواهد.
#Kubernetes #SRE #Memcached #Observability #Networking #KernelTuning #PacketLoss #DevOps
🟣لینک مقاله:
https://ku.bz/spNnnpsM-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Troubleshooting Packet Drops in a Kubernetes Cluster
One of the core responsibilities of our SRE team is maintaining a robust observability platform. Our platform is built using open-source…
❤1
🔵 عنوان مقاله
Kubernetes pod scheduling: balancing cost and resilience
🟢 خلاصه مقاله:
این مقاله از CAST AI نشان میدهد چگونه با تنظیم سیاستهای زمانبندی در Kubernetes میتوان هزینه را کاهش داد و در عین حال تابآوری را حفظ کرد. با استفاده از anti-affinity از هممکانی replicaها روی یک node یا zone جلوگیری میشود تا شعاع خرابی کم شود، اما سختگیری بیش از حد میتواند به fragmentation و افزایش بیمورد ظرفیت منجر شود؛ بنابراین ترکیب قوانین الزامی و ترجیحی پیشنهاد میشود. spread constraints نیز برای پخش یکنواخت podها میان nodeها/zoneها و کاهش نقاط داغ بهکار میرود، ولی اگر خیلی سخت تنظیم شوند ممکن است مقیاسگستری ناخواسته ایجاد کنند؛ تنظیم دقیق پارامترها راهحل است. در نهایت، affinity weights امکان میدهد بار را به ظرفیت ارزانتر هدایت کنید و مسیرهای جایگزین برای پایداری داشته باشید. جمعبندی مقاله: با پایش پیوسته و همافزایی این سیاستها، میتوان بین هزینه و تابآوری توازن مؤثری ساخت.
#Kubernetes
#PodScheduling
#CostOptimization
#Resilience
#AntiAffinity
#TopologySpreadConstraints
#NodeAffinity
🟣لینک مقاله:
https://ku.bz/2wgGRZMjd
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes pod scheduling: balancing cost and resilience
🟢 خلاصه مقاله:
این مقاله از CAST AI نشان میدهد چگونه با تنظیم سیاستهای زمانبندی در Kubernetes میتوان هزینه را کاهش داد و در عین حال تابآوری را حفظ کرد. با استفاده از anti-affinity از هممکانی replicaها روی یک node یا zone جلوگیری میشود تا شعاع خرابی کم شود، اما سختگیری بیش از حد میتواند به fragmentation و افزایش بیمورد ظرفیت منجر شود؛ بنابراین ترکیب قوانین الزامی و ترجیحی پیشنهاد میشود. spread constraints نیز برای پخش یکنواخت podها میان nodeها/zoneها و کاهش نقاط داغ بهکار میرود، ولی اگر خیلی سخت تنظیم شوند ممکن است مقیاسگستری ناخواسته ایجاد کنند؛ تنظیم دقیق پارامترها راهحل است. در نهایت، affinity weights امکان میدهد بار را به ظرفیت ارزانتر هدایت کنید و مسیرهای جایگزین برای پایداری داشته باشید. جمعبندی مقاله: با پایش پیوسته و همافزایی این سیاستها، میتوان بین هزینه و تابآوری توازن مؤثری ساخت.
#Kubernetes
#PodScheduling
#CostOptimization
#Resilience
#AntiAffinity
#TopologySpreadConstraints
#NodeAffinity
🟣لینک مقاله:
https://ku.bz/2wgGRZMjd
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Cast AI
Kubernetes Pod Scheduling: Balancing Cost and Resilience
Master Kubernetes pod scheduling to balance cost efficiency and resilience. Learn optimization strategies for production clusters.
🔵 عنوان مقاله
kubectl-explore
🟢 خلاصه مقاله:
**kubectl-explore یک ابزار تعاملی بر پایه fuzzy finder است که تجربه کار با kubectl explain را سریعتر و قابل جستوجوتر میکند. بهجای اجرای پرسوجوهای تکی، میتوانید بین Group/Version/Kind، فیلدها و زیرفیلدها جستوجوی فازی انجام دهید، پیشنمایش توضیحات را همانجا ببینید و بین انواع مرتبط جابهجا شوید؛ همه داخل ترمینال و فقط با کیبورد. این کار کشف و یادگیری API در Kubernetes—بهویژه برای CRDها و بررسی فیلدهای مانيفست—را سادهتر میکند و با استفاده از همان منبع مستندات kubectl explain برای منابع هسته و (در صورت در دسترس بودن) CRDها عمل میکند.
#Kubernetes #kubectl #DevOps #CLI #FuzzyFinder #CRD #DeveloperExperience #Productivity
🟣لینک مقاله:
https://ku.bz/Q_P_Yp5lN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
kubectl-explore
🟢 خلاصه مقاله:
**kubectl-explore یک ابزار تعاملی بر پایه fuzzy finder است که تجربه کار با kubectl explain را سریعتر و قابل جستوجوتر میکند. بهجای اجرای پرسوجوهای تکی، میتوانید بین Group/Version/Kind، فیلدها و زیرفیلدها جستوجوی فازی انجام دهید، پیشنمایش توضیحات را همانجا ببینید و بین انواع مرتبط جابهجا شوید؛ همه داخل ترمینال و فقط با کیبورد. این کار کشف و یادگیری API در Kubernetes—بهویژه برای CRDها و بررسی فیلدهای مانيفست—را سادهتر میکند و با استفاده از همان منبع مستندات kubectl explain برای منابع هسته و (در صورت در دسترس بودن) CRDها عمل میکند.
#Kubernetes #kubectl #DevOps #CLI #FuzzyFinder #CRD #DeveloperExperience #Productivity
🟣لینک مقاله:
https://ku.bz/Q_P_Yp5lN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - keisku/kubectl-explore: A better kubectl explain with the fuzzy finder
A better kubectl explain with the fuzzy finder. Contribute to keisku/kubectl-explore development by creating an account on GitHub.
🔵 عنوان مقاله
PVC-Autoresizer: Dynamic Volume Expansion
🟢 خلاصه مقاله:
PVC-Autoresizer یک کنترلر در Kubernetes است که با پایش مصرف دیسک، اندازه PVC را بهصورت خودکار و مرحلهای افزایش میدهد تا از پر شدن ناگهانی حجم و توقف سرویس جلوگیری شود. این ابزار بر اساس آستانههای قابلپیکربندی عمل میکند، تنها وقتی StorageClass و درایور CSI از گسترش پشتیبانی کنند اقدام میکند، و برای هر PVC/Namespace امکان سیاستهای جداگانه (حداکثر اندازه، گام رشد، و Backoff) را فراهم میسازد. با فایلسیستمها و درایورهای سازگار، گسترش اغلب آنلاین و بدون downtime انجام میشود؛ در غیر این صورت میتواند نیاز به راهاندازی مجدد کنترلشده را اعلام کند. موارد استفاده رایج شامل دیتابیسها و بارهای Stateful با رشد غیرقابلپیشبینی است. محدودیت مهم این است که کوچکسازی معمولاً ممکن نیست و نیاز به allowVolumeExpansion و پشتیبانی CSI وجود دارد. نتیجه: خودکارسازی، پیشگیری از رخدادهای کمبود فضا، و کاهش کار عملیاتی در مدیریت ذخیرهسازی.
#Kubernetes #PVC #PersistentVolume #CSI #DevOps #CloudNative #StatefulWorkloads #StorageAutomation
🟣لینک مقاله:
https://ku.bz/xwnlC772q
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
PVC-Autoresizer: Dynamic Volume Expansion
🟢 خلاصه مقاله:
PVC-Autoresizer یک کنترلر در Kubernetes است که با پایش مصرف دیسک، اندازه PVC را بهصورت خودکار و مرحلهای افزایش میدهد تا از پر شدن ناگهانی حجم و توقف سرویس جلوگیری شود. این ابزار بر اساس آستانههای قابلپیکربندی عمل میکند، تنها وقتی StorageClass و درایور CSI از گسترش پشتیبانی کنند اقدام میکند، و برای هر PVC/Namespace امکان سیاستهای جداگانه (حداکثر اندازه، گام رشد، و Backoff) را فراهم میسازد. با فایلسیستمها و درایورهای سازگار، گسترش اغلب آنلاین و بدون downtime انجام میشود؛ در غیر این صورت میتواند نیاز به راهاندازی مجدد کنترلشده را اعلام کند. موارد استفاده رایج شامل دیتابیسها و بارهای Stateful با رشد غیرقابلپیشبینی است. محدودیت مهم این است که کوچکسازی معمولاً ممکن نیست و نیاز به allowVolumeExpansion و پشتیبانی CSI وجود دارد. نتیجه: خودکارسازی، پیشگیری از رخدادهای کمبود فضا، و کاهش کار عملیاتی در مدیریت ذخیرهسازی.
#Kubernetes #PVC #PersistentVolume #CSI #DevOps #CloudNative #StatefulWorkloads #StorageAutomation
🟣لینک مقاله:
https://ku.bz/xwnlC772q
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - topolvm/pvc-autoresizer: Auto-resize PersistentVolumeClaim objects based on Prometheus metrics
Auto-resize PersistentVolumeClaim objects based on Prometheus metrics - topolvm/pvc-autoresizer
🔵 عنوان مقاله
K8s cleaner
🟢 خلاصه مقاله:
K8s cleaner یک کنترلر برای Kubernetes است که توسط gianlucam76 در GitHub منتشر شده و به شناسایی و حذف یا بهروزرسانی منابع قدیمی/یتیم یا ناسالم کمک میکند تا خوشه تمیز و کارآمد بماند. این ابزار با رصد مداوم وضعیت خوشه، مواردی مانند Pods ناموفق، PVCهای یتیم، ConfigMaps یا Secrets بلااستفاده، ReplicaSets قدیمی و Jobs پایانیافته را هدف میگیرد. با خودکارسازی این نظافت، ظرفیت آزاد میشود، نویز عملیاتی کاهش مییابد و قابلیت اطمینان و کارایی زمانبندی بهبود پیدا میکند؛ رویکردی که با جریانهای کاری DevOps و SRE و حتی GitOps همخوان است.
#Kubernetes #K8s #DevOps #SRE #CloudNative #ClusterMaintenance #Automation #GitOps
🟣لینک مقاله:
https://ku.bz/6_tDbWysr
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
K8s cleaner
🟢 خلاصه مقاله:
K8s cleaner یک کنترلر برای Kubernetes است که توسط gianlucam76 در GitHub منتشر شده و به شناسایی و حذف یا بهروزرسانی منابع قدیمی/یتیم یا ناسالم کمک میکند تا خوشه تمیز و کارآمد بماند. این ابزار با رصد مداوم وضعیت خوشه، مواردی مانند Pods ناموفق، PVCهای یتیم، ConfigMaps یا Secrets بلااستفاده، ReplicaSets قدیمی و Jobs پایانیافته را هدف میگیرد. با خودکارسازی این نظافت، ظرفیت آزاد میشود، نویز عملیاتی کاهش مییابد و قابلیت اطمینان و کارایی زمانبندی بهبود پیدا میکند؛ رویکردی که با جریانهای کاری DevOps و SRE و حتی GitOps همخوان است.
#Kubernetes #K8s #DevOps #SRE #CloudNative #ClusterMaintenance #Automation #GitOps
🟣لینک مقاله:
https://ku.bz/6_tDbWysr
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - gianlucam76/k8s-cleaner: Cleaner is a Kubernetes controller that identifies unused or unhealthy resources, helping you…
Cleaner is a Kubernetes controller that identifies unused or unhealthy resources, helping you maintain a streamlined and efficient Kubernetes cluster. It provides flexible scheduling, label filteri...
🔵 عنوان مقاله
kvaps/kubectl-node-shell
🟢 خلاصه مقاله:
این ابزار یک افزونه سبک برای kubectl است که بدون نیاز به SSH، یک شِل روت روی نودهای Kubernetes باز میکند. افزونه توسط kvaps ارائه شده و با ساخت یک پاد موقتِ privileged روی نود هدف و استفاده از nsenter وارد فضای نامهای میزبان میشود؛ به این ترتیب شِلی در اختیار دارید که مانند ورود مستقیم به نود عمل میکند و پس از خروج، پاد بهطور خودکار پاک میشود.
این رویکرد برای عیبیابی سریع در محیطهای ابری یا شبکههای محدود بسیار مفید است: بررسی لاگها و دایرکتوریهای نود، وضعیت kubelet، قوانین شبکه و iptables، و دادههای زماناجرای کانتینرها مانند Docker، containerd یا CRI-O با ابزارهای آشنای Linux.
پیشنیازها و ملاحظات امنیتی را در نظر داشته باشید: معمولاً به دسترسی سطح cluster-admin برای ساخت پادهای privileged و ورود به namespaceهای میزبان نیاز است. این ابزار جایگزین سیاستهای دسترسی و مدیریت امن نودها نیست و برای نودهای Linux طراحی شده است (Windows پشتیبانی نمیشود). نصب از طریق kubectl krew یا روشهای موجود در مخزن انجام میشود و اجرای معمول به شکل kubectl node-shell <node-name> است.
#Kubernetes #kubectl #DevOps #SRE #Debugging #Security #Containers #Linux
🟣لینک مقاله:
https://ku.bz/ZXkDtpn5g
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
kvaps/kubectl-node-shell
🟢 خلاصه مقاله:
این ابزار یک افزونه سبک برای kubectl است که بدون نیاز به SSH، یک شِل روت روی نودهای Kubernetes باز میکند. افزونه توسط kvaps ارائه شده و با ساخت یک پاد موقتِ privileged روی نود هدف و استفاده از nsenter وارد فضای نامهای میزبان میشود؛ به این ترتیب شِلی در اختیار دارید که مانند ورود مستقیم به نود عمل میکند و پس از خروج، پاد بهطور خودکار پاک میشود.
این رویکرد برای عیبیابی سریع در محیطهای ابری یا شبکههای محدود بسیار مفید است: بررسی لاگها و دایرکتوریهای نود، وضعیت kubelet، قوانین شبکه و iptables، و دادههای زماناجرای کانتینرها مانند Docker، containerd یا CRI-O با ابزارهای آشنای Linux.
پیشنیازها و ملاحظات امنیتی را در نظر داشته باشید: معمولاً به دسترسی سطح cluster-admin برای ساخت پادهای privileged و ورود به namespaceهای میزبان نیاز است. این ابزار جایگزین سیاستهای دسترسی و مدیریت امن نودها نیست و برای نودهای Linux طراحی شده است (Windows پشتیبانی نمیشود). نصب از طریق kubectl krew یا روشهای موجود در مخزن انجام میشود و اجرای معمول به شکل kubectl node-shell <node-name> است.
#Kubernetes #kubectl #DevOps #SRE #Debugging #Security #Containers #Linux
🟣لینک مقاله:
https://ku.bz/ZXkDtpn5g
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - kvaps/kubectl-node-shell: Exec into node via kubectl
Exec into node via kubectl. Contribute to kvaps/kubectl-node-shell development by creating an account on GitHub.
🔵 عنوان مقاله
A Hands-on Guide to Kubernetes Observability with Whisker
🟢 خلاصه مقاله:
** این راهنمای عملی با تمرکز بر Kubernetes Observability و ابزار متنباز Whisker، در قالب یک لَب تعاملی نشان میدهد چگونه مشکلات مربوط به NetworkPolicy را سریع شناسایی و عیبیابی کنید. با بررسی رفتار اتصال بین سرویسها و نگاشت محدودیتها به قوانین NetworkPolicy، میآموزید مشکل از کجاست، چگونه فرضیهها را آزمایش و راهحل را اعتبارسنجی کنید، و پس از اصلاح، صحت عملکرد را تأیید نمایید. نتیجه این لَب یک روند تکرارشونده و کاربردی برای تشخیص علت ریشهای و کاهش زمان بازیابی است که برای تیمهای پلتفرم، SRE و توسعهدهندگان مفید است.
#Kubernetes #Observability #Whisker #NetworkPolicy #Troubleshooting #CloudNative #SRE #OpenSource
🟣لینک مقاله:
https://ku.bz/Yqn88cNMP
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
A Hands-on Guide to Kubernetes Observability with Whisker
🟢 خلاصه مقاله:
** این راهنمای عملی با تمرکز بر Kubernetes Observability و ابزار متنباز Whisker، در قالب یک لَب تعاملی نشان میدهد چگونه مشکلات مربوط به NetworkPolicy را سریع شناسایی و عیبیابی کنید. با بررسی رفتار اتصال بین سرویسها و نگاشت محدودیتها به قوانین NetworkPolicy، میآموزید مشکل از کجاست، چگونه فرضیهها را آزمایش و راهحل را اعتبارسنجی کنید، و پس از اصلاح، صحت عملکرد را تأیید نمایید. نتیجه این لَب یک روند تکرارشونده و کاربردی برای تشخیص علت ریشهای و کاهش زمان بازیابی است که برای تیمهای پلتفرم، SRE و توسعهدهندگان مفید است.
#Kubernetes #Observability #Whisker #NetworkPolicy #Troubleshooting #CloudNative #SRE #OpenSource
🟣لینک مقاله:
https://ku.bz/Yqn88cNMP
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
🔵 عنوان مقاله
Kwatcher – External JSON-watch Kubernetes Operator
🟢 خلاصه مقاله:
** Kwatcher یک Operator در Kubernetes است که پیکربندیهای خارجی با فرمت JSON را بهصورت امن (با استفاده از Secret) واکشی میکند، آنها را به ConfigMap تبدیل یا بهروزرسانی میکند و در صورت تغییر داده، با راهاندازی مجدد هدفمند Podها، تنظیمات جدید را به برنامهها میرساند. این کار خودکار، نیاز به بهروزرسانی دستی و اسکریپتهای موقت را حذف کرده، از رانش پیکربندی جلوگیری میکند و امنیت را با جداسازی کرِدِنشالها از کد و ایمیجها بهبود میدهد. Kwatcher برای محیطهای microservices و الگوهای GitOps مناسب است و انتشار تغییرات پیکربندی مانند feature flagها یا پارامترهای زمان اجرا را در مقیاس ساده و قابل اتکا میسازد.
#Kubernetes #Operator #JSON #ConfigMap #Secrets #DevOps #GitOps #Automation
🟣لینک مقاله:
https://ku.bz/mQsWFDqzN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kwatcher – External JSON-watch Kubernetes Operator
🟢 خلاصه مقاله:
** Kwatcher یک Operator در Kubernetes است که پیکربندیهای خارجی با فرمت JSON را بهصورت امن (با استفاده از Secret) واکشی میکند، آنها را به ConfigMap تبدیل یا بهروزرسانی میکند و در صورت تغییر داده، با راهاندازی مجدد هدفمند Podها، تنظیمات جدید را به برنامهها میرساند. این کار خودکار، نیاز به بهروزرسانی دستی و اسکریپتهای موقت را حذف کرده، از رانش پیکربندی جلوگیری میکند و امنیت را با جداسازی کرِدِنشالها از کد و ایمیجها بهبود میدهد. Kwatcher برای محیطهای microservices و الگوهای GitOps مناسب است و انتشار تغییرات پیکربندی مانند feature flagها یا پارامترهای زمان اجرا را در مقیاس ساده و قابل اتکا میسازد.
#Kubernetes #Operator #JSON #ConfigMap #Secrets #DevOps #GitOps #Automation
🟣لینک مقاله:
https://ku.bz/mQsWFDqzN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - Berg-it/Kwatcher
Contribute to Berg-it/Kwatcher development by creating an account on GitHub.
🔵 عنوان مقاله
kgateway
🟢 خلاصه مقاله:
** kgateway یک راهکار Kubernetes-native برای ingress و API gateway است که بر پایه Envoy و مطابق با Gateway API ساخته شده و مدیریت یکپارچه مسیردهی لبه و حاکمیت API را فراهم میکند. برای ترافیک north-south، مسیردهی مبتنی بر سیاست، Termination امن TLS و تعریف مسیرهای مبتنی بر host و path را بهصورت استاندارد Kubernetes ارائه میدهد.
در نقش API gateway، قابلیتهای کلیدی مدیریت API مانند احراز هویت/اجازهدهی و rate limiting را فراهم میکند تا انتشار امن و مقیاسپذیر سرویسها تضمین شود. افزون بر این، با افزودن قابلیتهای AI/LLM gateway، دسترسی به سرویسهای هوش مصنوعی را یکپارچه کرده و همان کنترلهای دسترسی و سهمیهبندی را برای بارهای کاری AI اعمال میکند.
kgateway همچنین مهاجرت هیبریدی اپلیکیشنها را تسهیل میکند؛ با پلزدن بین محیطهای قدیمی و سرویسهای Kubernetes، امکان مهاجرت تدریجی، تقسیم ترافیک و همزیستی روان در طول فرآیند نوسازی را فراهم میسازد.
#Kubernetes #APIgateway #IngressController #Envoy #GatewayAPI #AIGateway #LLM #HybridCloud
🟣لینک مقاله:
https://ku.bz/ljZg7vf64
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
kgateway
🟢 خلاصه مقاله:
** kgateway یک راهکار Kubernetes-native برای ingress و API gateway است که بر پایه Envoy و مطابق با Gateway API ساخته شده و مدیریت یکپارچه مسیردهی لبه و حاکمیت API را فراهم میکند. برای ترافیک north-south، مسیردهی مبتنی بر سیاست، Termination امن TLS و تعریف مسیرهای مبتنی بر host و path را بهصورت استاندارد Kubernetes ارائه میدهد.
در نقش API gateway، قابلیتهای کلیدی مدیریت API مانند احراز هویت/اجازهدهی و rate limiting را فراهم میکند تا انتشار امن و مقیاسپذیر سرویسها تضمین شود. افزون بر این، با افزودن قابلیتهای AI/LLM gateway، دسترسی به سرویسهای هوش مصنوعی را یکپارچه کرده و همان کنترلهای دسترسی و سهمیهبندی را برای بارهای کاری AI اعمال میکند.
kgateway همچنین مهاجرت هیبریدی اپلیکیشنها را تسهیل میکند؛ با پلزدن بین محیطهای قدیمی و سرویسهای Kubernetes، امکان مهاجرت تدریجی، تقسیم ترافیک و همزیستی روان در طول فرآیند نوسازی را فراهم میسازد.
#Kubernetes #APIgateway #IngressController #Envoy #GatewayAPI #AIGateway #LLM #HybridCloud
🟣لینک مقاله:
https://ku.bz/ljZg7vf64
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - kgateway-dev/kgateway: The Cloud-Native API Gateway and AI Gateway
The Cloud-Native API Gateway and AI Gateway. Contribute to kgateway-dev/kgateway development by creating an account on GitHub.
🔵 عنوان مقاله
Kubernetes RBAC authorizing HTTP proxy
🟢 خلاصه مقاله:
** این مقاله الگوی یک HTTP proxy را توضیح میدهد که برای مجازسازی درخواستها به RBAC در Kubernetes تکیه میکند. پراکسی هویت کاربر را با TokenReview یا OIDC تأیید میکند، سپس با ارسال SubjectAccessReview به API سرور میپرسد آیا کاربر برای عمل متناظر با مسیر و متد HTTP مجاز است یا نه. در صورت تأیید، درخواست به سرویس مقصد هدایت میشود و هدرهای هویتی امن تزریق میگردد؛ در غیر این صورت، پاسخ 403 برمیگردد. این راهکار میتواند بهصورت sidecar، بهعنوان یک Deployment مستقل، یا از طریق external auth در Ingressهایی مانند NGINX/Envoy پیادهسازی شود. برای کارایی بهتر، کش نتایج SAR با TTL کوتاه، همگامسازی با تغییرات RBAC، و fail-closed توصیه میشود. از نظر امنیتی باید مرز اعتماد روشن باشد: هدرهای هویتی کلاینت حذف/بازنویسی شوند، ارتباطات TLS/mTLS باشد، و دسترسی ServiceAccount پراکسی حداقلی بماند. این الگو بهویژه برای داشبوردها و سرویسهای چندمستاجری مفید است و از سیاستهای آشنای RBAC برای کنترل یکنواخت و قابل ممیزی استفاده میکند.
#Kubernetes #RBAC #HTTPProxy #Ingress #Envoy #NGINX #CloudSecurity #ZeroTrust
🟣لینک مقاله:
https://ku.bz/pQqpkgLM7
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes RBAC authorizing HTTP proxy
🟢 خلاصه مقاله:
** این مقاله الگوی یک HTTP proxy را توضیح میدهد که برای مجازسازی درخواستها به RBAC در Kubernetes تکیه میکند. پراکسی هویت کاربر را با TokenReview یا OIDC تأیید میکند، سپس با ارسال SubjectAccessReview به API سرور میپرسد آیا کاربر برای عمل متناظر با مسیر و متد HTTP مجاز است یا نه. در صورت تأیید، درخواست به سرویس مقصد هدایت میشود و هدرهای هویتی امن تزریق میگردد؛ در غیر این صورت، پاسخ 403 برمیگردد. این راهکار میتواند بهصورت sidecar، بهعنوان یک Deployment مستقل، یا از طریق external auth در Ingressهایی مانند NGINX/Envoy پیادهسازی شود. برای کارایی بهتر، کش نتایج SAR با TTL کوتاه، همگامسازی با تغییرات RBAC، و fail-closed توصیه میشود. از نظر امنیتی باید مرز اعتماد روشن باشد: هدرهای هویتی کلاینت حذف/بازنویسی شوند، ارتباطات TLS/mTLS باشد، و دسترسی ServiceAccount پراکسی حداقلی بماند. این الگو بهویژه برای داشبوردها و سرویسهای چندمستاجری مفید است و از سیاستهای آشنای RBAC برای کنترل یکنواخت و قابل ممیزی استفاده میکند.
#Kubernetes #RBAC #HTTPProxy #Ingress #Envoy #NGINX #CloudSecurity #ZeroTrust
🟣لینک مقاله:
https://ku.bz/pQqpkgLM7
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - brancz/kube-rbac-proxy: Kubernetes RBAC authorizing HTTP proxy for a single upstream.
Kubernetes RBAC authorizing HTTP proxy for a single upstream. - brancz/kube-rbac-proxy
❤1
🔵 عنوان مقاله
Kubernetes Logs Unavailable Behind a Proxy: Diagnosing API Server Communication Issues
🟢 خلاصه مقاله:
اگر محیط شما پشت یک HTTP proxy قرار دارد، ممکن است برخی دستورات kubectl مثل kubectl logs، kubectl exec و port-forward شکست بخورند، در حالیکه kubectl get یا describe کار میکنند. دلیل رایج این مشکل تنظیمنشدن NO_PROXY برای آدرسها و دامنههای داخلی کلاستر است؛ در نتیجه، ترافیک داخلی بهاشتباه از proxy عبور میکند و اتصالهای upgrade/stream (مثل SPDY/WebSocket) میشکنند. نشانهها شامل خطاهایی مانند EOF یا context deadline exceeded است. برای رفع مشکل، NO_PROXY/no_proxy را با مواردی مانند localhost، 127.0.0.1، نام و IP مربوط به API server، دامنههای .cluster.local و .svc، و بازههای IP داخلی (مثلاً 10.0.0.0/8) تنظیم کنید. به حروف بزرگ/کوچک متغیرها دقت کنید و در سیستمعاملهای مختلف مطابق دستورالعمل همان محیط آنها را ست کنید. پس از بهروزرسانی NO_PROXY، عملیاتهای stream مثل kubectl logs و exec معمولاً بدون مشکل انجام میشوند.
#Kubernetes #kubectl #Proxy #Networking #NO_PROXY #Troubleshooting #DevOps #HTTP
🟣لینک مقاله:
https://ku.bz/jCJf115lB
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes Logs Unavailable Behind a Proxy: Diagnosing API Server Communication Issues
🟢 خلاصه مقاله:
اگر محیط شما پشت یک HTTP proxy قرار دارد، ممکن است برخی دستورات kubectl مثل kubectl logs، kubectl exec و port-forward شکست بخورند، در حالیکه kubectl get یا describe کار میکنند. دلیل رایج این مشکل تنظیمنشدن NO_PROXY برای آدرسها و دامنههای داخلی کلاستر است؛ در نتیجه، ترافیک داخلی بهاشتباه از proxy عبور میکند و اتصالهای upgrade/stream (مثل SPDY/WebSocket) میشکنند. نشانهها شامل خطاهایی مانند EOF یا context deadline exceeded است. برای رفع مشکل، NO_PROXY/no_proxy را با مواردی مانند localhost، 127.0.0.1، نام و IP مربوط به API server، دامنههای .cluster.local و .svc، و بازههای IP داخلی (مثلاً 10.0.0.0/8) تنظیم کنید. به حروف بزرگ/کوچک متغیرها دقت کنید و در سیستمعاملهای مختلف مطابق دستورالعمل همان محیط آنها را ست کنید. پس از بهروزرسانی NO_PROXY، عملیاتهای stream مثل kubectl logs و exec معمولاً بدون مشکل انجام میشوند.
#Kubernetes #kubectl #Proxy #Networking #NO_PROXY #Troubleshooting #DevOps #HTTP
🟣لینک مقاله:
https://ku.bz/jCJf115lB
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Kubernetes logs unavailable behind a proxy: Diagnosing API server communication issues
Why kubectl logs times out in corporate networks: The missing NO_PROXY config that breaks K8s API-to-kubelet communication.
🔵 عنوان مقاله
MariaDB operator
🟢 خلاصه مقاله:
مدیریت MariaDB با رویکرد declarative در Kubernetes ممکن است؛ MariaDB operator با استفاده از CRDs بهجای فرمانهای دستی، استقرار و پیکربندی را از طریق مانيفستهای YAML و جریانهای GitOps خودکار میکند. این ابزار وظایفی مانند ایجاد و بهروزرسانی نمونهها یا کلاسترها، مدیریت کاربر و تنظیمات، اتصال Secrets و Storage، مقیاسپذیری، بهروزرسانیهای مرحلهای، پشتیبانگیری/بازگردانی و حتی failover را در چرخه عمر دیتابیس هماهنگ میکند. نتیجه، کاهش خطای انسانی و سربار عملیاتی، یکپارچگی با اکوسیستم Cloud-Native و تداوم وضعیت پایدار در محیطهای مختلف است. جزئیات CRDها و نمونهها در github.com/mariadb-operator در دسترس است.
#MariaDB #Kubernetes #Operator #CRD #GitOps #CloudNative #DatabaseAutomation #DevOps
🟣لینک مقاله:
https://ku.bz/s6l43vX8s
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
MariaDB operator
🟢 خلاصه مقاله:
مدیریت MariaDB با رویکرد declarative در Kubernetes ممکن است؛ MariaDB operator با استفاده از CRDs بهجای فرمانهای دستی، استقرار و پیکربندی را از طریق مانيفستهای YAML و جریانهای GitOps خودکار میکند. این ابزار وظایفی مانند ایجاد و بهروزرسانی نمونهها یا کلاسترها، مدیریت کاربر و تنظیمات، اتصال Secrets و Storage، مقیاسپذیری، بهروزرسانیهای مرحلهای، پشتیبانگیری/بازگردانی و حتی failover را در چرخه عمر دیتابیس هماهنگ میکند. نتیجه، کاهش خطای انسانی و سربار عملیاتی، یکپارچگی با اکوسیستم Cloud-Native و تداوم وضعیت پایدار در محیطهای مختلف است. جزئیات CRDها و نمونهها در github.com/mariadb-operator در دسترس است.
#MariaDB #Kubernetes #Operator #CRD #GitOps #CloudNative #DatabaseAutomation #DevOps
🟣لینک مقاله:
https://ku.bz/s6l43vX8s
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
mariadb-operator
🦭 Run and operate MariaDB in a cloud native way. mariadb-operator has 10 repositories available. Follow their code on GitHub.
🔵 عنوان مقاله
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda
🟢 خلاصه مقاله:
این آموزش نشان میدهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیامها بهصورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرفکننده GPU را نسبت به backlog تنظیم میکند (minReplicaCount=0). با فعالبودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد میشوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.
#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML
🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda
🟢 خلاصه مقاله:
این آموزش نشان میدهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیامها بهصورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرفکننده GPU را نسبت به backlog تنظیم میکند (minReplicaCount=0). با فعالبودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد میشوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.
#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML
🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon