🔵 عنوان مقاله
More devops than I bargained for
🟢 خلاصه مقاله:
یک مهاجرت «ساده» از x86 به ARM64 تبدیل شد به یک بحران تمامعیار DevOps. بهمحض ورود نودهای ARM64، مشکلها از چند جهت فوران کرد: نبودن base imageهای arm64، وابستگی سرویسها به باینریها و پکیجهای بومی، و CrashLoop بهخاطر “exec format error”. با ساخت multi-arch image و manifest list و اصلاح CI بخشی حل شد، اما Helm chartها هنوز فرضهای amd64 داشتند و باعث زمانبندی نادرست، ImagePullBackOff و ناسازگاری در sidecarها شدند. بدتر از همه، شبکه بود: در کلاستر dual-stack، IPv6 زیر بار میبرید؛ MTU ناهماهنگ، تنظیمات CNI، iptables/nft و محدودیتهای conntrack دستبهدست هم دادند و ما را ساعت ۴ صبح پای tcpdump و تنظیم sysctl نشاندند. جمعبندی: تغییر معماری، بهروزرسانی OS، دستکاری CNI و فعالسازی dual-stack را یکجا انجام ندهید؛ برای هرکدام پنجره تست و rollback جدا بگذارید، observability و ابزارهای eBPF اضافه کنید، Ingress و sidecarها را از نظر multi-arch راستیآزمایی کنید و پوشش تست multi-arch را در CI اجباری کنید.
#DevOps #Kubernetes #ARM64 #x86 #IPv6 #CNI #Containers #CloudNative
🟣لینک مقاله:
https://ku.bz/svxMcSqWJ
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
More devops than I bargained for
🟢 خلاصه مقاله:
یک مهاجرت «ساده» از x86 به ARM64 تبدیل شد به یک بحران تمامعیار DevOps. بهمحض ورود نودهای ARM64، مشکلها از چند جهت فوران کرد: نبودن base imageهای arm64، وابستگی سرویسها به باینریها و پکیجهای بومی، و CrashLoop بهخاطر “exec format error”. با ساخت multi-arch image و manifest list و اصلاح CI بخشی حل شد، اما Helm chartها هنوز فرضهای amd64 داشتند و باعث زمانبندی نادرست، ImagePullBackOff و ناسازگاری در sidecarها شدند. بدتر از همه، شبکه بود: در کلاستر dual-stack، IPv6 زیر بار میبرید؛ MTU ناهماهنگ، تنظیمات CNI، iptables/nft و محدودیتهای conntrack دستبهدست هم دادند و ما را ساعت ۴ صبح پای tcpdump و تنظیم sysctl نشاندند. جمعبندی: تغییر معماری، بهروزرسانی OS، دستکاری CNI و فعالسازی dual-stack را یکجا انجام ندهید؛ برای هرکدام پنجره تست و rollback جدا بگذارید، observability و ابزارهای eBPF اضافه کنید، Ingress و sidecarها را از نظر multi-arch راستیآزمایی کنید و پوشش تست multi-arch را در CI اجباری کنید.
#DevOps #Kubernetes #ARM64 #x86 #IPv6 #CNI #Containers #CloudNative
🟣لینک مقاله:
https://ku.bz/svxMcSqWJ
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
fasterthanli.me
More devops than I bargained for
Background
I recently had a bit of impromptu disaster recovery, and it gave me a hunger for more! More downtime! More kubernetes manifest! More DNS! Ahhhh!
The plan was really simple. I love dedica...
I recently had a bit of impromptu disaster recovery, and it gave me a hunger for more! More downtime! More kubernetes manifest! More DNS! Ahhhh!
The plan was really simple. I love dedica...
Forwarded from Bardia & Erfan
♨️ راز خواب 12 ساعته پاول دورف؛ جایی که ایدههای تلگرام شکل میگیرن!
▪️پاول دورف، مدیرعامل تلگرام، گفته روزی بین ۱۱ تا ۱۲ ساعت میخوابه ، و جالبه که اینو نه تنبلی، بلکه منبع اصلی ایدههای درخشانش میدونه!
▪️دورف صبحها حتی سراغ گوشی هم نمیره، چون معتقده موبایلها جلوی تفکر مستقل رو میگیرن.
خودش میگه:
♨️ راز خواب 12 ساعته پاول دورف؛ جایی که ایدههای تلگرام شکل میگیرن!
▪️پاول دورف، مدیرعامل تلگرام، گفته روزی بین ۱۱ تا ۱۲ ساعت میخوابه ، و جالبه که اینو نه تنبلی، بلکه منبع اصلی ایدههای درخشانش میدونه!
▪️دورف صبحها حتی سراغ گوشی هم نمیره، چون معتقده موبایلها جلوی تفکر مستقل رو میگیرن.
خودش میگه:
«میخوام خودم تصمیم بگیرم چی تو زندگیم مهمه، نه اینکه شرکتها یا الگوریتمها برام تعیین کنن.»
🔵 عنوان مقاله
k8sgpt: Kubernetes analyzer
🟢 خلاصه مقاله:
k8sgpt یک تحلیلگر هوشمند برای خوشههای Kubernetes است که با بررسی وضعیت منابع، رویدادها و لاگها، الگوهای خرابی رایج را شناسایی میکند و ریشه مشکل را با زبان ساده همراه با راهکارهای عملی توضیح میدهد. این ابزار میتواند بهصورت CLI کنار جریانهای کاری مبتنی بر kubectl یا داخل خوشه اجرا شود، در CI/CD و فرایندهای DevOps/SRE به تشخیص سریع و کاهش زمان رفع اشکال کمک کند، و خلاصههای قابلاشتراک ارائه دهد. امکاناتی مانند حذف اطلاعات حساس و انعطافپذیری در استقرار نیز برای استفاده امن و سازگار با محیطهای مختلف در نظر گرفته شده است.
#Kubernetes #k8sgpt #DevOps #SRE #CloudNative #Troubleshooting #Observability #AIOps
🟣لینک مقاله:
https://ku.bz/sV6Dnd99T
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
k8sgpt: Kubernetes analyzer
🟢 خلاصه مقاله:
k8sgpt یک تحلیلگر هوشمند برای خوشههای Kubernetes است که با بررسی وضعیت منابع، رویدادها و لاگها، الگوهای خرابی رایج را شناسایی میکند و ریشه مشکل را با زبان ساده همراه با راهکارهای عملی توضیح میدهد. این ابزار میتواند بهصورت CLI کنار جریانهای کاری مبتنی بر kubectl یا داخل خوشه اجرا شود، در CI/CD و فرایندهای DevOps/SRE به تشخیص سریع و کاهش زمان رفع اشکال کمک کند، و خلاصههای قابلاشتراک ارائه دهد. امکاناتی مانند حذف اطلاعات حساس و انعطافپذیری در استقرار نیز برای استفاده امن و سازگار با محیطهای مختلف در نظر گرفته شده است.
#Kubernetes #k8sgpt #DevOps #SRE #CloudNative #Troubleshooting #Observability #AIOps
🟣لینک مقاله:
https://ku.bz/sV6Dnd99T
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - k8sgpt-ai/k8sgpt: Giving Kubernetes Superpowers to everyone
Giving Kubernetes Superpowers to everyone. Contribute to k8sgpt-ai/k8sgpt development by creating an account on GitHub.
❤1
🔵 عنوان مقاله
Smesh: Lightweight Kubernetes-Integrated Sidecar Mesh Without Proxies
🟢 خلاصه مقاله:
smesh یک نمونه اولیه از یک service mesh برای Kubernetes است که با تکیه بر eBPF، ترافیک pod را در سطح کرنل رهگیری و به یک sidecar proxy هدایت میکند. ایده اصلی این است که بهجای اتکا به سازوکارهای سنتیِ capture مانند iptables، رهگیری و تغییر مسیر در خود کرنل انجام شود تا هدایت ترافیک به sidecar سادهتر و کمهزینهتر شود. رویکرد smesh «سبک» و یکپارچه با Kubernetes است و میکوشد سربار و پیچیدگی عملیاتی را کاهش دهد. هرچند شعار «بدون پروکسی» مطرح است، تمایز اصلی در smesh استفاده از eBPF برای interception است و همچنان sidecar مقصد نهایی جریانهای هدایتشده باقی میماند. این پروژه فعلاً در سطح آزمایشی است و برای ارزیابی امکانپذیری و مزایای بالقوهی رهگیری مبتنی بر eBPF عرضه شده است.
#Kubernetes #eBPF #ServiceMesh #Sidecar #CloudNative #Networking #DevOps
🟣لینک مقاله:
https://ku.bz/Wx7wMJLqF
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Smesh: Lightweight Kubernetes-Integrated Sidecar Mesh Without Proxies
🟢 خلاصه مقاله:
smesh یک نمونه اولیه از یک service mesh برای Kubernetes است که با تکیه بر eBPF، ترافیک pod را در سطح کرنل رهگیری و به یک sidecar proxy هدایت میکند. ایده اصلی این است که بهجای اتکا به سازوکارهای سنتیِ capture مانند iptables، رهگیری و تغییر مسیر در خود کرنل انجام شود تا هدایت ترافیک به sidecar سادهتر و کمهزینهتر شود. رویکرد smesh «سبک» و یکپارچه با Kubernetes است و میکوشد سربار و پیچیدگی عملیاتی را کاهش دهد. هرچند شعار «بدون پروکسی» مطرح است، تمایز اصلی در smesh استفاده از eBPF برای interception است و همچنان sidecar مقصد نهایی جریانهای هدایتشده باقی میماند. این پروژه فعلاً در سطح آزمایشی است و برای ارزیابی امکانپذیری و مزایای بالقوهی رهگیری مبتنی بر eBPF عرضه شده است.
#Kubernetes #eBPF #ServiceMesh #Sidecar #CloudNative #Networking #DevOps
🟣لینک مقاله:
https://ku.bz/Wx7wMJLqF
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - thebsdbox/smesh
Contribute to thebsdbox/smesh development by creating an account on GitHub.
❤1
🔵 عنوان مقاله
OCI Registry As Storage (ORAS)
🟢 خلاصه مقاله:
OCI Registry As Storage (ORAS) روشی و ابزاری است که با تکیه بر استانداردهای OCI، رجیستریهای سازگار را به یک مخزن عمومی برای هر نوع محتوا تبدیل میکند؛ نه فقط ایمیجهای کانتینری. با ORAS میتوان انواع آرتیفکتها مثل SBOM، Helm chart، گزارشهای امنیتی، مدلهای ML و دادهها را با همان پروتکل توزیع، احراز هویت و کنترل دسترسی رایج در رجیستریها ذخیره و بازیابی کرد. این رویکرد با استفاده از manifestهای OCI و API مربوط به referrers امکان اتصال آرتیفکتها به یک ایمیج (یا آرتیفکت دیگر) را فراهم میکند؛ مثلاً پیوستکردن SBOM، امضاهای cosign یا Notary v2 و گزارشهای آسیبپذیری به یک digest مشخص و ساخت زنجیرهای قابلراستیآزمایی برای تامین امنیت نرمافزار. ORAS بدون پیکربندی خاص در رجیستریهایی مثل Docker Hub، GitHub Container Registry و Azure Container Registry کار میکند و مزایایی مانند یکپارچگی با CI/CD، کشف سریع referrerها، ردگیری و ممیزی آسان، و ترفیع همزمان ایمیجها و آرتیفکتهای مرتبط در محیطهای مختلف را فراهم میسازد.
#ORAS #OCI #ContainerRegistry #DevOps #SupplyChainSecurity #SBOM #CloudNative #CI_CD
🟣لینک مقاله:
https://ku.bz/xcs29-gLc
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
OCI Registry As Storage (ORAS)
🟢 خلاصه مقاله:
OCI Registry As Storage (ORAS) روشی و ابزاری است که با تکیه بر استانداردهای OCI، رجیستریهای سازگار را به یک مخزن عمومی برای هر نوع محتوا تبدیل میکند؛ نه فقط ایمیجهای کانتینری. با ORAS میتوان انواع آرتیفکتها مثل SBOM، Helm chart، گزارشهای امنیتی، مدلهای ML و دادهها را با همان پروتکل توزیع، احراز هویت و کنترل دسترسی رایج در رجیستریها ذخیره و بازیابی کرد. این رویکرد با استفاده از manifestهای OCI و API مربوط به referrers امکان اتصال آرتیفکتها به یک ایمیج (یا آرتیفکت دیگر) را فراهم میکند؛ مثلاً پیوستکردن SBOM، امضاهای cosign یا Notary v2 و گزارشهای آسیبپذیری به یک digest مشخص و ساخت زنجیرهای قابلراستیآزمایی برای تامین امنیت نرمافزار. ORAS بدون پیکربندی خاص در رجیستریهایی مثل Docker Hub، GitHub Container Registry و Azure Container Registry کار میکند و مزایایی مانند یکپارچگی با CI/CD، کشف سریع referrerها، ردگیری و ممیزی آسان، و ترفیع همزمان ایمیجها و آرتیفکتهای مرتبط در محیطهای مختلف را فراهم میسازد.
#ORAS #OCI #ContainerRegistry #DevOps #SupplyChainSecurity #SBOM #CloudNative #CI_CD
🟣لینک مقاله:
https://ku.bz/xcs29-gLc
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
oras.land
OCI Registry As Storage
Distribute Artifacts Across OCI Registries With Ease
🔵 عنوان مقاله
Test Orchestration: You're Doing It, You Just Don’t Know It
🟢 خلاصه مقاله:
این مقاله میگوید بیشتر تیمها همین حالا هم نوعی Test Orchestration انجام میدهند، اما بهصورت وصلهپینه در اسکریپتهای CI/CD. مشکل از آنجاست که منطق تست به پیکربندی pipeline گره میخورد و باعث شکنندگی، تکرار، دشواری اجرا در محیطهای مختلف و تجربه بد توسعهدهنده میشود. راهحل، جدا کردن منطق تست از CI/CD و انتقال آن به یک لایه orchestration هدفمند است تا pipeline فقط یک فراخوان باریک باشد. نتیجه این کار: مقیاسپذیری، نگهداری سادهتر، اجرای یکسان در حالت محلی و روی runnerهای مختلف، مشاهدهپذیری پایدار و Continuous Testing قابل اتکا. برای شروع: ممیزی اسکریپتهای موجود، استخراج مراحل مشترک به ماژولهای قابلاستفادهمجدد، تعریف یک CLI/API روشن، سادهسازی تدریجی pipeline و افزودن سنجهها برای پایش پایداری و زمان اجرا.
#TestOrchestration #CICD #ContinuousTesting #DevOps #TestAutomation #QualityEngineering #DeveloperExperience #ScalableTesting
🟣لینک مقاله:
https://ku.bz/XRJwHC7Z6
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Test Orchestration: You're Doing It, You Just Don’t Know It
🟢 خلاصه مقاله:
این مقاله میگوید بیشتر تیمها همین حالا هم نوعی Test Orchestration انجام میدهند، اما بهصورت وصلهپینه در اسکریپتهای CI/CD. مشکل از آنجاست که منطق تست به پیکربندی pipeline گره میخورد و باعث شکنندگی، تکرار، دشواری اجرا در محیطهای مختلف و تجربه بد توسعهدهنده میشود. راهحل، جدا کردن منطق تست از CI/CD و انتقال آن به یک لایه orchestration هدفمند است تا pipeline فقط یک فراخوان باریک باشد. نتیجه این کار: مقیاسپذیری، نگهداری سادهتر، اجرای یکسان در حالت محلی و روی runnerهای مختلف، مشاهدهپذیری پایدار و Continuous Testing قابل اتکا. برای شروع: ممیزی اسکریپتهای موجود، استخراج مراحل مشترک به ماژولهای قابلاستفادهمجدد، تعریف یک CLI/API روشن، سادهسازی تدریجی pipeline و افزودن سنجهها برای پایش پایداری و زمان اجرا.
#TestOrchestration #CICD #ContinuousTesting #DevOps #TestAutomation #QualityEngineering #DeveloperExperience #ScalableTesting
🟣لینک مقاله:
https://ku.bz/XRJwHC7Z6
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
testkube.io
Testkube MCP Server + GitHub Copilot Guide
Transform your testing workflow with Testkube MCP Server and GitHub Copilot. Execute tests, analyze failures, and generate fixes using natural language. Step-by-step setup guide included.
🔵 عنوان مقاله
Zarf: airgapped installation
🟢 خلاصه مقاله:
Zarf ابزاری برای نصب امن و قابل اتکا در محیطهای بدون اتصال (air-gapped) است که با ساخت یک بسته قابلحمل شامل همه وابستگیها—از جمله تصاویر کانتینری، نمودارهای Helm، مانیفستهای Kubernetes، باینریها و پیکربندی—استقرار را بدون نیاز به اینترنت ممکن میکند. این بستهها نسخهقفل، دارای چکسام و قابل امضا هستند؛ روی سیستم متصل ساخته میشوند، با رسانه قابلحمل منتقل میگردند و در مقصد با چند فرمان نصب میشوند. Zarf میتواند پیشنیازهایی مانند رجیستری محلی و سرویس Git را راهاندازی کند و ارجاع تصاویر را به رجیستری داخلی بازنویسی کند. برای انطباق و شفافیت زنجیره تامین، امکان SBOM، امضا و رهگیری فراهم است و ادغام با CI به انتشارهای تکرارپذیر کمک میکند. این رویکرد برای شبکههای دولتی/دفاعی، صنعتی و سلامت مناسب است و نگهداری بارهای کاری Kubernetes را بدون تضعیف مرزهای امنیتی ساده میسازد.
#Zarf #AirGapped #OfflineDeployment #Kubernetes #DevSecOps #SupplyChainSecurity #Helm #Containers
🟣لینک مقاله:
https://ku.bz/DQTLs_qQ_
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Zarf: airgapped installation
🟢 خلاصه مقاله:
Zarf ابزاری برای نصب امن و قابل اتکا در محیطهای بدون اتصال (air-gapped) است که با ساخت یک بسته قابلحمل شامل همه وابستگیها—از جمله تصاویر کانتینری، نمودارهای Helm، مانیفستهای Kubernetes، باینریها و پیکربندی—استقرار را بدون نیاز به اینترنت ممکن میکند. این بستهها نسخهقفل، دارای چکسام و قابل امضا هستند؛ روی سیستم متصل ساخته میشوند، با رسانه قابلحمل منتقل میگردند و در مقصد با چند فرمان نصب میشوند. Zarf میتواند پیشنیازهایی مانند رجیستری محلی و سرویس Git را راهاندازی کند و ارجاع تصاویر را به رجیستری داخلی بازنویسی کند. برای انطباق و شفافیت زنجیره تامین، امکان SBOM، امضا و رهگیری فراهم است و ادغام با CI به انتشارهای تکرارپذیر کمک میکند. این رویکرد برای شبکههای دولتی/دفاعی، صنعتی و سلامت مناسب است و نگهداری بارهای کاری Kubernetes را بدون تضعیف مرزهای امنیتی ساده میسازد.
#Zarf #AirGapped #OfflineDeployment #Kubernetes #DevSecOps #SupplyChainSecurity #Helm #Containers
🟣لینک مقاله:
https://ku.bz/DQTLs_qQ_
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - zarf-dev/zarf: The Airgap Native Packager Manager for Kubernetes
The Airgap Native Packager Manager for Kubernetes. Contribute to zarf-dev/zarf development by creating an account on GitHub.
🔵 عنوان مقاله
Kubernetes v1.33: Streaming List responses
🟢 خلاصه مقاله:
Kubernetes v1.33 قابلیت streaming برای پاسخهای List را معرفی میکند تا مصرف حافظه API server در درخواستهای بزرگ کاهش یابد. سرور بهجای ساختن کل پاسخ در حافظه، هر آیتم را جداگانه پردازش و ارسال میکند و بلافاصله حافظه را آزاد میسازد؛ در عین حال ساختار پاسخ، ترتیب اقلام و semantics مربوط به resourceVersion برای کلاینتها تغییر نمیکند. نتیجه این رویکرد، کاهش پیک حافظه، بهبود تاخیرهای انتهایی و پایداری بهتر زیر بار است و با الگوهای موجود مانند pagination (limit/continue) و watch کاملاً سازگار میماند، بدون نیاز به تغییر در API یا کلاینتها.
#Kubernetes #APIServer #Streaming #ListAPI #Performance #Scalability #MemoryOptimization #CloudNative
🟣لینک مقاله:
https://ku.bz/1CGhwp7Ym
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes v1.33: Streaming List responses
🟢 خلاصه مقاله:
Kubernetes v1.33 قابلیت streaming برای پاسخهای List را معرفی میکند تا مصرف حافظه API server در درخواستهای بزرگ کاهش یابد. سرور بهجای ساختن کل پاسخ در حافظه، هر آیتم را جداگانه پردازش و ارسال میکند و بلافاصله حافظه را آزاد میسازد؛ در عین حال ساختار پاسخ، ترتیب اقلام و semantics مربوط به resourceVersion برای کلاینتها تغییر نمیکند. نتیجه این رویکرد، کاهش پیک حافظه، بهبود تاخیرهای انتهایی و پایداری بهتر زیر بار است و با الگوهای موجود مانند pagination (limit/continue) و watch کاملاً سازگار میماند، بدون نیاز به تغییر در API یا کلاینتها.
#Kubernetes #APIServer #Streaming #ListAPI #Performance #Scalability #MemoryOptimization #CloudNative
🟣لینک مقاله:
https://ku.bz/1CGhwp7Ym
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes
Kubernetes v1.33: Streaming List responses
Managing Kubernetes cluster stability becomes increasingly critical as your infrastructure grows. One of the most challenging aspects of operating large-scale clusters has been handling List requests that fetch substantial datasets - a common operation that…
🔵 عنوان مقاله
Gateway API v1.3.0: Advancements in Request Mirroring, CORS, Gateway Merging, and Retry Budgets
🟢 خلاصه مقاله:
در نسخه v1.3.0 از Gateway API مجموعهای از قابلیتهای مهم معرفی شده که مدیریت ترافیک و امنیت در Kubernetes را استانداردتر و عملیاتیتر میکند. این موارد شامل percentage-based request mirroring برای سایهزدن بخشی از ترافیک به مقصد جایگزین، CORS filtering برای اعمال سیاستهای cross-origin در لایه دروازه، gateway merging برای ترکیب ایمن پیکربندی تیمهای مختلف، و retry budgets برای محدودسازی رفتار retry و جلوگیری از بار اضافی روی سرویسهاست. مقاله همچنین شفاف میکند کدام قابلیتها در سطح GA قرار دارند و کدام هنوز experimental هستند. نتیجه، کنترل دقیقتر، پذیرش امنتر و یکپارچگی بیشتر سیاستهای ترافیک در خوشههای Kubernetes است.
#Kubernetes #GatewayAPI #CORS #TrafficManagement #RetryBudgets #CloudNative #APIGateway #DevOps
🟣لینک مقاله:
https://ku.bz/JgPp6Zm-P
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Gateway API v1.3.0: Advancements in Request Mirroring, CORS, Gateway Merging, and Retry Budgets
🟢 خلاصه مقاله:
در نسخه v1.3.0 از Gateway API مجموعهای از قابلیتهای مهم معرفی شده که مدیریت ترافیک و امنیت در Kubernetes را استانداردتر و عملیاتیتر میکند. این موارد شامل percentage-based request mirroring برای سایهزدن بخشی از ترافیک به مقصد جایگزین، CORS filtering برای اعمال سیاستهای cross-origin در لایه دروازه، gateway merging برای ترکیب ایمن پیکربندی تیمهای مختلف، و retry budgets برای محدودسازی رفتار retry و جلوگیری از بار اضافی روی سرویسهاست. مقاله همچنین شفاف میکند کدام قابلیتها در سطح GA قرار دارند و کدام هنوز experimental هستند. نتیجه، کنترل دقیقتر، پذیرش امنتر و یکپارچگی بیشتر سیاستهای ترافیک در خوشههای Kubernetes است.
#Kubernetes #GatewayAPI #CORS #TrafficManagement #RetryBudgets #CloudNative #APIGateway #DevOps
🟣لینک مقاله:
https://ku.bz/JgPp6Zm-P
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Kubernetes
Gateway API v1.3.0: Advancements in Request Mirroring, CORS, Gateway Merging, and Retry Budgets
Join us in the Kubernetes SIG Network community in celebrating the general availability of Gateway API v1.3.0! We are also pleased to announce that there are already a number of conformant implementations to try, made possible by postponing this blog announcement.…
🔵 عنوان مقاله
kubectl-ai
🟢 خلاصه مقاله:
kubectl-ai یک دستیار مبتنی بر هوش مصنوعی برای kubectl است که مدیریت خوشههای Kubernetes را از طریق خط فرمان آسانتر میکند. شما هدف خود را به زبان طبیعی میگویید و این ابزار دستورات دقیق kubectl را پیشنهاد میدهد و قبل از اجرا توضیح میدهد چه کاری انجام خواهد شد. همچنین میتواند وضعیت خوشه را خلاصه کند، خطاها را تفسیر کند، اقدامات بعدی را پیشنهاد دهد و در تهیه یا اصلاح فایلهای YAML کمک کند. تمرکز آن بر حفظ کنترل در دست کاربر، تسریع کارهای تکراری و کاهش جستوجوی مداوم دستورها و پارامترهاست؛ هم برای افراد تازهکار منحنی یادگیری را کوتاهتر میکند و هم برای متخصصها بهرهوری را بالا میبرد.
#Kubernetes #kubectl #kubectlAI #DevOps #CloudNative #AI #CLI #Automation
🟣لینک مقاله:
https://ku.bz/c7DkSr1qv
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
kubectl-ai
🟢 خلاصه مقاله:
kubectl-ai یک دستیار مبتنی بر هوش مصنوعی برای kubectl است که مدیریت خوشههای Kubernetes را از طریق خط فرمان آسانتر میکند. شما هدف خود را به زبان طبیعی میگویید و این ابزار دستورات دقیق kubectl را پیشنهاد میدهد و قبل از اجرا توضیح میدهد چه کاری انجام خواهد شد. همچنین میتواند وضعیت خوشه را خلاصه کند، خطاها را تفسیر کند، اقدامات بعدی را پیشنهاد دهد و در تهیه یا اصلاح فایلهای YAML کمک کند. تمرکز آن بر حفظ کنترل در دست کاربر، تسریع کارهای تکراری و کاهش جستوجوی مداوم دستورها و پارامترهاست؛ هم برای افراد تازهکار منحنی یادگیری را کوتاهتر میکند و هم برای متخصصها بهرهوری را بالا میبرد.
#Kubernetes #kubectl #kubectlAI #DevOps #CloudNative #AI #CLI #Automation
🟣لینک مقاله:
https://ku.bz/c7DkSr1qv
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - GoogleCloudPlatform/kubectl-ai: AI powered Kubernetes Assistant
AI powered Kubernetes Assistant. Contribute to GoogleCloudPlatform/kubectl-ai development by creating an account on GitHub.
🔵 عنوان مقاله
mcp-server-kubernetes – Kubernetes Management via MCP
🟢 خلاصه مقاله:
** mcp-server-kubernetes یک لایه کامل مدیریت Kubernetes را از طریق Model Context Protocol (MCP) ارائه میکند تا ابزارهایی مانند Claude Desktop و mcp-chat بتوانند دستورهای kubectl و Helm را بهصورت امن اجرا کنند. این راهکار پلی میان دستیارهای مبتنی بر مدل و عملیات واقعی خوشه است و با مسیردهی درخواستها از طریق MCP، امکان اعمال کنترل، اعتبارسنجی و تعیین دامنه دسترسی پیش از اجرای فرمانها را فراهم میکند. نتیجه، اجرای وظایف رایج kubectl و Helm با یک رابط یکپارچه و سازگار با چند ابزار، بدون نیاز به دسترسی مستقیم به شل یا اعتبارنامههای بلندمدت است. برای تیمهای پلتفرم و DevOps، این روش ضمن کاهش اصطکاک عملیاتی، به حفظ کنترلهای سازمانی و بهترینروشها در مدیریت Kubernetes کمک میکند.
#Kubernetes #MCP #kubectl #Helm #DevOps #PlatformEngineering #LLMOps #CloudSecurity
🟣لینک مقاله:
https://ku.bz/PDz70StnM
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
mcp-server-kubernetes – Kubernetes Management via MCP
🟢 خلاصه مقاله:
** mcp-server-kubernetes یک لایه کامل مدیریت Kubernetes را از طریق Model Context Protocol (MCP) ارائه میکند تا ابزارهایی مانند Claude Desktop و mcp-chat بتوانند دستورهای kubectl و Helm را بهصورت امن اجرا کنند. این راهکار پلی میان دستیارهای مبتنی بر مدل و عملیات واقعی خوشه است و با مسیردهی درخواستها از طریق MCP، امکان اعمال کنترل، اعتبارسنجی و تعیین دامنه دسترسی پیش از اجرای فرمانها را فراهم میکند. نتیجه، اجرای وظایف رایج kubectl و Helm با یک رابط یکپارچه و سازگار با چند ابزار، بدون نیاز به دسترسی مستقیم به شل یا اعتبارنامههای بلندمدت است. برای تیمهای پلتفرم و DevOps، این روش ضمن کاهش اصطکاک عملیاتی، به حفظ کنترلهای سازمانی و بهترینروشها در مدیریت Kubernetes کمک میکند.
#Kubernetes #MCP #kubectl #Helm #DevOps #PlatformEngineering #LLMOps #CloudSecurity
🟣لینک مقاله:
https://ku.bz/PDz70StnM
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - Flux159/mcp-server-kubernetes: MCP Server for kubernetes management commands
MCP Server for kubernetes management commands. Contribute to Flux159/mcp-server-kubernetes development by creating an account on GitHub.
🔵 عنوان مقاله
Digging Deeper: How Pause containers skew your Kubernetes CPU/Memory Metrics
🟢 خلاصه مقاله:
این آموزش نشان میدهد چرا حضور pause containers که Kubernetes برای هر Pod میسازد میتواند متریکهای CPU و Memory را منحرف کند و چطور با PromQL آنها را از نتایج حذف کنیم. چون این کانتینرها در سریهای kubelet/cAdvisor همردیف کانتینرهای کاری دیده میشوند، جمعزدن مصرف به ازای Pod یا Namespace باعث تورم مقادیر میشود. راهحل، فیلتر کردن سریها با برچسبهاست؛ برای نمونه استفاده از container!="POD"، container!="" و در صورت نیاز image!~"pause". برای CPU میتوان از rate روی container_cpu_usage_seconds_total و برای Memory از container_memory_working_set_bytes استفاده کرد و سپس با sum by بر اساس namespace و pod جمع زد. با مقایسه با node-level metrics و ابزارهایی مثل kubectl top میتوان درستی فیلترها را سنجید. نتیجه، داشبوردهای دقیقتر، آلارمهای سالمتر و برنامهریزی ظرفیت هماهنگ با مصرف واقعی است.
#Kubernetes #PromQL #Monitoring #Metrics #Observability #Containers #DevOps #Grafana
🟣لینک مقاله:
https://ku.bz/w-3KDdMYk
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Digging Deeper: How Pause containers skew your Kubernetes CPU/Memory Metrics
🟢 خلاصه مقاله:
این آموزش نشان میدهد چرا حضور pause containers که Kubernetes برای هر Pod میسازد میتواند متریکهای CPU و Memory را منحرف کند و چطور با PromQL آنها را از نتایج حذف کنیم. چون این کانتینرها در سریهای kubelet/cAdvisor همردیف کانتینرهای کاری دیده میشوند، جمعزدن مصرف به ازای Pod یا Namespace باعث تورم مقادیر میشود. راهحل، فیلتر کردن سریها با برچسبهاست؛ برای نمونه استفاده از container!="POD"، container!="" و در صورت نیاز image!~"pause". برای CPU میتوان از rate روی container_cpu_usage_seconds_total و برای Memory از container_memory_working_set_bytes استفاده کرد و سپس با sum by بر اساس namespace و pod جمع زد. با مقایسه با node-level metrics و ابزارهایی مثل kubectl top میتوان درستی فیلترها را سنجید. نتیجه، داشبوردهای دقیقتر، آلارمهای سالمتر و برنامهریزی ظرفیت هماهنگ با مصرف واقعی است.
#Kubernetes #PromQL #Monitoring #Metrics #Observability #Containers #DevOps #Grafana
🟣لینک مقاله:
https://ku.bz/w-3KDdMYk
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Digging Deeper: How Pause containers skew your Kubernetes CPU/Memory Metrics
Why container=”” and name=”” are sabotaging your VictoriaMetrics dashboards and how to clean them up with accurate PromQL filters.
🔵 عنوان مقاله
Chisel-Operator – Kubernetes Operator for Chisel Tunnels
🟢 خلاصه مقاله:
این مقاله به معرفی Chisel-Operator میپردازد؛ یک Kubernetes Operator که تونلهای Chisel را بهصورت منابع deklarative مدیریت میکند. با تعریف CRD، اپراتور بهطور خودکار مؤلفههای لازم (مانند Chisel server/client، Service و Secret) را ایجاد کرده، وضعیت را پایش میکند و در صورت بروز خطا تونل را ترمیم میکند. این رویکرد با GitOps سازگار است، مشاهدهپذیری و وضعیت منابع را فراهم میکند و برای محیطهای چندمستاجری با RBAC و NetworkPolicy همخوان است. امنیت با استفاده از Secrets، توکنها و TLS در اولویت قرار دارد و از پیکربندیهای موردی و پرریسک جلوگیری میشود. کاربردهای کلیدی شامل اتصال بین namespaceها و کلاسترها، دسترسی موقت توسعهدهنده، اجرای وظایف CI/CD و سناریوهای air‑gapped است؛ در مقایسه با port-forward یا bastionهای دستی، روشی مقیاسپذیر، قابل حسابرسی و قابل اتکا ارائه میدهد.
#Kubernetes #Operator #Chisel #Networking #DevOps #CloudNative #Security #GitOps
🟣لینک مقاله:
https://ku.bz/NtrYVF4X-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Chisel-Operator – Kubernetes Operator for Chisel Tunnels
🟢 خلاصه مقاله:
این مقاله به معرفی Chisel-Operator میپردازد؛ یک Kubernetes Operator که تونلهای Chisel را بهصورت منابع deklarative مدیریت میکند. با تعریف CRD، اپراتور بهطور خودکار مؤلفههای لازم (مانند Chisel server/client، Service و Secret) را ایجاد کرده، وضعیت را پایش میکند و در صورت بروز خطا تونل را ترمیم میکند. این رویکرد با GitOps سازگار است، مشاهدهپذیری و وضعیت منابع را فراهم میکند و برای محیطهای چندمستاجری با RBAC و NetworkPolicy همخوان است. امنیت با استفاده از Secrets، توکنها و TLS در اولویت قرار دارد و از پیکربندیهای موردی و پرریسک جلوگیری میشود. کاربردهای کلیدی شامل اتصال بین namespaceها و کلاسترها، دسترسی موقت توسعهدهنده، اجرای وظایف CI/CD و سناریوهای air‑gapped است؛ در مقایسه با port-forward یا bastionهای دستی، روشی مقیاسپذیر، قابل حسابرسی و قابل اتکا ارائه میدهد.
#Kubernetes #Operator #Chisel #Networking #DevOps #CloudNative #Security #GitOps
🟣لینک مقاله:
https://ku.bz/NtrYVF4X-
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - FyraLabs/chisel-operator: Kubernetes Operator for Chisel
Kubernetes Operator for Chisel. Contribute to FyraLabs/chisel-operator development by creating an account on GitHub.
Forwarded from Bardia & Erfan
پاول دوروف: آزادی اینترنت در حال نابودیه; ۴۱ سالگی رو جشن نمیگیرم
پاول دوروف در تولد ۴۱ سالگیاش نوشت:
«دیگه حس جشن ندارم؛ چون نسل ما داره اینترنت آزادی رو از دست میده که پدرانمون ساختن.
کشورهایی که روزی آزاد بودن، دارن به سمت کنترل کامل پیش میرن — از شناسه دیجیتال در بریتانیا تا اسکن پیامهای خصوصی در اتحادیه اروپا.
در آلمان منتقدان دولت تحت پیگردن، در بریتانیا مردم برای توییتهاشون زندانی میشن و در فرانسه از مدافعان آزادی بازجویی میشه.
ما فریب خوردیم تا باور کنیم باید سنت، حریم خصوصی و آزادی بیان رو قربانی کنیم.
من جشن نمیگیرم... چون زمان ما برای نجات آزادی تموم میشه.»
پاول دوروف در تولد ۴۱ سالگیاش نوشت:
«دیگه حس جشن ندارم؛ چون نسل ما داره اینترنت آزادی رو از دست میده که پدرانمون ساختن.
کشورهایی که روزی آزاد بودن، دارن به سمت کنترل کامل پیش میرن — از شناسه دیجیتال در بریتانیا تا اسکن پیامهای خصوصی در اتحادیه اروپا.
در آلمان منتقدان دولت تحت پیگردن، در بریتانیا مردم برای توییتهاشون زندانی میشن و در فرانسه از مدافعان آزادی بازجویی میشه.
ما فریب خوردیم تا باور کنیم باید سنت، حریم خصوصی و آزادی بیان رو قربانی کنیم.
من جشن نمیگیرم... چون زمان ما برای نجات آزادی تموم میشه.»
❤1
🔵 عنوان مقاله
Measuring service response time and latency: How to perform a TCP check in Grafana Cloud Synthetic Monitoring (7 minute read)
🟢 خلاصه مقاله:
**
Grafana Cloud Synthetic Monitoring پشتیبانی از TCP check را اضافه کرده تا بتوان عملکرد و اتصال سرویسهای غیر-HTTP را پایش کرد. این قابلیت با تست اتصال به hostname یا IP و پورت مشخص، و در صورت نیاز ارسال query و بررسی response، امکان سنجش پاسخگویی و latency را فراهم میکند.
راهاندازی در UI ساده است: هدف درخواست را تعیین میکنید، در صورت نیاز query/response اضافه میکنید، زمانبندی اجرا را تنظیم و محلهای probe را انتخاب میکنید تا دید بهتری از شرایط مناطق مختلف داشته باشید. در پلن رایگان، ماهانه 100k اجرای تست در دسترس است و نتایج در یک dashboard از پیش پیکربندیشده نمایش داده میشود تا شاخصهای کلیدی و روندهای latency و response time بهصورت یکجا قابل مشاهده و تحلیل باشد.
#GrafanaCloud #SyntheticMonitoring #TCP #Latency #Observability #SRE #DevOps #Monitoring
🟣لینک مقاله:
https://grafana.com/blog/2025/09/09/measuring-service-response-time-and-latency-how-to-perform-a-tcp-check-in-grafana-cloud-synthetic-monitoring/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Measuring service response time and latency: How to perform a TCP check in Grafana Cloud Synthetic Monitoring (7 minute read)
🟢 خلاصه مقاله:
**
Grafana Cloud Synthetic Monitoring پشتیبانی از TCP check را اضافه کرده تا بتوان عملکرد و اتصال سرویسهای غیر-HTTP را پایش کرد. این قابلیت با تست اتصال به hostname یا IP و پورت مشخص، و در صورت نیاز ارسال query و بررسی response، امکان سنجش پاسخگویی و latency را فراهم میکند.
راهاندازی در UI ساده است: هدف درخواست را تعیین میکنید، در صورت نیاز query/response اضافه میکنید، زمانبندی اجرا را تنظیم و محلهای probe را انتخاب میکنید تا دید بهتری از شرایط مناطق مختلف داشته باشید. در پلن رایگان، ماهانه 100k اجرای تست در دسترس است و نتایج در یک dashboard از پیش پیکربندیشده نمایش داده میشود تا شاخصهای کلیدی و روندهای latency و response time بهصورت یکجا قابل مشاهده و تحلیل باشد.
#GrafanaCloud #SyntheticMonitoring #TCP #Latency #Observability #SRE #DevOps #Monitoring
🟣لینک مقاله:
https://grafana.com/blog/2025/09/09/measuring-service-response-time-and-latency-how-to-perform-a-tcp-check-in-grafana-cloud-synthetic-monitoring/?utm_source=tldrdevops
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Grafana Labs
Measuring service response time and latency: How to perform a TCP check in Grafana Cloud Synthetic Monitoring | Grafana Labs
TCP checks in Grafana Cloud Synthetic Monitoring can be your first line of defense against service failures and network connectivity issues. Here’s how to get started.
🔵 عنوان مقاله
kgateway – Envoy-Based Kubernetes Gateway for API and LLM Traffic
🟢 خلاصه مقاله:
خلاصهای از kgateway: یک درگاه API بومی Kubernetes مبتنی بر Envoy که مسیریابی، امنیت و حاکمیت ترافیک API و ترافیک AI/LLM را یکپارچه میکند. این راهکار برای محیطهای چندابری و هیبریدی طراحی شده و با فراهمکردن کنترلپلن یکسان و دیتاپلن پرکاربرد، ترافیک در مقیاس میلیاردی را با قابلیت اطمینان بالا مدیریت میکند. kgateway قابلیتهای مدیریت ترافیک مانند مسیریابی هوشمند، بالانس بار، retry/timeout و الگوهای انتشار تدریجی را ارائه میدهد و با سازوکارهای شبکهای Kubernetes بهخوبی هماهنگ میشود. در حوزه امنیت و حاکمیت، از mTLS و احراز هویت مبتنی بر توکن، اعمال مجوزهای ریزدانه، محدودسازی نرخ و پایشپذیری کامل پشتیبانی میکند. برای سناریوهای AI/LLM نیز برای اتصالهای طولانیمدت و الگوهای پرتراکم درخواست بهینه شده، دسترسی به endpointهای مدل در ابرهای مختلف را متمرکز میسازد و با پیکربندی کاملاً اعلامی و بومی Kubernetes، امکان GitOps، ایزولهسازی چندمستاجره و مقیاسپذیری پویا را فراهم میکند.
#Kubernetes #Envoy #APIGateway #LLM #AIInfrastructure #CloudNative #MultiCloud #Security
🟣لینک مقاله:
https://ku.bz/WmWGQ11CZ
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
kgateway – Envoy-Based Kubernetes Gateway for API and LLM Traffic
🟢 خلاصه مقاله:
خلاصهای از kgateway: یک درگاه API بومی Kubernetes مبتنی بر Envoy که مسیریابی، امنیت و حاکمیت ترافیک API و ترافیک AI/LLM را یکپارچه میکند. این راهکار برای محیطهای چندابری و هیبریدی طراحی شده و با فراهمکردن کنترلپلن یکسان و دیتاپلن پرکاربرد، ترافیک در مقیاس میلیاردی را با قابلیت اطمینان بالا مدیریت میکند. kgateway قابلیتهای مدیریت ترافیک مانند مسیریابی هوشمند، بالانس بار، retry/timeout و الگوهای انتشار تدریجی را ارائه میدهد و با سازوکارهای شبکهای Kubernetes بهخوبی هماهنگ میشود. در حوزه امنیت و حاکمیت، از mTLS و احراز هویت مبتنی بر توکن، اعمال مجوزهای ریزدانه، محدودسازی نرخ و پایشپذیری کامل پشتیبانی میکند. برای سناریوهای AI/LLM نیز برای اتصالهای طولانیمدت و الگوهای پرتراکم درخواست بهینه شده، دسترسی به endpointهای مدل در ابرهای مختلف را متمرکز میسازد و با پیکربندی کاملاً اعلامی و بومی Kubernetes، امکان GitOps، ایزولهسازی چندمستاجره و مقیاسپذیری پویا را فراهم میکند.
#Kubernetes #Envoy #APIGateway #LLM #AIInfrastructure #CloudNative #MultiCloud #Security
🟣لینک مقاله:
https://ku.bz/WmWGQ11CZ
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
GitHub
GitHub - kgateway-dev/kgateway: The Cloud-Native API Gateway and AI Gateway
The Cloud-Native API Gateway and AI Gateway. Contribute to kgateway-dev/kgateway development by creating an account on GitHub.
🔵 عنوان مقاله
From utilization to PSI: Rethinking resource starvation monitoring in Kubernetes
🟢 خلاصه مقاله:
این مقاله نشان میدهد تکیه بر شاخصهای غیرمستقیم مانند استفاده از CPU/Memory و requests/limits در Kubernetes اغلب تصویر غلطی از «گرسنگی منابع» میدهد و پیشنهاد میکند به جای آن از PSI در Linux استفاده شود. PSI با اندازهگیری زمانهای توقف تسکها هنگام انتظار برای CPU، Memory یا I/O (بهصورت avg10/avg60/avg300 و مقادیر some/full) خودِ «رقابت بر سر منابع» را نشان میدهد، نه صرفاً پر بودن ظرفیت. این کار مواردی مانند تأخیر ناشی از reclaim حافظه، صفهای I/O، یا اثر همسایه پرسروصدا را که پشت نمودارهای استفاده پنهان میمانند، آشکار میکند. در عمل میتوان PSI را در سطح نود و cgroup جمعآوری کرد (مثلاً با Prometheus node-exporter) و با Grafana دید، آستانههای هشدار و SLOها را بر مبنای فشار واقعی تعریف کرد، و حتی HPA و اتواسکیلینگ کلاستر را به فشار پایدار گره زد. نتیجه: برای تشخیص و رفع رقابت واقعی در Kubernetes باید «فشار» را سنجید و تفسیر کرد، و در کنار آن از شاخصهای استفاده برای تکمیل تصویر بهره گرفت.
#Kubernetes
#Linux
#PSI
#Observability
#SRE
#ResourceManagement
#Prometheus
#CloudNative
🟣لینک مقاله:
https://ku.bz/Gn7372R9X
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
From utilization to PSI: Rethinking resource starvation monitoring in Kubernetes
🟢 خلاصه مقاله:
این مقاله نشان میدهد تکیه بر شاخصهای غیرمستقیم مانند استفاده از CPU/Memory و requests/limits در Kubernetes اغلب تصویر غلطی از «گرسنگی منابع» میدهد و پیشنهاد میکند به جای آن از PSI در Linux استفاده شود. PSI با اندازهگیری زمانهای توقف تسکها هنگام انتظار برای CPU، Memory یا I/O (بهصورت avg10/avg60/avg300 و مقادیر some/full) خودِ «رقابت بر سر منابع» را نشان میدهد، نه صرفاً پر بودن ظرفیت. این کار مواردی مانند تأخیر ناشی از reclaim حافظه، صفهای I/O، یا اثر همسایه پرسروصدا را که پشت نمودارهای استفاده پنهان میمانند، آشکار میکند. در عمل میتوان PSI را در سطح نود و cgroup جمعآوری کرد (مثلاً با Prometheus node-exporter) و با Grafana دید، آستانههای هشدار و SLOها را بر مبنای فشار واقعی تعریف کرد، و حتی HPA و اتواسکیلینگ کلاستر را به فشار پایدار گره زد. نتیجه: برای تشخیص و رفع رقابت واقعی در Kubernetes باید «فشار» را سنجید و تفسیر کرد، و در کنار آن از شاخصهای استفاده برای تکمیل تصویر بهره گرفت.
#Kubernetes
#Linux
#PSI
#Observability
#SRE
#ResourceManagement
#Prometheus
#CloudNative
🟣لینک مقاله:
https://ku.bz/Gn7372R9X
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
blog.zmalik.dev
From Utilization to PSI: Rethinking Resource Starvation Monitoring in Kubernetes
From Utilization Confusion to PSI Clarity in Kubernetes
Forwarded from Bardia & Erfan
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی یک خط کد به پروزه اضافه میکنی😂
❤1🤩1
🔵 عنوان مقاله
Production Grade K8S From Bare Metal/Workstation With Multipass, MicroK8s, MetalLB, Cloudflare…
🟢 خلاصه مقاله:
این آموزش ساخت یک کلاستر Kubernetes در سطح تولید را روی یک ورکاستیشن bare-metal نشان میدهد: با استفاده از Multipass برای ایجاد VMها، MicroK8s بهعنوان توزیع Kubernetes، MetalLB برای پشتیبانی از Service نوع LoadBalancer در شبکه محلی، و یک Cloudflare Tunnel برای انتشار امن سرویسها بدون باز کردن پورتهای ورودی. مراحل شامل آمادهسازی میزبان، پرویژن و خوشهبندی MicroK8s، فعالسازی افزونههایی مثل dns، ingress، storage و metrics-server، پیکربندی آدرسپول MetalLB و تست یک Service نوع LoadBalancer، و راهاندازی cloudflared برای اتصال DNS و صدور خودکار گواهیها است. همچنین به ملاحظات تولیدی مانند HA، پشتیبانگیری از etcd، انتخاب ذخیرهسازی پایدار، پایش و لاگ، RBAC، NetworkPolicies، ارتقاها و GitOps (مثلاً با Argo CD یا Flux) اشاره میکند تا یک الگوی عملی و مقرونبهصرفه برای محیطهای خانگی و تیمهای کوچک فراهم شود.
#Kubernetes #MicroK8s #MetalLB #Multipass #Cloudflare #DevOps #BareMetal #Homelab
🟣لینک مقاله:
https://ku.bz/wq-WT37XN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Production Grade K8S From Bare Metal/Workstation With Multipass, MicroK8s, MetalLB, Cloudflare…
🟢 خلاصه مقاله:
این آموزش ساخت یک کلاستر Kubernetes در سطح تولید را روی یک ورکاستیشن bare-metal نشان میدهد: با استفاده از Multipass برای ایجاد VMها، MicroK8s بهعنوان توزیع Kubernetes، MetalLB برای پشتیبانی از Service نوع LoadBalancer در شبکه محلی، و یک Cloudflare Tunnel برای انتشار امن سرویسها بدون باز کردن پورتهای ورودی. مراحل شامل آمادهسازی میزبان، پرویژن و خوشهبندی MicroK8s، فعالسازی افزونههایی مثل dns، ingress، storage و metrics-server، پیکربندی آدرسپول MetalLB و تست یک Service نوع LoadBalancer، و راهاندازی cloudflared برای اتصال DNS و صدور خودکار گواهیها است. همچنین به ملاحظات تولیدی مانند HA، پشتیبانگیری از etcd، انتخاب ذخیرهسازی پایدار، پایش و لاگ، RBAC، NetworkPolicies، ارتقاها و GitOps (مثلاً با Argo CD یا Flux) اشاره میکند تا یک الگوی عملی و مقرونبهصرفه برای محیطهای خانگی و تیمهای کوچک فراهم شود.
#Kubernetes #MicroK8s #MetalLB #Multipass #Cloudflare #DevOps #BareMetal #Homelab
🟣لینک مقاله:
https://ku.bz/wq-WT37XN
➖➖➖➖➖➖➖➖
👑 @DevOps_Labdon
Medium
Production Grade K8S From Bare Metal/Workstation With Multipass, MicroK8s, MetalLB, Cloudflare Tunnel
This article provides valuable insights and guidance on establishing a production-ready Kubernetes cluster for your home lab, data…