Academy and Foundation unixmens | Your skills, Your future
2.28K subscribers
6.65K photos
1.36K videos
1.23K files
5.99K links
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Download Telegram
یکی از ابزارهای خوب kubevirt هست . که من باهاش کار کردم که با ovirt هم قابلیت اینتگرید داره .
در واقع
این ابزار یک پروژه متن باز است که قابلیت اجرای ماشین های مجازی (VM) را روی Kubernetes فراهم می‌کند. این پروژه به شما اجازه می‌دهد تا از Kubernetes برای مدیریت چرخه عمر VM ها، مانند ایجاد، حذف، مقیاس‌بندی، و نظارت استفاده کنید.

مزایای KubeVirt:

* یکپارچگی با Kubernetes: این محصول به طور کامل با Kubernetes ادغام می‌شود و شما می‌توانید از ابزارهای Kubernetes برای مدیریت VM ها استفاده کنید.
* مدیریت آسان: KubeVirt عملیات مدیریت VM ها را آسان‌تر می‌کند و به شما امکان می‌دهد تا VM ها را در کنار pods و سرویس‌های Kubernetes مدیریت کنید.
* مقیاس‌پذیری بالا: KubeVirt به شما امکان می‌دهد تا VM ها را به صورت مقیاس‌پذیری بالا اجرا کنید.
* امنیت بالا: KubeVirt امنیت VM ها را در Kubernetes با استفاده از فایروال‌های شبکه و کنترل دسترسی تقویت می‌کند.
* انعطاف‌پذیری: KubeVirt با سیستم‌های مجازی مختلف، مانند QEMU/KVM، پشتیبانی می‌کند و به شما اجازه می‌دهد تا از سیستم‌های مجازی مختلف استفاده کنید.
* منبع باز: KubeVirt یک پروژه منبع باز است و شما می‌توانید به کد آن دسترسی داشته باشید.


کاربردهای KubeVirt:

* مهاجرت به Kubernetes: این ابزار به شما کمک می‌کند تا VM ها را به Kubernetes مهاجرت دهید و از مزایای Kubernetes مانند مقیاس‌پذیری و مدیریت آسان استفاده کنید.
* اجرای برنامه‌های قدیمی: این برنامه به شما امکان اجرا برنامه‌های قدیمی که روی VM ها اجرا می‌شوند را در Kubernetes فراهم می‌کند.
* ایجاد محیط‌های تست و توسعه: این محصول به شما امکان ایجاد محیط‌های تست و توسعه با VM ها را در Kubernetes فراهم می‌کند.
* محیط‌های ابری: این ساختار برای اجرای VM ها در محیط‌های ابری مناسب است و به شما امکان مدیریت VM ها را به صورت مقیاس‌پذیری بالا فراهم می‌کند.

KubeVirt در مقایسه با VirtualKubelet:

جمع‌بندی:

این محصول یک راه حل عالی برای اجرای ماشین های مجازی روی Kubernetes است. این پروژه به شما امکان مدیریت VM ها را با استفاده از ابزارهای Kubernetes فراهم می‌کند و مزایای زیادی از جمله مقیاس‌پذیری، امنیت و انعطاف‌پذیری را به شما ارائه می‌دهد.



#kube #kubevirt


@unixmens
1
Forwarded from Academy and Foundation unixmens | Your skills, Your future (yashar esmaildokht 🐧)
#PP.Getting.Started.with.oVirt.3.3.Nov.2013👇🏻👇🏻👇🏻
In this post: Learn about the importance of interoperability testing between the various 5G core network functions.Read about the challenges associated with 5G core lifecycle management, software versioning, and its impact on testing and verification.Find out how Red Hat and Rebaca’s autonomous continuous testing framework helps service providers with the consistent delivery of compliant and interoperable 5G core cloud-native network functions (CNFs).The challenge of 5G core interoperabilityDeploying a 5G core network involves several key components, including the Access and Mobility Managem

via Red Hat Blog https://ift.tt/QETwY6G
در میان واژه ها گم شدیم .
قطعا در هر چیزی امکان رشد وجود دارد ، ولی

وقتی به معنی تاب آوری یا resistance فکر میکنیم ، یعنی : توانایی بازگشت به نقطه قابل اتکا و stable

یاد جمله ای می افتم :
میگن ، میگذرد ، ولی هیچ کس نمیگوید به چه قیمتی !!!!؟؟؟

هیچ کس بدهی ها را محاسبه نمیکند .
مشکلات ایجاد شده را

و قطعا رشد با درد همراه هست . اما فرقی دارد ، دردی که به خاطر اشتباه دیگران هست .
As a system administrator, keeping a Linux fleet running efficiently and securely can feel like you’re constantly putting out fires. Just when you address one issue, another one pops up, often because of a lack of visibility across your environment and too many manual, repetitive tasks. But what if you could spend less time reacting to problems and more time on the work that drives your business forward? That's why we're committed to building and improving new capabilities in Red Hat Insights for Red Hat Enterprise Linux (RHEL) to help you stay ahead of the curve.Insights for RHEL helps you

via Red Hat Blog https://ift.tt/31QJoBg
With cyberattacks on the rise, increasing software supply chain visibility is crucial for organizations to proactively identify and mitigate vulnerabilities within their applications and infrastructure. However, handling diverse security data sources such as software bill of materials (SBOMs), critical vulnerabilities and exploits (CVEs), and vendor advisories remains a major challenge due to inconsistent formats, varying levels of detail, and the lack of standardized integration points. Addressing this challenge requires not only better tools, but also open collaboration across the entire eco

via Red Hat Blog https://ift.tt/OUvA29c
در نگاه اول اینطور به نظر میاد که چون زبان‌های مفسری (مثل Python, PHP, Ruby, JavaScript/Node.js) نیازی به کامپایل شدن ندارند، پس در CI/CD pipeline هم مرحله‌ی build لازم نیست. اما در واقعیت اینطور نیست و دلیل‌های مهمی وجود داره که چرا حتی برای زبان‌های مفسری هم یک stage به نام build داریم:


۱. تعریف گسترده‌ی Build در CI

در CI، منظور از Build فقط کامپایل کد منبع به باینری نیست.

در واقع Build یعنی: آماده‌سازی artifact قابل استفاده (قابل اجرا یا قابل دیپلوی) از کد منبع.

برای زبان‌های مفسری، این می‌تونه شامل کارهای زیر باشه:

نصب و freeze کردن وابستگی‌ها (pip install -r requirements.txt در Python یا npm install در Node.js)

بسته‌بندی کد به صورت آرشیو یا کانتینر (zip, tar.gz, docker image)

اجرای ابزارهای code generation یا transpiler (مثل TypeScript → JavaScript یا Sass → CSS)

ا minify و optimize کردن کدهای front-end

آماده‌سازی migrationها یا فایل‌های config برای استقرار

۲. تولید Artifact پایدار

ا CI/CD به دنبال اینه که یک خروجی قابل تکرار بسازه.

در زبان‌های مفسری، artifact می‌تونه یک Docker image، یک بسته‌ی Python (.whl یا .tar.gz)، یا یک بسته‌ی npm باشد.

این artifact تضمین می‌کنه که همون نسخه‌ی تست‌شده، به محیط stage و production منتقل بشه.

۳. جداسازی Concerns

مرحله build جدا میشه تا مطمئن بشیم:

وابستگی‌ها درست نصب شدن.

نسخه‌ی کد پایدار و بدون خطا آماده شده.

تست‌ها بعداً روی artifact اجرا بشن (نه روی سورس خام).

تیم‌ها یک مرز واضح بین "آماده‌سازی" و "تست/استقرار" داشته باشن.

۴. مثال‌ها

Python:

stages:
- build
- test
- deploy

build:
stage: build
script:
- pip install -r requirements.txt
- pytest --collect-only # بررسی اینکه همه چیز قابل بارگذاری است
- python setup.py sdist bdist_wheel # تولید پکیج
artifacts:
paths:
- dist/

Node.js:

build:
stage: build
script:
- npm install
- npm run build # مثلا build کردن React/Next.js
artifacts:
paths:
- dist/
در واقع حتی اگر زبان مفسری باشه و کامپایل نشه، مرحله build به معنی آماده‌سازی محیط، وابستگی‌ها، artifact و بسته‌ی قابل استقرار هست.



#devops



https:// t.iss.one/unixmens
👏2
آیا elk یک log management هست یا ابزار مانیتورینگ ؟

پاسخ هردو


در دنیای امروز که سیستم‌ها پیچیده، توزیع‌شده و اغلب مبتنی بر ابر و راهکارهای cloud-native و Microservices هستند، سازمان‌ها بیش از هر زمان دیگری به ابزارهایی برای جمع‌آوری، تحلیل و نظارت بر داده‌ها نیاز دارند. یعنی ورود به مفاهیم و ساختار های data driven.
در این مسیر، استک ELK به‌عنوان یکی از محبوب‌ترین راهکارها برای Log Management و حتی Monitoring / Observability شناخته می‌شود.

اما اگر عمیق تر نگاه کنیم آیا این ابزار صرفاً مدیریت لاگ انجام می‌دهد یا می‌تواند نقش مانیتورینگ را هم ایفا کند؟


در واقع ELK چیست؟

در حقیقت ELK مخفف سه مؤلفه اصلی است:

Elasticsearch → موتور جستجو و پایگاه داده NoSQL برای ذخیره‌سازی و ایندکس‌گذاری لاگ‌ها.

Logstash → ابزار پردازش داده‌ها (ETL) برای جمع‌آوری، فیلتر و انتقال داده.

Kibana → ابزار تجسم داده‌ها (Visualization) و ساخت داشبورد.


نکته : ما نود های مختلفی داریم برای data برای ذخیره‌سازی داکیومنت هاذو شارد ها .
نود master
نود ingest
نود cordinator
نود data که خود این نود هم شامل ساختار ilm هست که به hot 🔥, warm 🥵 , و cold 🥶 را شامل میشود و در ادامه repository برای ذخیره داده های قدیمی تر .

نکته : میتوان در کلاستر از logslash استفاده نکرد و از نود با وظیفه ingest استفاده کرد . البته این دو نود هر کدام نکته های باریک دارند .
بررسی ELK به‌عنوان Log Management :

در ابتدا ELK به‌عنوان یک Log Management Platform معرفی شد:

جمع‌آوری لاگ‌های سیستمی، اپلیکیشنی و شبکه‌ای

پردازش و نرمال‌سازی داده‌ها

ذخیره‌سازی در Elasticsearch

جستجو، تحلیل و ساخت گزارش در Kibana


به همین دلیل ELK معمولاً در کنار ابزارهایی مثل Splunk یا Graylog دسته‌بندی می‌شود.

بررسی ELK به‌عنوان ابزار Monitoring / Observability :

با گذشت زمان و توسعه‌ی ELK، قابلیت‌های آن گسترش یافت:

امکان تعریف Alerting و هشدار (با X-Pack یا Elastic Alerting)

داشبوردهای Real-Time در Kibana

پشتیبانی از APM (Application Performance Monitoring) و Metrics (از طریق Beats مثل Metricbeat)

استفاده در امنیت (Elastic SIEM)


بنابراین ELK از یک Log Management ساده فراتر رفت و به سمت یک پلتفرم Monitoring و حتی Observability حرکت کرد.


در واقع ELK در اصل یک Log Management Platform است.

اما در عمل، با اضافه شدن قابلیت‌های Dashboard، Alerting و APM، و ... به یک Monitoring و Observability Platform نیز تبدیل می‌شود.


بنابراین ELK را می‌توان هم به‌عنوان مدیریت لاگ و هم به‌عنوان ابزار مانیتورینگ در نظر گرفت؛ بسته به اینکه سازمان از آن در چه سطحی و با چه افزونه‌هایی استفاده کند.


#devops #linux #elk #elasticsearch




https://t.iss.one/unixmens
👍1
مفهوم Fleet در ELK چیست؟

در واقع Fleet یک ابزار مدیریتی در Elastic Stack است که برای مدیریت متمرکز Agentها طراحی شده.
در واقع، وقتی شما می‌خواهید روی سرورها، کلاینت‌ها یا کانتینرها داده (لاگ، متریک، امنیت، APM و غیره) جمع‌آوری کنی، باید Elastic Agent نصب بشه.
مدیریت دستی تعداد زیادی Agent (نصب، پیکربندی، به‌روزرسانی) سخت می‌شه.
اینجاست که Fleet وارد عمل میشه.

وظایف Fleet چیست ؟

1. مدیریت متمرکز Agentها

از طریق Kibana می‌تونی Agentها رو نصب، پیکربندی و مدیریت کنی.

نیازی نیست روی هر سرور جداگانه تغییرات اعمال کنی.



2. Policy Management

تعریف Policy (مثلاً جمع‌آوری لاگ‌های سیستم، متریک CPU و لاگ‌های Nginx).

این Policy به صورت خودکار روی Agentها اعمال میشه.



3. Data Ingestion ساده‌تر

در Fleet داده‌ها رو از طریق Elastic Agent به Elasticsearch می‌فرسته.

این داده‌ها می‌تونن شامل:

لاگ‌ها (Log Files)

و Metrics (سیستم و اپلیکیشن‌ها)

داده‌های امنیتی (Endpoint Security)

داده‌های APM

باشه .


4. Integration Hub

در Fleet یک Integration Hub وجود داره که ده‌ها Integration آماده برای سرویس‌ها (مثل MySQL, Nginx, Kubernetes, AWS) رو فراهم می‌کنه.

کافیه انتخابش کنیم تا Agent ها تنظیمات مربوطه رو اعمال کنن.



تفاوت Elastic Agent + Fleet با Beats

قبل از Elastic Agent، باید از Filebeat، Metricbeat، Packetbeat و … جداگانه استفاده می‌کردیم.

هر کدوم نصب و تنظیم خودشون رو داشتن.

الان Elastic Agent اومده و همه رو یکپارچه کرده.

و Fleet هم مدیریت مرکزی همین Agentهاست.


مزایای Fleet

مدیریت ساده در مقیاس بالا (ده‌ها یا صدها سرور)

پشتیبانی از Integrationهای آماده

امکان امنیت مرکزی برای Agentها (از طریق Kibana)

جایگزینی مدرن برای Beats

مناسب برای محیط‌های Cloud و Kubernetes خلاصه:
در واقع Fleet یک کنسول مدیریتی متمرکز در Kibana است که برای مدیریت Elastic Agentها استفاده می‌شود.
این ابزار فرآیند نصب، پیکربندی، به‌روزرسانی و مدیریت Policy را ساده می‌کند و عملاً نسل جدید مدیریت داده در ELK به شمار می‌آید.


#elk #linux #security #elasticsearch #kibana


unixmens

https://t.iss.one/unixmens
Edge Industry Review: Orbital data center heads to ISS to test real-time edge computing in spaceA new orbital data center being sent to the International Space Station (ISS) provided by the ISS National Lab will enhance space-based computing assets, considering data storage and real-time processing. This project is in partnership with Axiom Space and Red Hat and employs Red Hat Device Edge to provide in-orbit computing power. Learn more Financial services giant strengthens DR through automation When a leading bank wanted to strengthen disaster recovery, it decided to integrate Red Hat Ansible

via Red Hat Blog https://ift.tt/GhZkAqt
Many organizations possess a wealth of unique internal knowledge. This includes customized operational runbooks, environment-specific configurations, internal best practices, and stringent compliance protocols. This information may be critical for the organization's day-to-day operations, but it sits outside public knowledge bases where large language models (LLM) are trained. There's a clear need to bridge this gap, and to enable an AI assistant to understand and leverage proprietary context and provide specific and actionable guidance. In response to this need, we introduced the "bring your

via Red Hat Blog https://ift.tt/cb2TzHK
The AI revolution has ignited a debate about what constitutes an "AI agent." Using the term “AI agent” these days commonly implies autonomous, self-learning systems that pursue complex goals, adapting over time. A very impressive goal, but this purist vision can alienate traditional developers and slow innovation.It’s time to expand the definition, and embrace a broader perspective: AI agents don’t always need to self-learn or chase lofty goals. Functional agents—a new term—that connect large language models (LLMs) to APIs, physical devices, or event-driven systems can be just as i

via Red Hat Blog https://ift.tt/ZFMkG1v
Organizations looking to better understand the lineage of their software artifacts have begun to adopt signing as a way to improve their security posture. By applying digital signatures to software artifacts, trust can be established to verify that assets have not been substituted or tampered with through the software development and delivery process.Red Hat Trusted Artifact Signer, a key component of Red Hat’s Trusted Software Supply Chain portfolio, provides a suite of tools that supports signing and verifying assets from first commit to deployment. Since Trusted Artifact Signer was first

via Red Hat Blog https://ift.tt/kSxGRn3
Being connected is important, but for a dispersed, global, and mobile organization that works with increasingly sensitive data, sometimes it's better to stay disconnected for security, safety, operational, and other technical concerns. This type of deployment is often referred to as air-gapped. Common air-gapped environments include ships, vehicles, aircraft, remote industrial sites, nuclear facilities, and emergency field operations. These are locations where traditional network connectivity is unavailable or undesired, but where critical decision-making, predictive maintenance, resource esti

via Red Hat Blog https://ift.tt/XbwW9sa
As the pace of innovation across the IT industry accelerates, so does the need to stay informed. To help you stay ahead, we’ve gathered our top articles from July into one essential roundup. This collection of top stories highlights the technologies and strategies that are helping our customers build a more secure, productive, and forward-looking IT environment. From major product announcements to real-world customer stories, these insights will help youdiscover the critical tools and guidance that can strengthen your journey. Model Context Protocol (MCP): Understanding security risks and co

via Red Hat Blog https://ift.tt/afGxp8N
چگونه gitlab ominibus را نصب کنیم :


https://packages.gitlab.com/install/repositories/gitlab/gitlab-ee/script.rpm.sh



https://packages.gitlab.com/gitlab/gitlab-ee


در حقیقت GitLab یکی از محبوب‌ترین پلتفرم‌های DevOps Lifecycle Management است که تمام مراحل توسعه نرم‌افزار شامل مدیریت سورس‌کد، CI/CD، امنیت، مانیتورینگ و دپلویمنت را در یک بستر یکپارچه ارائه می‌دهد.
برای ساده‌سازی نصب و مدیریت این ابزار بزرگ، شرکت GitLab بسته‌ای به نام Omnibus GitLab عرضه کرده است. این بسته شامل تمام اجزای موردنیاز GitLab (مانند دیتابیس، وب‌سرور، Redis، Nginx و غیره) در یک پکیج واحد است و امکان راه‌اندازی سریع و مدیریت آسان را فراهم می‌سازد

ابزار GitLab Omnibus چیست؟

این ساختار Omnibus GitLab یک بسته‌ی all-in-one است که به جای نصب تک‌تک سرویس‌های موردنیاز، همه‌ی اجزا را در یک بسته‌ی مجتمع قرار داده است.
مزایای آن:

نصب سریع تنها با یک دستور (apt-get install gitlab-ee یا yum install gitlab-ee)

مدیریت ساده توسط ابزار gitlab-ctl

کاهش پیچیدگی در پیکربندی

قابلیت به‌روزرسانی یکپارچه


اجزای اصلی GitLab Omnibus

در واقع Omnibus GitLab شامل چندین سرویس حیاتی است که با هم برای اجرای کامل GitLab همکاری می‌کنند:

1. GitLab Rails (Core Application)

بخش اصلی اپلیکیشن که شامل GitLab Web، API و Backend است.



2. Nginx

به عنوان reverse proxy برای مدیریت درخواست‌های HTTP/HTTPS.



3. PostgreSQL

پایگاه‌داده اصلی برای ذخیره‌سازی کاربران، پروژه‌ها، issueها، pipelineها و داده‌های متنی.



4. Redis

برای cache و queue (Background Jobs و Sidekiq).



5. Sidekiq

برای اجرای پردازش‌های غیرهمزمان مانند pipeline jobs و ایمیل‌ها.



6. Gitaly

سرویس مدیریت repositoryها (جایگزین direct Git access).



7. Praefect (در معماری توزیع‌شده)

برای مدیریت replication در محیط‌های با چندین Gitaly.



8. GitLab Shell

مدیریت کلیدهای SSH و دسترسی Git.



9. Prometheus + Grafana

برای مانیتورینگ و مشاهده‌ی متریک‌


ویژگی‌های کلیدی معماری Omnibus

1. یکپارچگی → همه اجزا در یک پکیج و با حداقل وابستگی خارجی.


2. ماژولار → هر سرویس (Redis، PostgreSQL، Nginx و غیره) به صورت جداگانه قابل مدیریت است.


3. مقیاس‌پذیری → در نسخه‌های Advanced (مانند GitLab EE + Omnibus Cluster) می‌توان اجزا را جدا و روی سرورهای مختلف توزیع کرد.


4. امنیت → به صورت پیش‌فرض HTTPS، پیکربندی firewall و hardening‌های امنیتی فراهم است.


5. مانیتورینگ داخلی → با Prometheus و Grafana، متریک‌ها به‌صورت داخلی جمع‌آوری می‌شوند

گیتلب Omnibus ابزاری استراتژیک برای تیم‌های DevOps است که می‌خواهند بدون دغدغه نصب و پیکربندی اجزای مختلف، به سرعت یک محیط کامل GitLab را راه‌اندازی کنند.
معماری سطح بالای آن نشان می‌دهد که چگونه اجزای مختلف (وب‌سرور، دیتابیس، کش، مدیریت ریپازیتوری و مانیتورینگ) به صورت یکپارچه عمل می‌کنند تا چرخه‌ی توسعه نرم‌افزار را بهینه سازند


وقتی سازمان رشد می‌کند، معماری Omnibus تک‌سرور دیگر پاسخ‌گو نیست. در این حالت اجزای GitLab باید روی چندین سرور توزیع شوند تا:

ا. High Availability (HA) → جلوگیری از Single Point of Failure

ا. Horizontal Scaling → توانایی مدیریت حجم بالای کاربران و pipelineها

ا. Performance Optimization → پردازش همزمان حجم زیاد jobها و commitها

اجزای کلیدی در معماری Enterprise

1. Load Balancer

ورودی کلاینت‌ها (Web/SSH/API)

توزیع درخواست‌ها بین نودهای مختلف GitLab Web و GitLab Shell



2. Application Servers (GitLab Rails)

اجرای وب و API

می‌تواند در چندین نود با load balancing اجرا شود



3. Gitaly Cluster (Repository Storage)

هر repository در Gitaly نگهداری می‌شود

برای HA از Praefect استفاده می‌شود (مدیریت replication و failover)



4. Redis Cluster

برای session storage و job queue

پیکربندی Master/Replica یا Sentinel



5. PostgreSQL Cluster

پایگاه‌داده اصلی (HA با Patroni, repmgr یا Cloud Managed DB)

پشتیبانی از replication



6. Sidekiq Cluster

اجرای jobهای pipeline و background taskها

می‌تواند به صورت توزیع‌شده روی چند نود اجرا شود



7. Monitoring & Logging (Prometheus, Grafana, ELK)

جمع‌آوری متریک‌ها، alertها و لاگ‌ها

کارگشا هست .



#gitlab #git #devops


https://t.iss.one/unixmens
ا. GitLab Kubernetes Agent چیست؟

ا. GitLab Kubernetes Agent یک کامپوننت نرم‌افزاری است که داخل کلاستر Kubernetes نصب می‌شود و به صورت دوطرفه (bi-directional) با GitLab ارتباط برقرار می‌کند.
برخلاف روش قدیمی (integration با استفاده از kubeconfig یا API مستقیم)، این Agent یک کانال ارتباطی امن و پایدار بین GitLab و کلاستر ایجاد می‌کند

وظایف و قابلیت‌های اصلی

1. ارتباط امن و پایدار با کلاستر

بجای اینکه GitLab از بیرون به API کلاستر دسترسی داشته باشد (که خطرناک است)، Agent در داخل کلاستر اجرا شده و خودش ارتباط امن (TLS + gRPC) را با GitLab برقرار می‌کند.



2. GitOps (Declarative Deployments)

ا. Agent می‌تواند تغییرات تعریف‌شده در ریپازیتوری GitLab (مثل manifestها و Helm chartها) را به‌طور خودکار با وضعیت کلاستر هماهنگ کند.

یعنی وقتی شما کدی را commit کنید که شامل تغییر در Kubernetes manifests باشد، Agent این تغییرات را به کلاستر اعمال می‌کند.



3. CI/CD Integration

امکان اجرای jobهای CI/CD که نیاز به ارتباط با کلاستر دارند (مثل deploy، تست E2E، security scans).

دسترسی به کلاستر بدون نیاز به اشتراک‌گذاری kubeconfig در pipeline.



4. Cluster Observability

ا. Agent اطلاعات وضعیت کلاستر (nodes, pods, workloads) را به GitLab گزارش می‌دهد.

این کار امکان monitoring و visualization مستقیم از داخل GitLab UI را فراهم می‌کند.



5. Multi-cluster Management

با یک GitLab می‌توان چندین کلاستر را مدیریت کرد (Dev, Staging, Prod).

هر کلاستر ایجنت خودش را دارد و در GitLab به‌عنوان یک entity مجزا دیده می‌شود.



6. Policy Enforcement و Security

می‌توان policyهایی تعریف کرد (مثلاً فقط برخی namespaceها یا resourceها قابل دسترسی باشند).

این باعث می‌شود امنیت نسبت به روش قدیمی kubeconfig خیلی بالاتر باشد.

مشکلات روش kubeconfig قدیمی نسبت به GitLab Kubernetes Agent

امنیت :
نیاز به ذخیره kubeconfig در GitLab (ریسک نشت) ارتباط gRPC امن از داخل کلاستر
ا. GitOps محدود : پشتیبانی کامل (Pull-based deployment)
مقیاس‌پذیری سخت : (برای چندین کلاستر) اما در اجنت ساده تر است . (هر کلاستر Agent خودش را دارد)
ا Observability محدود : اما در اجنت یکپارچه با GitLab UI
مدیریت Policy دستی و پشتیبانی داخلی

#devops #gitlab #kubernetes #k8s #grpc #security #linux #cluster

https://t.iss.one/unixmens