Academy and Foundation unixmens | Your skills, Your future
2.29K subscribers
6.68K photos
1.39K videos
1.24K files
6.23K links
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Download Telegram
Academy and Foundation unixmens | Your skills, Your future
https://www.linkedin.com/posts/yashar-esmaildokht_google-borg-kubernetes-ugcPost-7238515381378666496-IuDf?utm_source=share&utm_medium=member_android
ابزار Kubernetes و چالش‌های آن: چرا ترکیب OpenShift/KubeSphere با KubeVirt بهترین گزینه برای سازمان‌هاست؟

مقدمه

بسیاری تصور می‌کنند گوگل از Kubernetes در زیرساخت داخلی خود استفاده می‌کند. در حالی که واقعیت این است که گوگل همچنان از سیستم‌های پیشرفته‌تر خود یعنی Borg و Omega بهره می‌برد؛ زیرا این سیستم‌ها برای مدیریت دیتاسنترهای عظیم گوگل طراحی شده‌اند و در مقیاس‌های فراتر از Kubernetes کارایی بالاتری دارند. Kubernetes در واقع بر اساس تجربیات همان پروژه‌ها ساخته شد و به صورت متن‌باز ارائه گردید تا جامعه جهانی از آن استفاده کند.

اما نکته مهم اینجاست: Kubernetes در دنیای سازمانی امروز، با وجود قدرت و انعطاف‌پذیری بالا، همچنان چالش‌برانگیز است.

چرا Kubernetes چالش‌برانگیز است؟

پیچیدگی عملیاتی: نصب، مدیریت و نگهداری Kubernetes حتی برای تیم‌های حرفه‌ای آسان نیست.

نیاز به مهارت بالا: تیم‌ها باید دانش عمیق در مفاهیم Networking، Storage، Security و CI/CD داشته باشند.

چالش‌های امنیتی: به‌صورت پیش‌فرض امنیت Kubernetes در سطح Enterprise کافی نیست.

مدیریت چندخوشه‌ای (Multi-Cluster): برای سازمان‌های بزرگ به یک کابوس مدیریتی تبدیل می‌شود.

هزینه آموزش و یادگیری: ورود تیم‌های جدید زمان‌بر و پرهزینه است

چرا گوگل هنوز Borg و Omega را ترجیح می‌دهد؟

مقیاس‌پذیری فراتر از Kubernetes: در دیتاسنترهای گوگل که میلیون‌ها کانتینر اجرا می‌شود، Borg و Omega بهینه‌تر هستند.

ثبات و تجربه عملیاتی: گوگل بیش از یک دهه این سیستم‌ها را بهبود داده و آن‌ها را در بالاترین سطح تولیدی استفاده می‌کند.

کاستومایز اختصاصی: Borg و Omega کاملاً بر اساس نیازهای خاص گوگل طراحی شده‌اند، در حالی که Kubernetes یک پلتفرم عمومی برای جامعه جهانی است.

راه‌حل سازمان‌ها: OpenShift و KubeSphere

برای بیشتر سازمان‌ها، استفاده مستقیم از Kubernetes بدون ابزارهای تکمیلی منجر به مشکلات جدی می‌شود. اینجا است که OpenShift و KubeSphere وارد میدان می‌شوند:

OpenShift (Red Hat):

امنیت سازمانی قوی (SELinux، RBAC پیشرفته).

تجربه توسعه‌دهنده کامل (داشبورد، CI/CD داخلی).

پشتیبانی رسمی و Enterprise از سوی Red Hat/IBM.


KubeSphere:

نصب ساده و رابط کاربری کاربرپسند.

مدیریت چند خوشه‌ای (Multi-Cluster) با قابلیت‌های گسترده.

ماژول‌های آماده برای DevOps، نظارت، و Service Mesh.

انتخاب مناسب برای سازمان‌هایی که به سادگی و انعطاف نیاز دارند.

نقش KubeVirt: اتصال VMها و Containerها

یکی از مشکلات رایج سازمان‌ها این است که هنوز بارهای کاری Legacy (روی VMها) دارند.
با KubeVirt:

می‌توان ماشین‌های مجازی و کانتینرها را در یک بستر مشترک مدیریت کرد.

مهاجرت تدریجی از VM به Container بدون نیاز به دو پلتفرم جداگانه امکان‌پذیر می‌شود.

هزینه زیرساخت کاهش پیدا می‌کند و تیم‌ها فقط یک ابزار مدیریت نیاز دارند.


در حالی که گوگل همچنان برای دیتاسنترهای داخلی خود از Borg و Omega استفاده می‌کند، Kubernetes به عنوان استاندارد جهانی معرفی شده است. با این وجود، Kubernetes به‌تنهایی برای سازمان‌ها بسیار چالش‌برانگیز است.

راه‌حل درست برای ورود به دنیای Cloud-Native در سطح سازمانی، استفاده از پلتفرم‌های تکمیلی مثل OpenShift یا KubeSphere و ترکیب آن‌ها با KubeVirt است. این ترکیب نه‌تنها مشکلات پیچیدگی و امنیت را کاهش می‌دهد، بلکه امکان همگرایی کامل میان بارهای کاری سنتی (VM) و مدرن (Container) را فراهم می‌کند.
#kubernetes #devops #clustering #k8s #linux #security #google #borg #omega
https://t.iss.one/unixmens
👍2
Academy and Foundation unixmens | Your skills, Your future
دواپس دیگر یک نقش صرفاً فنی نیست؛ بلکه ترکیبی از فرهنگ، ابزار و تجربه‌های عملی است که به سازمان‌ها کمک می‌کند سرعت، کیفیت و پایداری را همزمان بهبود دهند. اما اینکه یک فرد از چه مسیری وارد این حوزه شود، تأثیر زیادی بر عمق و گستره مهارت‌های او خواهد داشت. به‌طور…
به‌عبارت دیگر، متخصص زیرساخت کسی است که هم شبکه را می‌شناسد، هم کدنویسی بلد است، هم از سیستم‌ها شناخت عمیق دارد، و هم می‌تواند کل این پازل را در قالب یک معماری منسجم کنار هم بچیند.
در واقع زیرساختی‌ها تنها مجری نیستند. به دلیل درک جامع خود، می‌توانند نقش مشاور استراتژیک ایفا کنند و راهکارهایی ارائه دهند که از نظر اقتصادی، امنیتی و عملیاتی بهترین نتیجه را برای سازمان به همراه داشته باشد.

اما چرا ؟

🔹 دلیلش ساده است:
وقتی سال‌ها با سیستم‌عامل، استوریج، دیتابیس، شبکه لینوکسی، HA، replication و tuning کار کرده‌ای، به‌صورت تجربی یاد می‌گیری که:

چطور منابع محدود (CPU, RAM, Disk I/O, Network) را بین سرویس‌ها طراحی و بهینه کنی.

چطور برای scalability، سیستم را افقی (scale-out) یا عمودی (scale-up) توسعه دهی.

چه الگوهایی برای High Availability و Fault Tolerance وجود دارد.

چطور داده را در مقیاس بالا توزیع و ایمن نگه دارد

تفاوت با بقیه مسیرها

برنامه‌نویس‌ها بیشتر روی design در سطح کد (Design Patterns, Microservices Architecture) تمرکز دارند، اما وقتی صحبت از زیرساخت و ظرفیت سیستم می‌شود، عمق لازم را ندارند.

متخصصان شبکه هم system design را معمولاً فقط در لایه‌ی ارتباطات می‌شناسند (topology، routing، segmentation) نه در کل stack.


اما متخصص زیرساخت، وقتی از system design صحبت می‌کند، یعنی دید End-to-End دارد:
از block storage و replication گرفته تا شبکه، دیتابیس و اپلیکیشن.

چرا این در DevOps مهم است؟

چون DevOps فقط ابزار نیست؛ DevOps یعنی طراحی یک سیستم پایدار، مقیاس‌پذیر و قابل‌اعتماد.

اگر system design بلد نباشی، صرفاً ابزارها را به هم می‌دوزی.

ولی اگر system design را بفهمی، ابزارها را بر اساس نیاز واقعی سیستم انتخاب و ترکیب می‌کنی.


به همین خاطر کسی که از زیرساخت آمده، معمولاً در تیم DevOps نقش معمار (Architect) را هم می‌تواند بر عهده بگیرد، در حالی که بقیه مسیرها بیشتر در نقش مجری یا توسعه‌دهنده باقی می‌مانند.



#devops #linux #infra #infrastructure #system #design #network #programmer #developer




https://t.iss.one/unixmens
دوستان دواپسی نکته ای را از یاد نبریم

دواپس نصب سریع ابزار ها نیست .
دواپس سرعت بخشیدن به کارهای تکراری و toil work هست
دواپس یعنی داشتن درک system design .
از یاد نبریم وقتی شغل هایی که مفهوم engineer را یدک میکشن . به معنای ، implementation ، problem solving, optimisation, upgradation هست .

این یعنی دانستن معماری ، تحلیل ، و درک ماهیت اجزا و قابلیت حل مشکلات هست .

هدف نصب و استقرار به جای ۱ ساعت در ۱۰ دقیقه و ندانستن اجزا و رفع اون نیست .

اون مورد سرعت و اتومیشن هم برای bcp و drp هست ، در واقع شناخت اجزای سیستم و قابلیت حل مسائل در شرایط حساس مانند BCP/DRP.


مهندس DevOps بودن، یعنی درک این که ارزش ما فقط در سرعت نصب ابزار نیست، بلکه در توانایی طراحی، تحلیل و حل مسائل پیچیده زیرساختی و سازمانی است.

وهمچنین درک ساختار در موضوعات operation , prosessing , tecnical بخش جدانشدنی از این مسیر است.


#devops #linux #culture #team

https://t.iss.one/unixmens
DevOps has transformed how organizations deliver software by introducing automation, collaboration, and continuous integration/continuous delivery (CI/CD). Yet, databases have traditionally lagged behind in this transformation. Database changes are often managed manually, leading to slow deployments, risks of errors, and lack of visibility. "Database DevOps" aims to close this gap by applying DevOps principles directly to the database lifecycle.

One powerful approach to enabling Database DevOps is combining GitLab CI/CD with Liquibase, a database schema change management tool. This integration allows teams to automate, version, and safely deploy database changes alongside application code.

What is Database DevOps?

Database DevOps (or Database CI/CD) is the practice of managing database schema and data changes with the same rigor as application code. The core principles include:

Version control for database migrations.

Automation of deployment and rollback processes.

Continuous testing of schema and data integrity.

Drift detection to prevent environment inconsistencies.

Collaboration between developers, DBAs, and operations.

Auditing and traceability for compliance and governance.


Elite DevOps teams are 3.4x more likely to adopt database change management practices than low performers, underlining its importance

GitLab and Liquibase Integration

In the GitLab article "How to Bring DevOps to the Database with GitLab and Liquibase", the authors show how Liquibase can be seamlessly integrated into GitLab pipelines to enable full database CI/CD.

Key Components:

1. Liquibase – A tool for managing database migrations through versioned "changesets."


2. GitLab CI/CD – Automates pipelines for building, testing, and deploying database changes.


3. SQL Server (example DB) – The article demonstrates with SQL Server, but the approach applies to other databases too.


Example Pipeline Stages

The tutorial outlines a sample GitLab pipeline with these stages:

Build – Validate Liquibase properties and configurations.

Test – Run Liquibase updateSQL and checks run to ensure safe changes.

Deploy – Apply migrations (liquibase update) to environments (DEV → QA → PROD).

Compare – Use liquibase diff to detect drift between environments.

Post – Create schema snapshots with liquibase snapshot for auditing.

Benefits

1. Automation – Database changes run through the same CI/CD pipeline as code.

2. Validation & Checks – Prevents dangerous operations (DROP, TRUNCATE, etc


3. Rollback Support – Enables reverting last applied updates where possible

4. Drift Detection – Identifies schema inconsistencies between environments

5. Auditing – Snapshots and logs ensure traceability of changes

6. Collaboration – Developers and DBAs work together via version control and merge requests



https://about.gitlab.com/blog/how-to-bring-devops-to-the-database-with-gitlab-and-liquibase/


#database #devops #ci #cd #gitlab
https://t.iss.one/unixmens
unixmens
Academy and Foundation unixmens | Your skills, Your future
DevOps has transformed how organizations deliver software by introducing automation, collaboration, and continuous integration/continuous delivery (CI/CD). Yet, databases have traditionally lagged behind in this transformation. Database changes are often managed…
در دنیای توسعه نرم‌افزار مدرن، تغییرات پایگاه داده به اندازه تغییرات کد اهمیت دارند. اگرچه تیم‌های توسعه به‌طور گسترده از ابزارهایی مانند Git برای مدیریت نسخه‌ی کد استفاده می‌کنند، پایگاه‌های داده همچنان اغلب با روش‌های دستی مدیریت می‌شوند. این رویکرد باعث بروز مشکلاتی همچون ناسازگاری بین محیط‌ها، ریسک بالای خطا، و دشواری در ردیابی تغییرات می‌شود. در این میان، Liquibase به‌عنوان ابزاری قدرتمند برای مدیریت تغییرات پایگاه داده (Database Change Management) معرفی شده است.

ابزارLiquibase چیست؟

ابزارLiquibase یک ابزار متن‌باز و مستقل از پلتفرم است که برای مدیریت تغییرات پایگاه داده استفاده می‌شود. این ابزار به توسعه‌دهندگان و DBAها امکان می‌دهد تغییرات در ساختار پایگاه داده (مانند ایجاد جدول، افزودن ستون یا تغییر ایندکس‌ها) را به صورت کد نسخه‌پذیر (Database as Code) مدیریت کنند.

ابزار Liquibase از فایل‌هایی به نام ChangeLog استفاده می‌کند که شامل مجموعه‌ای از ChangeSetهاست. هر ChangeSet یک تغییر مشخص در پایگاه داده را تعریف می‌کند. به این ترتیب، تغییرات پایگاه داده به صورت تاریخچه‌دار، قابل بازبینی و تکرارپذیر مدیریت می‌شوند

ویژگی‌های کلیدی Liquibase

1. مدیریت نسخه‌ای تغییرات پایگاه داده
تمام تغییرات در قالب ChangeLog ذخیره شده و می‌توان آن‌ها را در مخزن Git مدیریت کرد.


2. قابلیت Rollback
ابزار Liquibase این امکان را فراهم می‌کند که در صورت بروز مشکل، تغییرات اعمال‌شده به عقب بازگردانده شوند.


3. پشتیبانی از فرمت‌های مختلف
در حقیقت ChangeLogها می‌توانند در قالب XML، YAML، JSON یا SQL نوشته شوند.


4. مستقل از پایگاه داده
از اکثر دیتابیس‌های محبوب (Oracle, PostgreSQL, MySQL, SQL Server و غیره) پشتیبانی می‌کند.


5. اتوماسیون در CI/CD
به راحتی با ابزارهای CI/CD مانند GitLab CI/CD، Jenkins، Azure DevOps و غیره یکپارچه می‌شود.


6. گزارش‌گیری و Drift Detection
امکان مقایسه پایگاه داده‌ها و شناسایی اختلافات (Schema Drift) را فراهم می‌سازد.

چرخه کار با Liquibase

1. ایجاد یک ChangeLog جدید و تعریف تغییرات.


2. ثبت تغییرات در سیستم کنترل نسخه (مانند Git).


3. اجرای دستورات Liquibase در محیط توسعه برای اعمال تغییرات.


4. اجرای خودکار در CI/CD pipeline برای انتشار تغییرات به محیط‌های Stage و Production.


5. استفاده از دستورات Diff و Snapshot برای بررسی تغییرات و جلوگیری از ناسازگاری.

مزایا

کاهش ریسک خطا در تغییرات دیتابیس.

بهبود همکاری بین توسعه‌دهندگان و DBAها.

امکان استقرار سریع‌تر و ایمن‌تر.

تضمین یکپارچگی دیتابیس در محیط‌های مختلف
چالش‌ها و محدودیت‌ها

برخی تغییرات (مانند حذف ستون‌های حاوی داده) به راحتی قابل Rollback نیستند.

نیاز به آموزش تیم‌ها برای تعریف ChangeSetها به صورت استاندارد.

مدیریت تغییرات پیچیده در دیتابیس‌های بزرگ ممکن است زمان‌بر باشد.



در حقیقت Liquibase ابزاری قدرتمند برای آوردن مفاهیم DevOps به دنیای پایگاه داده است. این ابزار با فراهم کردن امکان نسخه‌پذیری، Rollback، و اتوماسیون تغییرات، به سازمان‌ها کمک می‌کند پایگاه داده‌های خود را با همان کیفیت و سرعت کد نرم‌افزار مدیریت کنند. در نتیجه، استقرار تغییرات پایدارتر، سریع‌تر و قابل اعتمادتر خواهد بود.


#database #devops #dba #ci #cd
@unixmens
من در حوزه DevOps فعالیت میکنم و همچنین سالهاست در حوزه پایگاه داده فعالیت میکنم . بالای ۹ سال oracle dba بودم .
به طور میانگین عرض کنم . بالای ۷۰ درصد مشکلات performance مربوط به app ها در سمت پایگاه داده است .
این موضوع در database DevOps هم معنا پیدا کرده .
همچنین از یاد نبریم database storage engine ها و فلسفه اون ها و تفاوت engine ها را .
در هر پایگاه داده هم این مفاهیم به نحوی در معماری اون گنجانده شده .
از یاد نبریم پایگاه داده بدون system design مثل پرنده ای است که پرواز نمیکند .

به طور خلاصه:

واقعیت این است که خیلی از تیم‌ها وقتی درباره DevOps حرف می‌زنند، لایه‌ی داده را به چشم «black box» نگاه می‌کنند؛ در حالی‌که همان‌طور که گفتیم، بیش از ۷۰٪ مشکلات performance معمولاً ریشه در design و behavior پایگاه داده دارد، نه صرفاً در کد یا سرور اپلیکیشن.

چند نکته در ادامه‌ی برای تکمیل بحث:

در واقع Database DevOps یعنی درآوردن پایگاه داده از حاشیه و آوردنش به چرخه‌ی تحویل مستمر — دقیقاً مثل application code.
یعنی پایگاه داده هم باید versioned، testable و deployable باشد (مثلاً با ابزارهایی مثل Liquibase, Flyway, Alembic).
در موردش چندین مقاله نوشتم .

موضوع Storage Engine‌ها — مثل InnoDB، RocksDB، WiredTiger یا حتی ASM در Oracle — در واقع قلب تپنده‌ی رفتار سیستم هستند.
تفاوت در write pattern، buffer management، concurrency control، transaction isolation و logging مستقیماً روی latency و throughput اپ اثر می‌گذارد.


نکته بعدی : System Design برای پایگاه داده همان چیزی است که خیلی‌ها از آن غافل‌اند.
اگر schema design، index strategy، partitioning logic و data lifecycle مدیریت نشود، هیچ tuning یا DevOps pipeline نمی‌تواند نجاتش دهد.

#devops #database #dba #tips

https://t.iss.one/unixmens
3👍2
مفهوم ارتقا و رشد پایدار
چگونه انسان و ماشین در هم تنیده اند !؟؟
در واقع من دواپس هستم یا دواپس من !!؟

در فلسفهٔ هگل، فرایند دیالکتیکی از سه مرحله تشکیل می‌شود:

1. تز (Thesis) – گزاره یا ایدهٔ اولیه


2. آنتی‌تز (Antithesis) – نفی یا تقابل با ایدهٔ اولیه


3. سنتز (Synthesis) – مرحلهٔ فراتر که از دلِ تضادِ میان تز و آنتی‌تز زاده می‌شود و هر دو را در سطحی بالاتر رفع (Aufhebung) می‌کند.



🔹 توضیح بیشتر:
در نگاه هگل، حرکت تاریخ، اندیشه و هستی همگی دیالکتیکی هستند؛ یعنی رشد و تکامل از راه تضاد و نفی رخ می‌دهد.
سنتز نه صرفاً سازش، بلکه ادغام خلاقانه و برتری یافتن بر هر دو سوی تضاد است.

مثلاً:

تز: آزادی فردی

آنتی‌تز: نظم اجتماعی

سنتز: نظامی که هم آزادی فرد را حفظ می‌کند و هم نظم جامعه را برقرار می‌سازد (مانند دولت عقلانی در فلسفه هگل).


اگر بخواهیم ساده بگوییم:

> تز می‌گوید «الف»،
آنتی‌تز می‌گوید «نه الف»،
سنتز می‌گوید «هم الف و هم نه الف، اما در سطحی بالاتر».

واژه‌ی Aufhebung یکی از عمیق‌ترین و چندلایه‌ترین مفاهیم در فلسفه‌ی هگل است — واژه‌ای که ترجمه‌ی ساده‌ای ندارد و سه معنای هم‌زمان را در خود دارد:

1. نفی کردن (لغو) – چیزی از بین می‌رود یا رد می‌شود.


2. حفظ کردن (نگه‌داشتن) – با وجود نفی، جوهر و ارزش درونی آن چیز حفظ می‌شود.


3. بالا بردن (ارتقا دادن) – کل فرآیند در سطحی بالاتر و غنی‌تر ادامه می‌یابد.



هگل عمداً از واژه‌ای استفاده می‌کند که این سه معنا را هم‌زمان در خود داشته باشد. چون از دید او، در دیالکتیک هیچ چیز «کاملاً نابود» نمی‌شود؛ بلکه نفی می‌شود تا در سطحی بالاتر حفظ گردد.

🔹 نمونه‌ی ساده:
در رشد انسان:

کودک → نوجوان → بزرگسال


"بزرگسال" هم کودک نیست (نفی)، هم تجربه‌ها و ویژگی‌های دوران کودکی را در خود دارد (حفظ)، و هم آن‌ها را به سطحی بالاتر از آگاهی و تعقل رسانده (ارتقا).

🔹 در سطح فلسفی:
وقتی یک «تز» با «آنتی‌تز» روبه‌رو می‌شود، تضاد آن‌ها در «سنتز» از بین نمی‌رود، بلکه در سنتز رفع (Aufgehoben) می‌شود؛ یعنی هم نفی می‌شود، هم حفظ، و هم ارتقا.

به تعبیر زیبای هگل:

در واقع Aufhebung روحِ دیالکتیک است؛ همان چیزی که از تضاد، زندگی می‌سازد.


1. تز (Thesis)

ایده یا وضعیت اولیه.
در این مرحله، یک گزاره یا واقعیت مطرح می‌شود.
مثلاً: «فرد باید آزاد باشد.»

2. آنتی‌تز (Antithesis)

ایده‌ای در تضاد با تز پدیدار می‌شود.
مثلاً: «جامعه باید نظم داشته باشد؛ آزادی کامل موجب هرج‌ومرج می‌شود.»

3. سنتز (Synthesis)

اینجاست که تضاد میان تز و آنتی‌تز، به‌جای حذف یکی از آن‌ها،
در سطحی بالاتر رفع (Aufhebung) می‌شود.

این "رفع" یعنی:

نفی → تز و آنتی‌تز دیگر به شکل قبلی وجود ندارند.

حفظ → جوهر هر دو در سنتز باقی می‌ماند.

ارتقا → نتیجه، سطح بالاتری از فهم و واقعیت را نمایندگی می‌کند.


مثلاً:

آزادیِ فردی درونِ نظمِ اجتماعی — جایی که آزادی و نظم نه متضاد، بلکه مکمل‌اند.

مثال روزمره برای درک ساده‌تر:

تز: احساسات مهم‌تر از عقل‌اند.

آنتی‌تز: عقل مهم‌تر از احساسات است.

سنتز (Aufhebung): عقل و احساس باید در تعادل باشند؛ هر دو لازم‌اند.
نکتهٔ کلیدی:

در نظام هگل، این چرخه فقط یک‌بار اتفاق نمی‌افتد (تکرار پذیر و ادامه دار )
بلکه پیوسته تکرار می‌شود و هر سنتز، خود به تزِ مرحله‌ی بعد تبدیل می‌شود.
به این ترتیب، آگاهی، تاریخ، و جهان به‌صورت مارپیچی صعودی رشد می‌کنند.


رجوع شود به مفاهیم cmmi , agile ، scrum یا devops process

#devops #linux
https://t.iss.one/unixmens