Academy and Foundation unixmens | Your skills, Your future
2.28K subscribers
6.65K photos
1.36K videos
1.23K files
5.99K links
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Download Telegram
چرا kubekey بهتر است ؟


در واقع KubeKey یک ابزار منبع باز است که برای نصب و مدیریت کلاسترهای Kubernetes طراحی شده است. این ابزار به کاربران این امکان را می‌دهد که به راحتی کلاسترهای Kubernetes را بر روی زیرساخت‌های مختلف، از جمله Bare Metal، ماشین‌های مجازی و همچنین ارائه‌دهندگان ابری راه‌اندازی کنند.

ویژگی‌های KubeKey:

1. نصب آسان: KubeKey فرآیند نصب Kubernetes را ساده می‌کند و به کاربران این امکان را می‌دهد که با چند دستور ساده، کلاستر خود را راه‌اندازی کنند.

2. پشتیبانی از انواع زیرساخت‌ها: KubeKey می‌تواند بر روی زیرساخت‌های مختلفی مانند Bare Metal، VMware، OpenStack و همچنین ارائه‌دهندگان ابری مانند AWS و GCP نصب شود.

3. پیکربندی سفارشی: کاربران می‌توانند پیکربندی‌های مختلفی را برای کلاستر خود انتخاب کنند و به راحتی آن‌ها را سفارشی‌سازی کنند.

4. مدیریت کلاستر: KubeKey همچنین ابزارهایی برای مدیریت و نگهداری کلاسترهای Kubernetes ارائه می‌دهد، از جمله به‌روزرسانی‌ها و مقیاس‌پذیری.

5. دسترس‌پذیری بالا: این ابزار به کاربران کمک می‌کند تا کلاسترهایی با دسترس‌پذیری بالا راه‌اندازی کنند و از قابلیت‌های مقیاس‌پذیری Kubernetes بهره‌مند شوند.

این ابزار تمام CNI کوبر را پشتیبانی می کنه .
فرض کنید شما قبلا با این ابزار کوبرنتیس خودتان را پیاده سازی نکردید . خوب مشکلی نیست . (برای مثال : شما با rancher استفاده کردید ) . این ابزار پشتیبانی میکنه .
باید بگم Kubekey همان Kuberspary است ، از Kubeadm برای استقرار خوشه ها استفاده می کند.
و Kubekey مبتنی بر Go و ansible هست .بنابراین نیازی به تکیه بر برخی از نرم افزارهای اساسی مانند Python Ansible نیست. همچنین این ساختار باعث می شود سرعت نصب Kubekey سریعتر باشد ، که برای نصب خوشه ای در محیط آفلاین مفید است.

اما ویژگی دیگش : میتونید بصورت air-gap هم نصب کنید .
همچنین Kubekey از افزونه ها برای سفارشی سازی ها هنگام نصب کلاستر ها پشتیبانی می کند.
ویژگی قشنگترش اینه که کنسول تحت وب هم داره .
این ابزار ساختار manifestو artifact داره .


./kk artifact export -m manifest-sample.yaml

در واقع در یک محیط آفلاین ، شما با KK برای ساخت config-sample.yaml استفاده میکنید
در یک محیط آفلاین ، هنگام استفاده از دستورات خوشه ای و ارتقاء خوشه ، image ها به طور پیش فرض به رجیستری خصوصی منتقل می شود. اگر رجیستری خصوصی به اطلاعات احراز هویت نیاز دارد ، می توانید آن را در قسمت .spec.registry.auths در پرونده config-sample.yaml پیکربندی کنیم

نکته بعدی : ریجستری ساختن تو kubekey هم دنیایی هست . میتونید ریجستری بسازید . یا artifact هاش را به ریجستری که دوست دارید ارسال کنید : برای مثال :


./kk init registry -f config-sample.yaml -a kubekey-artifact.tar.gz


برای push :

./kk artifact image push -f config-sample.yaml -a kubekey-artifact.tar.gz





دارم کتابی در موردش مینویسم . وقتی تمام شد . بصورت آزاد منتشر خواهم کرد .


#kubekey #k8s #kubernetes


https://t.iss.one/unixmens
👍31
Uncertain times call for greater operational control and IT resiliency, which is why so many organisations are now exploring the issue of digital sovereignty.At this midway point in 2025, you hardly need to be an expert in global geopolitics to feel uneasy about the state of the world. From flare-ups in regional conflicts to volatile trade dynamics have placed fresh concerns on international supply chains for both physical and digital goods, with the potential to affect everyone, everywhere, to some extent.Against this febrile backdrop, it’s no surprise that I’m frequently asked by busines

via Red Hat Blog https://ift.tt/VZcvpiX
With large language models (LLMs) quickly advancing and becoming more and more integrated into mission-critical enterprise workflows, their capability to accurately reason and respond to very domain-specific and highly specialized knowledge matters. This is especially the case in the cybersecurity space, where the stakes are high and where accuracy is critical and often assumed to be a given. Thus, assessing the performance of LLMs on realistic and high-quality benchmarks specific to cybersecurity is not only useful, but also necessary.This blog post describes our evaluation of a number

via Red Hat Blog https://ift.tt/unN4hEj
While organizations are quickly adopting private and local AI solutions due to data privacy and full control over deployment scenarios, they still face performance and resource challenges during inference, or when the model is actually processing data. Fortunately, the latest open large language models (LLMs) are now as robust as closed models, but the key to maximizing performance and efficiency is through model optimization and compression.We know that open models enable customization without vendor lock-in or prohibitive costs, and this article will guide you through the process of getting

via Red Hat Blog https://ift.tt/ODQFiGs
Managing Red Hat Enterprise Linux 10 (RHEL) requires simple and flexible tools and capabilities that cater to the specific needs of your environment. Red Hat provides exactly that, with a portfolio of management tools. This article introduces you to the newest and most exciting management features, focusing on Red Hat Insights, Red Hat Satellite and integrated management options within RHEL 10.How it all works togetherRed Hat has a suite of management tools and products that provide comprehensive control over and visibility into your RHEL environment. This includes built-in management capabili

via Red Hat Blog https://ift.tt/hsXnAby
Red Hat OpenShift Virtualization 4.19 is now generally available, expanding its capabilities to better meet the demands of hybrid cloud infrastructure, enhanced virtual machine (VM) management and global scale. With new platform availability, networking enhancements, live storage migration and an improved user experience, this release helps teams operate more efficiently, wherever they choose to run their workloads. Learn what's new in our OpenShift Virtualization 4.19 release. Flexible infrastructure: Expanding your reach and control Organizations are increasingly leveraging hybrid cloud stra

via Red Hat Blog https://ift.tt/WxDUeFw
Red Hat's most recent posts about Performance, Scale, Chaos and more.LATEST BLOGSFeature Introduction: Multiple IOthreads for OpenShift VirtualizationJune 23, 2025 Jenifer AbramsThis new feature allows VM disk I/O to be spread among multiple submission threads, which are also mapped to multiple disk queues inside the VM. The combination of these two options allows VMs to more efficiently utilize both vcpus and host cpus for periods of highly threaded I/O load, which can lead to greatly improved performance in many cases. For more background on how this feature is implemented in KVM, see this

via Red Hat Blog https://ift.tt/TDSpm2f
به گزارش سرویس جهانی بی‌بی‌سی، پاول دوروف، بنیان‌گذار تلگرام، اعلام کرد که ثروت ۱۳.۹ میلیارد دلاری‌اش را میان بیش از ۱۰۰ فرزندی که پدر آن‌هاست، به‌طور مساوی تقسیم خواهد کرد. او گفت به‌طور رسمی پدر شش کودک از سه شریک زندگی است، اما در نتیجه اهدای اسپرم در یک کلینیک طی ۱۵ سال گذشته، بیش از ۱۰۰ کودک در ۱۲ کشور از او متولد شده‌اند. او تاکید کرد همه این فرزندان از حقوق مساوی برخوردار خواهند بود. دوروف گفت با هدف اینکه فرزندانم «خودسازی کنند و به حساب بانکی وابسته نباشند» دسترسی آنها به ارث تا ۳۰ سال آینده مسدود خواهد بود».
دوروف که هم‌اکنون در دبی زندگی می‌کند و تابعیت فرانسه و امارات را دارد، تلگرام را در سال ۲۰۱۳ پس از ترک شبکه اجتماعی روسی «وی‌کی» تاسیس کرد. او تاکید دارد که دفاع از آزادی بیان برایش دشمنان زیادی ساخته و به همین دلیل زودتر وصیت‌نامه‌اش را تنظیم کرده است. تلگرام به دلیل قابلیت تشکیل گروه‌های بزرگ، بارها مورد انتقاد قرار گرفته، اما دوروف و تیمش می‌گویند روزانه ده‌ها هزار کانال و میلیون‌ها محتوای ناقض قوانین را حذف می‌کنند.
🔻حمله سایبری به NHS باعث مرگ یک بیمار شد

🔹بنیاد درمانی کینگ کالج اعلام کرد که یک بیمار در جریان حمله سایبری سال گذشته به سرویس ملی بهداشت بریتانیا (NHS) پس از آن‌که به دلیل انتظار طولانی برای دریافت نتیجه آزمایش خون خود دچار مشکل شد، به‌طور غیرمنتظره‌ای جان خود را از دست داد.

🔹دریک میچلسون، رئیس سابق امنیت اطلاعات NHS اسکاتلند و مدیر فعلی امنیت سایبری شرکت چک پوینت در این مورد، خطاب به عاملان این حمله گفت: شما فقط به سیستم‌ها یا داده‌ها حمله نکردید بلکه سلامت انسان‌ها را هدف قرار دادید. شما مردم را هدف گرفتید و اکنون یکی از آن‌ها جان خود را از دست داده است. این مسئولیت بزرگی است.

شرکت Synnovis که در جنوب شرقی لندن، خدمات آزمایش خون ارائه می‌دهد، سوم ژوئن سال 2024 هدف یک حمله باج‌افزاری قرار گرفت که تصور می‌شود توسط گروه روسی Qilin انجام شده باشد.




در کشور ما قرار هست کی پاسخگو باشند ؟؟؟
گروه APT Iran مدعی نفوذ به سامانه سوخت‌رسانی آمریکا شده است

در بیانیه این گروه آمده است:
ما اعلام می‌داریم که در سه روز گذشته، چندین حمله موفق از نوع "False Data Injection" به دستگاه‌های کنترلی در ایالات متحده آمریکا که از خدمات AT&T استفاده می‌کنند، انجام دادیم. این حملات با تغییر مقادیر ثبت‌کننده‌ها (registers) و تزریق داده‌ها با فرکانس ۶۰۰ دور در دقیقه اجرا شده‌اند. همان‌طور که در تصویر ارسالی مشاهده می‌شود، ابزارهایی توسط ما توسعه یافته‌اند که به‌طور خاص برای ایجاد اخلال و نابودی با سرعت بالا در خواندن و نوشتن اطلاعات در این سیستم‌ها طراحی شده‌اند.

هدف اصلی این ابزارها، سوق دادن دستگاه‌ها به وضعیت بحرانی نظیر انفجار یا خارج شدن از سرویس است. با اطمینان اعلام می‌کنیم که در بدبینانه‌ترین سناریو، این دستگاه‌ها در حال حاضر متوقف شده و قادر به ارائه خدمات نیستند. همچنین، خرابی‌های قابل‌توجهی به این تجهیزات وارد خواهد شد. هدف ما از این اقدامات، تحقق آزادی مردم آمریکا است.
گزارش یک نظرسنجی از صد متخصص حوزه‌ ابری و امنیت درباره وضعیت امنیت هوش مصنوعی در سازمان‌هایشان، تصویر نسبتا دقیقی از مراحل اولیه بلوغ امنیت در حوزه‌ هوش مصنوعی و خطرات آن ارائه می‌دهد.
منبع : bleepingcomputer
گزارش یک نظرسنجی از صد متخصص حوزه‌ ابری و امنیت درباره وضعیت امنیت هوش مصنوعی در سازمان‌هایشان، تصویر نسبتا دقیقی از مراحل اولیه بلوغ امنیت در حوزه‌ هوش مصنوعی و خطرات آن ارائه می‌دهد.
 
گزارش نظرسنجی Wiz و Gatepoint Research از صد متخصص حوزه‌ ابری و امنیت ـ از معماران و مهندسان گرفته تا مدیران ارشدـ نشان می‌دهد سازمان‌ها در مسیر ابری خود در چه مرحله‌ای هستند، چطور از هوش مصنوعی استفاده می‌کنند، دغدغه‌های اصلی‌شان چیست و چه راهکارهایی را برای حفاظت از این محیط‌های پویا در پیش گرفته‌اند یا نگرفته‌اند. یافته‌های این نظرسنجی، تصویری واقعی و دست‌اول از مراحل اولیه بلوغ امنیت در حوزه‌ هوش مصنوعی ارائه می‌دهد و خطراتی را که همراه آن است ترسیم می‌کند.
 
استفاده از هوش مصنوعی تقریباً همه‌گیر شده اما تخصص امنیتی در این زمینه عقب مانده است
۸۷٪ از پاسخ‌دهندگان به نوعی از خدمات هوش مصنوعی استفاده می‌کنند. اما ۳۱٪ می‌گویند نبود تخصص در امنیت هوش مصنوعی، بزرگ‌ترین چالش آن‌هاست . در حالی که نوآوری در حوزه‌ هوش مصنوعی سرعت گرفته، تیم‌های امنیتی عقب مانده‌اند.
 
ابزارهای اختصاصی امنیت هوش مصنوعی هنوز کمیاب‌اند و کنترل‌های سنتی همچنان غالب‌اند
فقط ۱۳٪ گفته‌اند که از ابزارهای مدیریت وضعیت اختصاصی برای هوش مصنوعی (AI-SPM) استفاده می‌کنند. در مقابل، راهکارهای امنیتی سنتی بسیار رایج‌ترند: ۵۳٪ شیوه‌های توسعه امن را پیاده کرده‌اند، ۴۱٪ از  tenant isolation  استفاده می‌کنند و ۳۵٪ ممیزی‌های منظم برای شناسایی «هوش مصنوعی در سایه» انجام می‌دهند. این کنترل‌های پایه‌ای اهمیت زیادی دارند، اما به‌تنهایی پاسخگوی سرعت، مقیاس و پیچیدگی رشد هوش مصنوعی نیستند.

#security #ai
@unixmens
زیرساخت‌های ترکیبی و چندابری به یک هنجار جدید تبدیل شده‌اند اما ابزارها هنوز عقب‌اند
۴۵٪ از پاسخ‌دهندگان از رایانش ابری ترکیبی استفاده می‌کنند و ۳۳٪ در محیط‌های چندابری فعالیت دارند. با این حال فقط یک‌سوم از پلتفرم‌های بومی ابری مانند CNAPP یا CSPM بهره می‌برند. بیشتر تیم‌ها همچنان به روش‌های امنیتی نقطه‌ای متکی‌اند که برای زیرساخت‌های مدرن ـ یا بار کاری مرتبط با هوش مصنوعی ـ مقیاس‌پذیر نیستند.
سازمان‌ها می‌دانند از امنیت هوش مصنوعی چه می‌خواهند اما همیشه نمی‌توانند عمل کنند
وقتی از شرکت‌کنندگان درباره اولویت‌های اصلی امنیت هوش مصنوعی پرسیده شد، «حفظ حریم خصوصی داده‌ها» (۶۹٪)، «دید کامل نسبت به تهدیدات» (۶۲٪) و «سهولت در یکپارچه‌سازی» (۵۱٪) را مهم‌ترین موارد دانستند.
با این حال ۲۵٪ هم اعتراف کردند که اصلاً نمی‌دانند چه خدمات هوش مصنوعی در محیط‌هایشان در حال اجراست! یعنی با وجود اهداف مشخص، بسیاری از تیم‌ها هنوز دید کافی یا فرآیندهای عملیاتی لازم را برای رسیدن به این اهداف ندارند، به‌ویژه در محیط‌های غیرمتمرکزی که هوش مصنوعی اغلب بدون نظارت مرکزی وارد می‌شود.

این گزارش نشان می‌دهد که تیم‌های ابری و امنیتی چطور به موج سریع هوش مصنوعی پاسخ می‌دهند و چه کارهایی لازم است انجام دهند تا شکاف امنیتی بیشتر نشود. هوش مصنوعی در حال تغییر شیوه ساختارهای نرم‌افزاری است اما بیشتر سازمان‌ها از نظر امنیتی هنوز با این تحولات همگام نشده‌اند.
با مفهوم pod و deployment و تفاوت های آن آشنا شویم :

پاد بخشی از کوبرنتیز است که کانتینرها در آن قرار می‌گیرند. دیپلویمنت نیز به عنوان ابزاری برای مشخص‌کردن نحوه عملکرد پاد شناخته می‌شود.

در کوبرنتیز، پاد به یک کانتینر تنها یا مجموعه‌ای از کانتینرهای مرتبط به هم گفته می‌شود که منابع ذخیره‌سازی اپلیکیشن و شبکه‌های مربوط به آن را به اشتراک می‌گذارند. پاد به عنوان کوچک‌ترین و جزئی‌ترین عضو کلاستر در سرویس کوبرنتیز شناخته می‌شود

یک توسعه‌دهنده یا مدیر پروژه یا دواپس مجموعه‌ای از پادهای لازم برای اجرای یک اپلیکیشن را در کوبرنیتز طراحی می‌کند. سرویس کوبرنتیز نیز به واسطه توانایی در مدیریت داده‌ها می‌تواند این اطلاعات گوناگون در پادهای مختلف را مدیریت کند
دیپلویمنت در سرویس کوبرنتیز رفتار یا ویژگی‌های مدنظر درباره یک کانتینر را مشخص می‌کند. مدیران پروژه‌های مختلف از دیپلویمنت برای شخصی‌سازی و تخصصی‌کردن رفتار هر پاد در پروژه خود استفاده می‌کنند. در واقع ویژگی هایی که در deployment هست . در pod نیست !!!

در زیر به برخی از ویژگی‌ها و قابلیت‌هایی که Deployment دارد و Pod ندارد، اشاره میکنم :
1. مدیریت نسخه‌ها (Versioning)

ا Deployment: امکان مدیریت نسخه‌های مختلف یک برنامه را فراهم می‌کند. شما می‌توانید به راحتی نسخه‌های جدید را مستقر کنید و در صورت نیاز به نسخه‌های قبلی برگردید.
ا Pod: فقط یک نمونه از یک کانتینر را اجرا می‌کند و هیچ قابلیت مدیریت نسخه ندارد.

2. تدریجی بودن استقرار (Rolling Updates)

ا Deployment: به شما این امکان را می‌دهد که به‌روزرسانی‌ها را به صورت تدریجی انجام دهید، به طوری که تعداد مشخصی از پادها به‌روزرسانی شوند و در صورت بروز مشکل، به حالت قبلی برگردند.
ا Pod: به‌روزرسانی‌ها را به صورت دستی و بدون کنترل بر روی تعداد پادهای در حال اجرا انجام می‌دهد.

3. خودکارسازی (Self-healing)

ا Deployment: در صورت بروز خطا در یکی از پادها، به طور خودکار آن را جایگزین می‌کند و اطمینان حاصل می‌کند که تعداد مشخصی از پادها همیشه در حال اجرا هستند.
ا Pod: خود به خود نمی‌تواند پادهای معیوب را جایگزین کند و نیاز به مدیریت دستی دارد.

4. مقیاس‌پذیری (Scaling)

ا Deployment: می‌توانید به راحتی تعداد پادها را افزایش یا کاهش دهید و این تغییرات به طور خودکار در کلاستر اعمال می‌شود.
ا Pod: برای مقیاس‌پذیری، باید پادهای جدید را به صورت دستی ایجاد کنید.

5. مدیریت وضعیت (State Management)

ا Deployment: وضعیت فعلی و مورد انتظار پادها را پیگیری می‌کند و در صورت نیاز به طور خودکار به وضعیت مطلوب برمی‌گردد.
ا Pod: فقط وضعیت خود را نشان می‌دهد و هیچ قابلیت مدیریت وضعیت ندارد.

6. استفاده از الگوها (Templates)

ا Deployment: از الگوهای (templates) برای تعریف نحوه ایجاد پادها استفاده می‌کند، که شامل تنظیمات کانتینر، برچسب‌ها و سایر ویژگی‌ها است.
ا Pod: فقط یک نمونه از یک کانتینر را تعریف می‌کند و هیچ الگوی خاصی ندارد.


خب شیرین بود ؟؟؟؟


خب حالا ما فرضا یه pod داریم . آیا میتونیم تبدیلش کنیم به deployments ؟؟؟؟


باید گفت : بلی


مراحل تبدیل Pod به Deployment

دریافت تنظیمات Pod:
ابتدا باید تنظیمات Pod فعلی خود را دریافت کنید. می‌توانید از دستور زیر استفاده کنید:




kubectl get pod <pod-name> -o yaml > pod.yaml


این دستور تنظیمات Pod را در یک فایل به نام pod.yaml ذخیره می‌کند.

فایل pod.yaml را باز کنید و تغییرات اعمال کنید:

تغییر نوع منبع: در بالای فایل، kind: Pod را به kind: Deployment تغییر دهید.
اضافه کردن metadata: یک بخش spec جدید اضافه کنید که شامل تعداد تکرارها (replicas) و الگوی (template) Pod باشد.
تنظیمات selector: یک بخش selector اضافه کنید که برچسب‌های Pod را مشخص کند.

به عنوان مثال، فایل شما ممکن است به شکل زیر باشد:



apiVersion: apps/v1
kind: Deployment
metadata:
name: my-deployment
spec:
replicas: 3
selector:
...


در ادامه


kubectl apply -f deployment.yaml



نکته : اگر دیگر به Pod قدیمی نیاز ندارید، می‌توانید آن را حذف کنید




kubectl delete pod <pod-name>



نکات :

تعداد تکرارها: در بخش replicas می‌توانید تعداد پادهایی که می‌خواهید در حال اجرا باشند را مشخص کنید.
برچسب‌ها: اطمینان حاصل کنید که برچسب‌ها در بخش selector و template یکسان باشند تا Deployment بتواند پادها را به درستی مدیریت کند.

با این مراحل، شما می‌توانید یک Pod را به یک Deployment تبدیل کنید و از قابلیت‌های بیشتر Deployment در کوبرنتیز بهره‌مند شوید.
#kubernetes #k8s #tips

https://t.iss.one/unixmens
👍3
Model Context Protocol (MCP) is a powerful protocol from Anthropic that defines how to connect large language models (LLMs) to external tools. It has quickly gained traction due to its ease of use and the benefits it adds in our use of AI. In this article we'll cover some of the potential security risks you'll encounter with MCP and how you can approach mitigating them.How MCP worksMCP does not directly connect LLMs with tools. The MCP client component accesses the LLM, and the MCP server component accesses the tools. One MCP client has access to one or more MCP servers. Users may connect any

via Red Hat Blog https://ift.tt/izaA2So
The topic of virtualization is often the subject of enhanced scrutiny in health insurance organizations. Insurers use it to provide secure, remote access to data and applications for employees, boosting efficiency and collaboration. For their members, virtualization enables virtual care, self-service tools, faster claims and personalized support, improving satisfaction and health outcomes in a digital world.When a U.S.-based health insurer faced the need to move to a more modern virtualization platform, it required a swift and reliable path forward—one that would meet today’s evolving dema

via Red Hat Blog https://ift.tt/YJt8sjK
2
Mim Rasouli - Hayhat
لاله اکبر
( موسیقی امام حسین - محرم)
3