آیا با privoxy آشنا هستید و کار بردهای آن را میدانید ؟
#security #privoxy #proxy #net #devops #linux
#security #privoxy #proxy #net #devops #linux
Linkedin
🔐 آیا با privoxy آشنا هستید ؟
در واقع Privoxy یک نرمافزار پروکسی فیلترینگ وب (Filtering Web Proxy) است که به صورت open-source منتشر شده و قابلیتهای پیشرفتهای برای حفظ حریم خصوصی کاربران، فیلتر کردن محتوا، حذف تبلیغات و مدیریت دسترسی به وبسایتها فراهم میکند. این ابزار بر اساس Internet…
The latest migration toolkit for virtualization (MTV) 2.9 release introduces pivotal features to minimize business disruptions and accelerate migrations to Red Hat OpenShift Virtualization. Initiated by certified storage partner Hitachi Vantara, MTV 2.9 includes a storage offloading functionality for cold migrations. As a primary driver for the development of this feature, Hitachi Vantara is the first to have their offload driver reach technology preview. This feature delegates the data copy process to the underlying storage systems rather than using network resources to reduce downtime signif
via Red Hat Blog https://ift.tt/7jwrPKL
via Red Hat Blog https://ift.tt/7jwrPKL
Redhat
Accelerate virtual machine migrations with the migration toolkit for virtualization 2.9
The latest migration toolkit for virtualization (MTV) 2.9 release introduces pivotal features to minimize business disruptions and accelerate migrations to Red Hat OpenShift Virtualization. Initiated by certified storage partner Hitachi Vantara, MTV 2.9 includes…
Boston Children's Hospital is at the forefront of medical imaging innovation, piloting AI-powered analysis with Red Hat OpenShift to revolutionize fetal and pediatric care. Dr. Rudolph Pienaar, a computational scientist and technical director of the Fetal Neonatal Neuroimaging and Developmental Science Center (FNNDSC) at Boston Children’s Hospital, answers our questions on how open source platforms and advanced computing are enhancing image quality, automating complex analyses and facilitating critical data sharing. He explains how this is transforming healthcare to be more accessible and ef
via Red Hat Blog https://ift.tt/dGj9pHl
via Red Hat Blog https://ift.tt/dGj9pHl
Redhat
Open source and AI are transforming healthcare at Boston Children’s Hospital
Boston Children's Hospital is at the forefront of medical imaging innovation, piloting AI-powered analysis with Red Hat OpenShift to revolutionize fetal and pediatric care.
We continue to expand our certified integrations with HashiCorp Terraform. With the Red Hat Ansible Certified Collection for HashiCorp Terraform availability, organizations can use Ansible Automation Platform together with Terraform Enterprise and HCP Terraform to gain enterprise capabilities for infrastructure lifecycle management. This release makes it easier for teams to unify their automation efforts between Ansible Automation Platform and Terraform Enterprise and HCP Terraform.The provider for initiating Ansible Automation Platform workflows from HashiCorp Terraform was recently updated.
via Red Hat Blog https://ift.tt/TDZPLMs
via Red Hat Blog https://ift.tt/TDZPLMs
Redhat
The Red Hat Ansible Certified Collection for Terraform has been updated to support HashiCorp Terraform
Unlock new integration between HashiCorp Terraform (Terraform Enterprise and HCP Terraform) and Red Hat Ansible Automation Platform. Gain enterprise capabilities for infrastructure lifecycle management, unify automation efforts, and improve efficiency. Learn…
This media is not supported in your browser
VIEW IN TELEGRAM
God is my Lord .
🌐 ژاپن رکورد جهانی سرعت اینترنت با ۱.۰۲ پتابیت در ثانیه شکست
مرکز مطالعات ژاپن در توییتی به زبان فارسی اعلام کرد که این کشور موفق شده است رکورد جهانی سرعت اینترنت را با دستیابی به نرخ بیسابقه ۱.۰۲ پتابیت بر ثانیه بشکند؛ سرعتی که به گفته این مرکز، برای دانلود تمام محتوای نتفلیکس تنها در یک ثانیه کافی است.
در ادامه این توییت، مرکز مطالعات ژاپن برای درک بهتر این دستاورد توضیح داده که از نظر تئوری این سرعت میتواند در هر ثانیه حدود ۱۲ هزار فیلم کامل با کیفیت ۴K را منتقل کند. به گفته این مرکز، این رکورد به لطف پیشرفت در فناوری فیبر نوری چندهستهای که توسط مؤسسه ملی فناوری اطلاعات و ارتباطات ژاپن (NICT) توسعه یافته، به دست آمده است.
مرکز مطالعات ژاپن در توییتی به زبان فارسی اعلام کرد که این کشور موفق شده است رکورد جهانی سرعت اینترنت را با دستیابی به نرخ بیسابقه ۱.۰۲ پتابیت بر ثانیه بشکند؛ سرعتی که به گفته این مرکز، برای دانلود تمام محتوای نتفلیکس تنها در یک ثانیه کافی است.
در ادامه این توییت، مرکز مطالعات ژاپن برای درک بهتر این دستاورد توضیح داده که از نظر تئوری این سرعت میتواند در هر ثانیه حدود ۱۲ هزار فیلم کامل با کیفیت ۴K را منتقل کند. به گفته این مرکز، این رکورد به لطف پیشرفت در فناوری فیبر نوری چندهستهای که توسط مؤسسه ملی فناوری اطلاعات و ارتباطات ژاپن (NICT) توسعه یافته، به دست آمده است.
اختلالات اینترنت با وام به کسب و کارها جبران میشود؟
وزارت ارتباطات و فناوری اطلاعات بهتازگی از آغاز ارائه تسهیلات مالی به کسبوکارهای دیجیتال آسیبدیده از جنگ ۱۲ روزه خبر داده است؛ اقدامی که نهتنها ابهامات زیادی درباره نحوه، میزان و اثرگذاری آن مطرح میکند، بلکه این سؤال را هم پیش میکشد: وزارتخانهای که مسئول اصلی پاسخگویی در خصوص قطعی و اختلالهای شدید اینترنت است٬ حالا چگونه در جایگاه جبران خسارت نشسته است؟
وظیفه وزارتخانه؛ توسعه یا توزیع پول؟
آنطور که ایرنا گزارش داده٬ ستار هاشمی وزیر ارتباطات پس از اتصال مجدد اینترنت ببینالملل شروع به بازدید میدانی از برخی کسبوکارهای حوزه اقتصاد دیجیتال کرده و پس از گفتوگو با صاحبین کسب و کارها این ماموریت یعنی ارائه تسهیلات را برای وزارت خانه خود تعریف کرده است. نکته قابل توجه اینجاست که حتی در شرایط عادی هم ارائه مستقیم تسهیلات مالی به کسبوکارها از سوی دولت، محل سؤال است؛ چرا که وظیفه دولت تسهیلگری، توسعه زیرساختها و کاهش موانع است، نه ورود به نقش سرمایهگذار یا جبرانکننده.
البته این تصمیم از سمت وزارت ارتباطات و دولت برای اعطای تسهیلات به کسبوکارها مسبوق به سابقه است و پیشتر نیز به اشکال مختلف توسط همین وزارتخانه، معاونت علمی و صندوق نوآوری و شکوفایی تجربه شده است. انتشار آمار و ارقام این وامها طی سالهای گذشته حتی با موجی از انتقادها در فضای مجازی نیز همراه شد و بسیاری از فعالان این حوزه با اشاره به نبود شفافیت در تخصیص منابع، خواستار انتشار فهرست دقیق دریافتکنندگان این تسهیلات شده بودند. از طرفی تجربه سالهای اخیر نشان داده که پروژههای تسهیلات محور دولتی در قالب طرحهای حمایت از دانشبنیانها و یا اشکال دیگر نتوانسته تحول قابل توجهی در روند توسعه شرکتهای استارتاپی و اقتصاد دیجیتال کشور ایجاد کند.
اما پرسش مهمتر این است که وزارت ارتباطات با چه دادهای، چه معیاری و بر چه مبنایی تشخیص داده که چه کسانی مستحق این تسهیلات هستند؟ و اصولاً آیا این ۱۰ هزار میلیارد ریال، حتی درصدی از خسارات تحمیلشده به کسبوکارها را پوشش میدهد؟
تلاش برای پاک کردن صورت مسئله
آنطور که بسیاری از کارشناسان و فعالان حوزه اینترنت میگویند٬ بخش بزرگی از خسارتهایی که در جنگ ۱۲ روزه به کسبوکارهای دیجیتال وارد شد، نه صرفاً بهدلیل جنگ، بلکه ناشی از قطع و محدودیت شدید اینترنت بینالملل بوده است. با این حال، به نظر میرسد وزارتخانه و شخص وزیر به عنوان متولی زیرساخت و مسئول کیفیت شبکه به جای پذیرش مسئولیت و ارائه توضیح شفاف درباره قطع اینترنت و آسیبهای گسترده آن، تلاش دارند با بازدید از چند استارتاپ و وعده تسهیلات مالی، به نحوی صورت مسئله را پاک کنند.
در چنین شرایطی، مسئولان وزارت ارتباطات به جای محکوم کردن قطع اینترنت یا انتقاد از فیلترینگ گسترده — که خود یکی از دلایل آسیبپذیری شبکه است — معمولاً کسبوکارها و کاربران را به استفاده از سرویسهای بومی و کوچ به سرورهای داخلی تشویق میکنند. این رویکرد پیشتر در اظهارات چند سال پیش وزیر ارتباطات در یک توییت درباره لزوم راهاندازی «گیتهاب بومی» مشاهده شده بود که با واکنشهای زیادی از سوی کاربران هم مواجه شده بود. از طرفی طی این سالها اخبار مختلفی از حمایت وزارتخانه از انواع مدلهای اینترنت طبقاتی با نامهایی مانند «منطقه آزاد سایبری» و «اینترنت اساتید» و ... دیده شده که این طرحها نیز همواره با اعتراض شدید کارشناسان و مخالفت گسترده کاربران روبهرو شدهاند.
از سوی دیگر، چند روز پیش معاون وزیر ارتباطات در اظهار نظری قابل تأمل گفته بود: «تداوم برخی محدودیتهای اینترنتی به وزارت ارتباطات ارتباطی ندارد و مراجع مسئول باید درباره دلایل واقعی طولانیشدن این محدودیتها شفافسازی کنند.» همین جمله این پرسش را پررنگتر میکند که آیا وزارت ارتباطات عملاً نقش خود را نهفقط بهعنوان متولی فیلترینگ، بلکه حتی بهعنوان مسئول کیفیت و پایداری ارتباطات نیز از دست داده است؟ آیا وزارت ارتباطات با اقداماتی مانند ارائه تسهیلات به کسبوکارها تلاش میکند انفعال خود را در حوزه ماموریت اصلیاش، یعنی کیفیت شبکه و زیرساخت، جبران کند؟
اینترنت همچنان مختل است
طبق گزارشها و اظهار نظرهای متعدد از سوی کاربران، حتی حالا که جنگ به پایان رسیده است، اینترنت هنوز به شرایط عادی بازنگشته و کیفیت آن بهشدت پایینتر از دوران قبل از جنگ است. همچنین به گفته بسیاری از کارشناسان٬ شبکه همچنان با محدودیتهای گسترده و سرعت پایین مواجه است و دسترسی به برخی از سرویسهای بینالمللی برای بسیاری از کسبوکارها با مشکل جدی همراه است؛ بهگونهای که حتی واتساپ — که مدتی پیش بهطور رسمی رفع فیلتر شده بود — بدون استفاده از VPN بهسختی و با اختلال قابل دسترسی است.
وزارت ارتباطات و فناوری اطلاعات بهتازگی از آغاز ارائه تسهیلات مالی به کسبوکارهای دیجیتال آسیبدیده از جنگ ۱۲ روزه خبر داده است؛ اقدامی که نهتنها ابهامات زیادی درباره نحوه، میزان و اثرگذاری آن مطرح میکند، بلکه این سؤال را هم پیش میکشد: وزارتخانهای که مسئول اصلی پاسخگویی در خصوص قطعی و اختلالهای شدید اینترنت است٬ حالا چگونه در جایگاه جبران خسارت نشسته است؟
وظیفه وزارتخانه؛ توسعه یا توزیع پول؟
آنطور که ایرنا گزارش داده٬ ستار هاشمی وزیر ارتباطات پس از اتصال مجدد اینترنت ببینالملل شروع به بازدید میدانی از برخی کسبوکارهای حوزه اقتصاد دیجیتال کرده و پس از گفتوگو با صاحبین کسب و کارها این ماموریت یعنی ارائه تسهیلات را برای وزارت خانه خود تعریف کرده است. نکته قابل توجه اینجاست که حتی در شرایط عادی هم ارائه مستقیم تسهیلات مالی به کسبوکارها از سوی دولت، محل سؤال است؛ چرا که وظیفه دولت تسهیلگری، توسعه زیرساختها و کاهش موانع است، نه ورود به نقش سرمایهگذار یا جبرانکننده.
البته این تصمیم از سمت وزارت ارتباطات و دولت برای اعطای تسهیلات به کسبوکارها مسبوق به سابقه است و پیشتر نیز به اشکال مختلف توسط همین وزارتخانه، معاونت علمی و صندوق نوآوری و شکوفایی تجربه شده است. انتشار آمار و ارقام این وامها طی سالهای گذشته حتی با موجی از انتقادها در فضای مجازی نیز همراه شد و بسیاری از فعالان این حوزه با اشاره به نبود شفافیت در تخصیص منابع، خواستار انتشار فهرست دقیق دریافتکنندگان این تسهیلات شده بودند. از طرفی تجربه سالهای اخیر نشان داده که پروژههای تسهیلات محور دولتی در قالب طرحهای حمایت از دانشبنیانها و یا اشکال دیگر نتوانسته تحول قابل توجهی در روند توسعه شرکتهای استارتاپی و اقتصاد دیجیتال کشور ایجاد کند.
اما پرسش مهمتر این است که وزارت ارتباطات با چه دادهای، چه معیاری و بر چه مبنایی تشخیص داده که چه کسانی مستحق این تسهیلات هستند؟ و اصولاً آیا این ۱۰ هزار میلیارد ریال، حتی درصدی از خسارات تحمیلشده به کسبوکارها را پوشش میدهد؟
تلاش برای پاک کردن صورت مسئله
آنطور که بسیاری از کارشناسان و فعالان حوزه اینترنت میگویند٬ بخش بزرگی از خسارتهایی که در جنگ ۱۲ روزه به کسبوکارهای دیجیتال وارد شد، نه صرفاً بهدلیل جنگ، بلکه ناشی از قطع و محدودیت شدید اینترنت بینالملل بوده است. با این حال، به نظر میرسد وزارتخانه و شخص وزیر به عنوان متولی زیرساخت و مسئول کیفیت شبکه به جای پذیرش مسئولیت و ارائه توضیح شفاف درباره قطع اینترنت و آسیبهای گسترده آن، تلاش دارند با بازدید از چند استارتاپ و وعده تسهیلات مالی، به نحوی صورت مسئله را پاک کنند.
در چنین شرایطی، مسئولان وزارت ارتباطات به جای محکوم کردن قطع اینترنت یا انتقاد از فیلترینگ گسترده — که خود یکی از دلایل آسیبپذیری شبکه است — معمولاً کسبوکارها و کاربران را به استفاده از سرویسهای بومی و کوچ به سرورهای داخلی تشویق میکنند. این رویکرد پیشتر در اظهارات چند سال پیش وزیر ارتباطات در یک توییت درباره لزوم راهاندازی «گیتهاب بومی» مشاهده شده بود که با واکنشهای زیادی از سوی کاربران هم مواجه شده بود. از طرفی طی این سالها اخبار مختلفی از حمایت وزارتخانه از انواع مدلهای اینترنت طبقاتی با نامهایی مانند «منطقه آزاد سایبری» و «اینترنت اساتید» و ... دیده شده که این طرحها نیز همواره با اعتراض شدید کارشناسان و مخالفت گسترده کاربران روبهرو شدهاند.
از سوی دیگر، چند روز پیش معاون وزیر ارتباطات در اظهار نظری قابل تأمل گفته بود: «تداوم برخی محدودیتهای اینترنتی به وزارت ارتباطات ارتباطی ندارد و مراجع مسئول باید درباره دلایل واقعی طولانیشدن این محدودیتها شفافسازی کنند.» همین جمله این پرسش را پررنگتر میکند که آیا وزارت ارتباطات عملاً نقش خود را نهفقط بهعنوان متولی فیلترینگ، بلکه حتی بهعنوان مسئول کیفیت و پایداری ارتباطات نیز از دست داده است؟ آیا وزارت ارتباطات با اقداماتی مانند ارائه تسهیلات به کسبوکارها تلاش میکند انفعال خود را در حوزه ماموریت اصلیاش، یعنی کیفیت شبکه و زیرساخت، جبران کند؟
اینترنت همچنان مختل است
طبق گزارشها و اظهار نظرهای متعدد از سوی کاربران، حتی حالا که جنگ به پایان رسیده است، اینترنت هنوز به شرایط عادی بازنگشته و کیفیت آن بهشدت پایینتر از دوران قبل از جنگ است. همچنین به گفته بسیاری از کارشناسان٬ شبکه همچنان با محدودیتهای گسترده و سرعت پایین مواجه است و دسترسی به برخی از سرویسهای بینالمللی برای بسیاری از کسبوکارها با مشکل جدی همراه است؛ بهگونهای که حتی واتساپ — که مدتی پیش بهطور رسمی رفع فیلتر شده بود — بدون استفاده از VPN بهسختی و با اختلال قابل دسترسی است.
This media is not supported in your browser
VIEW IN TELEGRAM
🌐دفاع دولت از اینترنت طبقاتی و بدون فیلتر برای خبرنگاران
مهاجرانی سخنگوی دولت: دولت با اینترنت آزاد موافق است اما قبل از آن اگر خبرنگاری به اینترنت آزادتری نیاز داشته باشد ، باید به او داد.
مهاجرانی سخنگوی دولت: دولت با اینترنت آزاد موافق است اما قبل از آن اگر خبرنگاری به اینترنت آزادتری نیاز داشته باشد ، باید به او داد.
🤬2
This media is not supported in your browser
VIEW IN TELEGRAM
🌐 سخنگوی دولت: برخی از پهپادها برای ترور از اینترنت استفاده میکردند و برای حفظ امنیت مردم نیاز بود به اینترنت ملی مهاجرت کنیم.
👍1🤬1🥱1
Here’s a detailed summary of SPDK v25.05, released on May 29, 2025, and marked as a Long-Term Support (LTS) version spanning through the next LTS, v26.01 spdk.io+13
spdk.io+13
spdk.io+13
:
🚀 Major New Features
1. NVMe PCIe Interrupt Mode
The NVMe library and NVMe block device (“bdev”) module now support PCIe interrupt mode (beyond the default polling).
This enables hybrid configurations—better suited for low-load environments to reduce CPU usage while maintaining performance. spdk.io+5
spdk.io+5
GitHub+5
2. DIF Insert / Strip
The bdev layer now supports integrated Data Integrity Field (DIF) operations.
You can automatically insert protection metadata with outgoing I/O and strip/verify it on incoming data.
Useful for offload of integrity protection in enterprise storage protocols. GitHub+5
spdk.io+5
spdk.io+5
newreleases.io
3. mlx5 Accel Platform Driver
SPDK introduces a new mlx5 platform driver, enabling offload via Mellanox/NVIDIA NICs.
This driver can perform a combined sequence: RDMA_READ ➝ RDMA_WRITE ➝ encrypt/decrypt in a single atomic operation.
Utilizes User‑Memory Region (UMR) registration to modify memory key properties—streamlining complex protocols like secure RDMA NVMe-oF. fossies.org+13
spdk.io+13
spdk.io+13
GitHub+1
newreleases.io+1
🏗 Additional Enhancements & APIs
bdev API improvements:
spdk_bdev_open_ext_v2(): more flexible I/O open options.
Metadata queries based on the hide_metadata flag. spdk.io+4
GitHub+4
newreleases.io+4
Metadata buffer control: Support for inserting or overwriting based on NVMe PRACT bits in spdk_bdev_ext_io_opts. GitHub+1
newreleases.io+1
🗓 Timeline & Support
LTS version released May 29, 2025.
Supported until the next LTS – v26.01 (scheduled ~2026 January). GitHub+2
spdk.io+2
spdk.io+2
spdk.io
The next non-LTS release, v25.09, is slated for late September 2025. NVIDIA Docs+12
spdk.io+12
newreleases.io+12
🔍 Context & Relevance
SPDK (Storage Performance Development Kit) is a robust, user-space toolkit for maximizing storage I/O performance, with features like polling mode, thread-per-core architecture, and minimal kernel dependencies NVIDIA Docs+9
spdk.io+9
fossies.org+9
.
The v25.05 release continues the trend of offloading, efficient I/O paradigms, and enterprise-grade data protection.
💡 Why This Matters
Interrupt support helps reduce CPU load when full polling isn’t needed—ideal for mixed workload environments.
Built‑in DIF means fewer moving parts and reduced code complexity for apps with data-protection needs.
Hardware offload using mlx5 accelerates encrypted storage traffic and RDMA workloads, boosting throughput and lowering latency.
#storage #kit #performance #spdk #release
https://t.iss.one/unixmens
spdk.io+13
spdk.io+13
:
🚀 Major New Features
1. NVMe PCIe Interrupt Mode
The NVMe library and NVMe block device (“bdev”) module now support PCIe interrupt mode (beyond the default polling).
This enables hybrid configurations—better suited for low-load environments to reduce CPU usage while maintaining performance. spdk.io+5
spdk.io+5
GitHub+5
2. DIF Insert / Strip
The bdev layer now supports integrated Data Integrity Field (DIF) operations.
You can automatically insert protection metadata with outgoing I/O and strip/verify it on incoming data.
Useful for offload of integrity protection in enterprise storage protocols. GitHub+5
spdk.io+5
spdk.io+5
newreleases.io
3. mlx5 Accel Platform Driver
SPDK introduces a new mlx5 platform driver, enabling offload via Mellanox/NVIDIA NICs.
This driver can perform a combined sequence: RDMA_READ ➝ RDMA_WRITE ➝ encrypt/decrypt in a single atomic operation.
Utilizes User‑Memory Region (UMR) registration to modify memory key properties—streamlining complex protocols like secure RDMA NVMe-oF. fossies.org+13
spdk.io+13
spdk.io+13
GitHub+1
newreleases.io+1
🏗 Additional Enhancements & APIs
bdev API improvements:
spdk_bdev_open_ext_v2(): more flexible I/O open options.
Metadata queries based on the hide_metadata flag. spdk.io+4
GitHub+4
newreleases.io+4
Metadata buffer control: Support for inserting or overwriting based on NVMe PRACT bits in spdk_bdev_ext_io_opts. GitHub+1
newreleases.io+1
🗓 Timeline & Support
LTS version released May 29, 2025.
Supported until the next LTS – v26.01 (scheduled ~2026 January). GitHub+2
spdk.io+2
spdk.io+2
spdk.io
The next non-LTS release, v25.09, is slated for late September 2025. NVIDIA Docs+12
spdk.io+12
newreleases.io+12
🔍 Context & Relevance
SPDK (Storage Performance Development Kit) is a robust, user-space toolkit for maximizing storage I/O performance, with features like polling mode, thread-per-core architecture, and minimal kernel dependencies NVIDIA Docs+9
spdk.io+9
fossies.org+9
.
The v25.05 release continues the trend of offloading, efficient I/O paradigms, and enterprise-grade data protection.
💡 Why This Matters
Interrupt support helps reduce CPU load when full polling isn’t needed—ideal for mixed workload environments.
Built‑in DIF means fewer moving parts and reduced code complexity for apps with data-protection needs.
Hardware offload using mlx5 accelerates encrypted storage traffic and RDMA workloads, boosting throughput and lowering latency.
#storage #kit #performance #spdk #release
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
summary_resume2025.pdf
491.5 KB
رزومه فارسی
In enterprise Kubernetes environments, security risks often arise from overlapping administrative access. Platform engineers, infrastructure operators and developers may all touch sensitive resources, like secrets. This creates opportunities for privilege misuse or data exposure. By separating admin duties using Confidential Containers, organizations can prevent insider threads, simplify compliance, and align with zero-trust principles.Kubernetes role-based access control (RBAC) enforces access policies by defining roles and permissions for users, groups, and service accounts. It allows you to
via Red Hat Blog https://ift.tt/oXKLl8q
via Red Hat Blog https://ift.tt/oXKLl8q
Redhat
Reduce risk in Kubernetes: How to separate admin roles for safer, compliant operations
In enterprise Kubernetes environments, security risks often arise from overlapping administrative access. Confidential Clusters focuses on isolating a Kubernetes cluster (control plane and worker nodes) from the infrastructure layer.
BBC Tech Life - Quantum question timeRed Hat's Chris Wright talks with BBC about how the IOWN Global Forum is working to connect the world at the speed of light with photonics-based networks. Learn more Accelerate virtual machine migrations with the migration toolkit for virtualization 2.9The latest migration toolkit for virtualization (MTV) 2.9 release introduces pivotal features to minimize business disruptions and accelerate migrations to Red Hat OpenShift Virtualization. Learn more Open source and AI are transforming healthcare at Boston Children’s HospitalDr. Rudolph Pienaar, a computat
via Red Hat Blog https://ift.tt/GY6HuUC
via Red Hat Blog https://ift.tt/GY6HuUC
Redhat
Friday Five — July 18, 2025
The Friday Five is a weekly Red Hat blog post with 5 of the week's top news items and ideas from or about Red Hat and the technology industry.
Note from the editor: This blog post was originally published in November 2023 and has been updated to include the latest feature enhancements for Red Hat Ansible Automation Platform subscribers. Red Hat Ansible Lightspeed with IBM watsonx Code Assistant is a generative AI (gen AI) service within Red Hat Ansible Automation Platform that is engineered to help automation teams create, adopt and maintain Ansible content more efficiently.In this post, we’ll walk through the capabilities of Ansible Lightspeed with IBM watsonx Code Assistant to help you turbocharge Ansible content creation experie
via Red Hat Blog https://ift.tt/4NlUhW1
via Red Hat Blog https://ift.tt/4NlUhW1
Redhat
Getting started with Red Hat Ansible Lightspeed with IBM watsonx Code Assistant
In this blog, we’ll walk through the steps to get Ansible Lightspeed with IBM watsonx Code Assistant up and running for your organization. We’ll share how end users can set up the service in their Visual Studio Code (VS Code) environment. We’ll also share…
The demand for AI talent has surged by 450% in the last five years, and 65% of future generations will work in jobs that don’t yet exist. AI is transforming industries, economies and daily life at an unprecedented pace. By 2030, AI is projected to add $15.7 trillion to the global economy, and the European Union plans to invest €20 billion per year in AI initiatives. Yet, despite this rapid growth, a critical challenge remains: the AI skills gap. A Red Hat EMEA survey showed that AI is a key driver of cloud investments for IT managers, yet AI is the #1 skills gap for respondents.At Red Hat,
via Red Hat Blog https://ift.tt/Sc76r2Y
via Red Hat Blog https://ift.tt/Sc76r2Y
The demand for AI talent has surged by 450% in the last five years, and 65% of future generations will work in jobs that don’t yet exist. AI is transforming industries, economies and daily life at an unprecedented pace. By 2030, AI is projected to add $15.7 trillion to the global economy, and the European Union plans to invest €20 billion per year in AI initiatives. Yet, despite this rapid growth, a critical challenge remains: the AI skills gap. A Red Hat EMEA survey showed that AI is a key driver of cloud investments for IT managers, yet AI is the #1 skills gap for respondents.At Red Hat,
via Red Hat Blog https://ift.tt/PbxOihS
via Red Hat Blog https://ift.tt/PbxOihS
Redhat
Making AI accessible to all: our collaboration with Teens in AI
Learn how Red Hat is collaborating with Teens in AI to bridge the AI skills gap, empower young innovators, and build an open and accessible future for AI.
Firewalls are essential components in cybersecurity that control incoming and outgoing network traffic based on predetermined security rules. Firewalls can be categorized in several ways based on how they operate and where they are deployed.
Here’s a breakdown of types of firewalls:
🔹 1. Packet-Filtering Firewalls
How it works: Inspects packets (headers) and allows or blocks them based on IP addresses, ports, or protocols.
Layer: Network Layer (Layer 3)
Pros: Fast and simple
Cons: Doesn’t inspect payloads; limited protection against complex threats
🔹 2. Stateful Inspection Firewalls
How it works: Tracks the state of active connections and makes decisions based on the context of the traffic (e.g., TCP handshake).
Layer: Network & Transport Layers (Layer 3 & 4)
Pros: More secure than packet-filtering; tracks connection state
Cons: More resource-intensive than stateless filtering
🔹 3. Application-Level Gateways (Proxy Firewalls)
How it works: Acts as a proxy between users and the resources they access, inspecting the actual data (e.g., HTTP traffic).
Layer: Application Layer (Layer 7)
Pros: Deep inspection of traffic; can log and filter based on content
Cons: Slower performance; more complex to manage
🔹 4. Next-Generation Firewalls (NGFW)
How it works: Combines traditional firewall with advanced features like:
Deep Packet Inspection (DPI)
Intrusion Detection/Prevention (IDS/IPS)
Application awareness
User identity tracking
Layer: Multi-layer (3 to 7)
Pros: Advanced threat detection, modern security capabilities
Cons: Expensive; requires skilled admins
🔹 5. Circuit-Level Gateways
How it works: Monitors TCP handshakes and sessions without inspecting packet contents.
Layer: Session Layer (Layer 5)
Pros: Lightweight and fast
Cons: No payload inspection; can’t prevent content-based attacks
🔹 6. Cloud-Based Firewalls (Firewall-as-a-Service – FWaaS)
How it works: Centralized firewall delivered via the cloud, protects users and devices regardless of their location.
Use case: Remote workers, branch offices, hybrid clouds
Pros: Scalable, easy to deploy, no physical hardware
Cons: Internet dependency; trust in third-party provider
🔹 7. Web Application Firewalls (WAF)
How it works: Specifically filters, monitors, and blocks HTTP/S traffic to and from web applications.
Focus: Protects against OWASP Top 10 (e.g., SQLi, XSS)
Pros: Essential for modern web apps and APIs
Cons: Not a full replacement for a network firewall
🔹 8. Host-Based Firewalls
How it works: Software-based firewall installed on individual servers or endpoints.
Scope: Local to the host
Pros: Fine-grained control; protects even if the network firewall is bypassed
Cons: Must be configured on each host; hard to manage at scale
🔹 9. Virtual Firewalls
How it works: Deployed in virtual environments (e.g., VMware, KVM, OpenStack) to secure VM traffic.
Use case: Cloud and virtualized data centers
Pros: Agile, integrates with SDN and orchestration
Cons: Requires knowledge of virtual infrastructure
#security #firewall #linux #kernel
https://t.iss.one/unixmens
Here’s a breakdown of types of firewalls:
🔹 1. Packet-Filtering Firewalls
How it works: Inspects packets (headers) and allows or blocks them based on IP addresses, ports, or protocols.
Layer: Network Layer (Layer 3)
Pros: Fast and simple
Cons: Doesn’t inspect payloads; limited protection against complex threats
🔹 2. Stateful Inspection Firewalls
How it works: Tracks the state of active connections and makes decisions based on the context of the traffic (e.g., TCP handshake).
Layer: Network & Transport Layers (Layer 3 & 4)
Pros: More secure than packet-filtering; tracks connection state
Cons: More resource-intensive than stateless filtering
🔹 3. Application-Level Gateways (Proxy Firewalls)
How it works: Acts as a proxy between users and the resources they access, inspecting the actual data (e.g., HTTP traffic).
Layer: Application Layer (Layer 7)
Pros: Deep inspection of traffic; can log and filter based on content
Cons: Slower performance; more complex to manage
🔹 4. Next-Generation Firewalls (NGFW)
How it works: Combines traditional firewall with advanced features like:
Deep Packet Inspection (DPI)
Intrusion Detection/Prevention (IDS/IPS)
Application awareness
User identity tracking
Layer: Multi-layer (3 to 7)
Pros: Advanced threat detection, modern security capabilities
Cons: Expensive; requires skilled admins
🔹 5. Circuit-Level Gateways
How it works: Monitors TCP handshakes and sessions without inspecting packet contents.
Layer: Session Layer (Layer 5)
Pros: Lightweight and fast
Cons: No payload inspection; can’t prevent content-based attacks
🔹 6. Cloud-Based Firewalls (Firewall-as-a-Service – FWaaS)
How it works: Centralized firewall delivered via the cloud, protects users and devices regardless of their location.
Use case: Remote workers, branch offices, hybrid clouds
Pros: Scalable, easy to deploy, no physical hardware
Cons: Internet dependency; trust in third-party provider
🔹 7. Web Application Firewalls (WAF)
How it works: Specifically filters, monitors, and blocks HTTP/S traffic to and from web applications.
Focus: Protects against OWASP Top 10 (e.g., SQLi, XSS)
Pros: Essential for modern web apps and APIs
Cons: Not a full replacement for a network firewall
🔹 8. Host-Based Firewalls
How it works: Software-based firewall installed on individual servers or endpoints.
Scope: Local to the host
Pros: Fine-grained control; protects even if the network firewall is bypassed
Cons: Must be configured on each host; hard to manage at scale
🔹 9. Virtual Firewalls
How it works: Deployed in virtual environments (e.g., VMware, KVM, OpenStack) to secure VM traffic.
Use case: Cloud and virtualized data centers
Pros: Agile, integrates with SDN and orchestration
Cons: Requires knowledge of virtual infrastructure
#security #firewall #linux #kernel
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Red Hatters Atul Deshpande, Principal Chief Architect, and Rob McManus, Principal Product Marketing Manager, have just returned from Digital Transformation World Ignite (DTW) Copenhagen, the annual gathering for discussing operational support systems/business support systems (OSS/BSS), TM Forum’s Open Digital Architecture (ODA) and IT architectures. This year’s focus was on autonomous intelligent networks. Customers and partners were eager to learn how artificial intelligence (AI) is crucial for autonomous intelligent networks and how Red Hat is collaborating with partners to create effect
via Red Hat Blog https://ift.tt/CFyP9gk
via Red Hat Blog https://ift.tt/CFyP9gk
Redhat
Telco autonomous networks choosing: the right cloud and framework
Explore how Red Hat collaborates with telecom service providers to build open hybrid cloud environments for autonomous intelligent networks.