Academy and Foundation unixmens | Your skills, Your future
2.28K subscribers
6.65K photos
1.36K videos
1.23K files
6K links
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Download Telegram
رشد سریع دیتاسنترهای ابری، شبکه‌های 5G و سرویس‌های Cloud-native، نیاز به پردازش پرسرعت بسته‌های شبکه بیش از هر زمان دیگری اهمیت پیدا کرده است. روش سنتی مبتنی بر Kernel Networking Stack به دلیل overhead بالا، پاسخگوی نیازهای امروزی نیست.

برای رفع این مشکل دو رویکرد اصلی مطرح شده‌اند:

ا DPDK (Data Plane Development Kit): رویکرد Kernel bypass در User Space

ا eBPF/XDP (extended Berkeley Packet Filter): پردازش انعطاف‌پذیر در Kernel Space
اینجا به بررسی هر یک میپردازیم :

معماری و فلسفه طراحیeBPF

ا eBPF یک مکانیزم درون‌هسته‌ای (in-kernel) است که به برنامه‌ها اجازه می‌دهد کدهای کوچک و امن را در کرنل لینوکس اجرا کنند. فلسفه اصلی آن انعطاف‌پذیری و قابلیت مشاهده (observability) است. eBPF به کاربران اجازه می‌دهد بدون تغییر در کرنل، منطق دلخواه خود را در سطح شبکه، امنیت و مانیتورینگ اضافه کنند. برنامه‌های eBPF در محیطی ایزوله (sandbox) اجرا می‌شوند و توسط verifier کرنل اعتبارسنجی می‌شوند تا مانع ایجاد مشکلات پایداری شوند.



ا DPDK یک مجموعه کتابخانه و درایور است که هدف اصلی آن حداکثرسازی سرعت پردازش بسته‌ها در فضای کاربر (user space) است. فلسفه آن مبتنی بر دور زدن کرنل و حذف لایه‌های سربار مانند socket و interrupt است. DPDK با استفاده از تکنیک‌هایی مانند polling و zero-copy، پردازش بسته‌ها را به شکل مستقیم از NIC (کارت شبکه) به فضای کاربر منتقل می‌کند.

عملکرد و کارایی

ا eBPF بیشتر بر روی انعطاف‌پذیری و قابلیت برنامه‌ریزی تمرکز دارد. این یعنی می‌توان بدون نوشتن ماژول کرنل، سیاست‌های پیچیده فایروال، ردیابی جریان‌ها و ابزارهای observability مانند bcc یا Cilium را ساخت. از نظر کارایی، سرعت آن مناسب است اما به دلیل وجود در کرنل، همچنان محدودیت‌هایی دارد.

ا DPDK برای عملکرد خام (raw performance) طراحی شده است. در سیستم‌هایی که نیاز به میلیون‌ها بسته در ثانیه (Mpps) وجود دارد، DPDK انتخاب بهتری است. اما این سرعت با مصرف بالاتر منابع CPU و پیچیدگی بیشتر توسعه همراه است.

سطح پیاده‌سازی و توسعه

ا eBPF توسعه‌دهندگان را قادر می‌سازد با استفاده از زبان C یا LLVM-based زبان‌ها، کدهای کوچک و قابل بررسی تولید کنند. توسعه آن ساده‌تر است زیرا مستقیماً با کرنل لینوکس ادغام شده و نیاز به مدیریت مستقیم منابع سخت‌افزاری ندارد.

ا DPDK توسعه‌دهنده را ملزم می‌کند که با سطح پایین‌تری از سخت‌افزار و پردازش بسته‌ها کار کند. برنامه‌نویسی با DPDK نیازمند درک عمیق از معماری CPU، حافظه و NIC است.

کاربردها eBPF

ساخت فایروال‌های مدرن مانند Cilium در Kubernetes.

مانیتورینگ شبکه، سیستم و عملکرد برنامه‌ها (مانند bpftrace).

امنیت در سطح هسته با قابلیت مشاهده دقیق رفتار برنامه‌ها.

ابزارهای observability برای Cloud-native environments.

DPDK

ساخت سیستم‌های SDN و NFV با کارایی بالا.

استفاده در فایروال‌ها، load balancerها و IDS/IPS با نیاز به throughput بسیار بالا.

محیط‌هایی که latency و jitter باید حداقل باشد، مانند مخابرات و 5G core.

زیرساخت‌های دیتاسنتر با پردازش میلیون‌ها بسته در ثانیه.

مزایا و محدودیت‌ها

ا eBPF مزایای بزرگی مانند سادگی توسعه، امنیت، قابلیت ترکیب با ابزارهای موجود لینوکس و عدم نیاز به bypass کرنل دارد. محدودیت اصلی آن، کارایی پایین‌تر نسبت به DPDK در بارهای بسیار سنگین است.

ا DPDK در کارایی بی‌نظیر است اما توسعه پیچیده‌تر، نیاز به منابع CPU بالا، و مدیریت دشوارتر دارد. همچنین برخلاف eBPF، tightly coupled با کرنل نیست و قابلیت observability گسترده ارائه نمی‌دهد.


مکمل بودن

ا eBPF و DPDK الزاماً رقیب مستقیم نیستند. در بسیاری از معماری‌های مدرن، این دو مکمل هم هستند:

ا eBPF: برای مشاهده‌پذیری (observability)، مانیتورینگ، امنیت و کنترل.

ا DPDK: برای دیتاپلین پرسرعت و پردازش سنگین بسته‌ها


#linux #kernel #devops #kubernetes #ebpf #dpdk


https://t.iss.one/unixmens
2
🥶 کشف Backdoor در تراشه های Nvidia فروخته شده به چین! احضار مدیران انویدیا توسط مقامات چینی
مقامات چینی نمایندگان انویدیا را برای بحث در مورد «مسائل امنیتی جدی» در مورد برخی از تراشه‌های هوش مصنوعی این شرکت احضار کردند.
انویدیا تولیدکننده پیشرو در جهان در زمینه نیمه‌هادی‌های هوش مصنوعی است، اما ایالات متحده به دلایل امنیت ملی، عملاً تراشه‌هایی را که می‌تواند به چین صادر کند، محدود می‌کند.
یکی از مسائل کلیدی، دسترسی چین به «H20»، نسخه‌ای کم‌قدرت‌تر از واحدهای پردازش هوش مصنوعی انویدیا است که این شرکت به‌طور خاص برای صادرات به چین توسعه داده است.
این شرکت مستقر در کالیفرنیا این ماه اعلام کرد که پس از تعهد واشنگتن برای حذف محدودیت‌های صدور مجوز که صادرات را متوقف کرده بود، فروش H20 به چین را از سر خواهد گرفت.
اداره فضای مجازی چین اعلام کرد از انویدیا خواسته است خطرات امنیتی آسیب‌پذیری‌ها و بکدورها در تراشه‌های H20 فروخته شده به چین را توضیح دهد.
Quality of Internet 0503.pdf
11.2 MB
پنجمین گزارش کیفیت اینترنت ایران منتشر شد.
د
ر این گزارش آمده است: رتبه جهانی اینترنت ایران ۹۷ از ۱۰۰ کشور جهان است و فقط بهتر از کوبا، آنگولا، اتیوپی، سودان است.
این گزارش همچنین تاکید می‌کند که ۹۳ درصد از جوانان از فیلترشکن استفاده می‌کنند.
متن کامل این گزارش را بخوانید.
😱1
Digital sovereignty is not a new topic, but recent events on the world stage have catapulted it to the top of the top of boardroom agendas and government priorities alike. According to a 2025 BARC study, 84% of surveyed companies view data sovereignty as a central point of their strategy, and 70 percent report significantly increased relevance in the past one to two years. Meanwhile, industry analyst firm Gartner forecasts the sovereign cloud IaaS market will be worth $169 billion in 2028, up from $37 billion last year.Different countries and organisations are adopting different approaches to

via Red Hat Blog https://ift.tt/LKkc0ah
The path to modernization isn't always the least distance between two points. As enterprises embrace containerization for speed and scalability, a significant number of business-critical workloads continue to run on virtual machines (VM). Managing these two distinct environments is complex enough as it is, but then there's also disaster recovery. How do you ensure rapid, reliable recovery for both platforms without doubling complexity and cost? What if you could unify your virtualized and containerized workloads on a single, modern platform with a more consistent, effective strategy for backup

via Red Hat Blog https://ift.tt/FIObXgs
Most of us rely on good web metadata every day, perhaps hundreds of times a day, without ever realizing it. While we don’t all see metadata, it’s present on every webpage, providing details for categorizing content. Search and information retrieval software—from content management systems and search engines to generative AI (gen AI) chatbots—all depend on metadata to categorize, interpret, and display content to users.In some ways, metadata is like the classification system librarians use to place books on shelves so that visitors can find them. Much like a library catalog, good web me

via Red Hat Blog https://ift.tt/mMnGOjq
If you’ve ever struggled with manual, inconsistent, or expensive machine learning (ML) workflows (or if you'd love to have a formalized workflow at all), you’re not alone! Many teams hit roadblocks when trying to automate, scale, or manage their ML pipelines—especially as projects grow, scope creeps, and requirements inevitably change.Red Hat OpenShift AI now brings a set of updates to data science pipelines, making it easier than ever to control and optimize your ML processes. These improvements aren’t just about new features, they’re also about helping you optimize resource consump

via Red Hat Blog https://ift.tt/pORgl9i
Amid rising geopolitical tensions, digital sovereignty has become a focal point for governments and enterprises alike. However, for defence organisations, sovereignty alone is not enough. The ability to maintain operational resilience in the face of conflict or severe geopolitical disruption requires the capacity to act independently when cooperation is impossible. Only true autonomy can provide that ability.Digital sovereignty, whether cloud, data, or total sovereignty, refers to control over digital assets, so data, hardware, people, and software remain within a specific jurisdiction. While

via Red Hat Blog https://ift.tt/O4QNv2g