Gopher Academy
3.85K subscribers
933 photos
42 videos
280 files
2.2K links
🕸 Gopher Academy

🔷interview golang
https://github.com/mrbardia72/Go-Interview-Questions-And-Answers

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
go-nvtrust: NVIDIA GPU and NVSwitch Confidential Computing Attestation

🟢 خلاصه مقاله:
اgo-nvtrust یک پیاده‌سازی به زبان Go از nvTrust است که برای گردآوری و مدیریت شواهد attestation مربوط به Confidential Computing از NVIDIA GPU و NVSwitch به‌کار می‌رود. این ابزار با جمع‌آوری هویت‌های امضاشده دستگاه، اندازه‌گیری‌های firmware و پیکربندی و بسته‌بندی آن‌ها برای تأیید خارجی، امکان سنجش اعتماد پیش از اجرای بارهای کاری حساس را فراهم می‌کند. پیاده‌سازی به زبان Go ادغام آن را در سرویس‌های cloud-native، کنترلرها و ابزارهای سیاست‌گذاری ساده می‌سازد و به سناریوهای zero-trust در محیط‌های چند GPU و چندمستاجری کمک می‌کند. خروجی go-nvtrust به‌عنوان شواهد استاندارد به همراه تأییدکننده‌ها و مراجع اعتماد استفاده می‌شود تا پیش از زمان‌بندی یا آزادسازی اسرار، وضعیت امن سخت‌افزار بررسی شود.

#ConfidentialComputing #NVIDIA #GPU #NVSwitch #Go #Attestation #ZeroTrust #AIInfrastructure

🟣لینک مقاله:
https://golangweekly.com/link/175990/web


👑 @gopher_academy
2
Forwarded from DevOps Labdon
🔵 عنوان مقاله
Cost-optimized ml on production: autoscaling GPU nodes on Kubernetes to zero using keda

🟢 خلاصه مقاله:
این آموزش نشان می‌دهد چگونه با استفاده از Kubernetes و KEDA ظرفیت GPU را بر اساس طول صف پیام‌ها به‌صورت خودکار تا صفر کاهش دهیم و هزینه اجرای ML در محیط تولید را کم کنیم. معماری مبتنی بر یک message queue (مثل Kafka، RabbitMQ یا AWS SQS) است و KEDA با ScaledObject تعداد پادهای مصرف‌کننده GPU را نسبت به backlog تنظیم می‌کند (minReplicaCount=0). با فعال‌بودن Cluster Autoscaler و یک GPU node pool با حداقل اندازه صفر، نودهای GPU فقط هنگام نیاز ایجاد و سپس آزاد می‌شوند. نکات کلیدی شامل تنظیم nodeSelector/tolerations، درخواست nvidia.com/gpu، کنترل pollingInterval/cooldownPeriod، کاهش cold start با pre-pull و پایش با Prometheus/Grafana است. نتیجه: پرداخت هزینه GPU فقط هنگام وجود کار، همراه با حفظ قابلیت اطمینان و کنترل تأخیر.

#Kubernetes #KEDA #GPU #MLOps #Autoscaling #CostOptimization #MessageQueue #ProductionML

🟣لینک مقاله:
https://ku.bz/Zhb9q3BZx


👑 @DevOps_Labdon
2