🔒 VaultGemma —
پیشرفتهترین LLM با حریم خصوصی تفاضلی
✳️مدل VaultGemma به عنوان قدرتمندترین مدل زبانی معرفی شده که از ابتدا با روش Differential Privacy آموزش داده شده است.
📌 ویژگیها:
♻️امنیت بالا در محافظت از دادههای حساس کاربران
♻️آموزش کاملاً از صفر، نه فقط فاینتیون
♻️ترکیب کیفیت خروجی در سطح مدلهای بزرگ با تضمین محرمانگی
🖥 جزئیات بیشتر در بلاگ:
👉 https://github.com/ziangcao0312/PhysX-3D
@rss_ai_ir
#AI #LLM #DifferentialPrivacy #VaultGemma #Privacy
پیشرفتهترین LLM با حریم خصوصی تفاضلی
✳️مدل VaultGemma به عنوان قدرتمندترین مدل زبانی معرفی شده که از ابتدا با روش Differential Privacy آموزش داده شده است.
📌 ویژگیها:
♻️امنیت بالا در محافظت از دادههای حساس کاربران
♻️آموزش کاملاً از صفر، نه فقط فاینتیون
♻️ترکیب کیفیت خروجی در سطح مدلهای بزرگ با تضمین محرمانگی
🖥 جزئیات بیشتر در بلاگ:
👉 https://github.com/ziangcao0312/PhysX-3D
@rss_ai_ir
#AI #LLM #DifferentialPrivacy #VaultGemma #Privacy
🎉9😁7👏6🔥5👍4🥰3❤2
animation.gif
11.5 MB
🎓 یادگیری فدرال (Federated Learning) — آیندهی آموزش هوش مصنوعی بدون نیاز به دادههای متمرکز
در دنیای امروز، داده شخصیترین دارایی ماست — از اطلاعات تلفن همراه گرفته تا سوابق پزشکی. اما چگونه میتوان مدلهای هوش مصنوعی را آموزش داد بدون آنکه دادهها از دستگاه کاربران خارج شوند؟
🔹 پاسخ: یادگیری فدرال (Federated Learning)
در این روش، بهجای ارسال دادهها به سرور مرکزی، مدل به سراغ دادهها میرود. هر دستگاه (مثل موبایل، لپتاپ یا حسگر صنعتی) نسخهای از مدل را بهصورت محلی آموزش میدهد و فقط وزنها (Weights) را به اشتراک میگذارد، نه خود دادهها.
💡 مراحل کلی فرآیند:
1️⃣ مدل مرکزی به همه دستگاهها ارسال میشود.
2️⃣ هر دستگاه مدل را با دادههای خودش بهروزرسانی میکند.
3️⃣ فقط وزنهای جدید ارسال میشود.
4️⃣ سرور مرکزی این وزنها را ترکیب کرده و مدل بهروزرسانیشده را برمیگرداند.
✅ مزایا:
حفظ حریم خصوصی کاربران 🔒
کاهش ترافیک داده و هزینه انتقال 🌐
یادگیری از منابع متنوع در نقاط مختلف جهان 🌍
مناسب برای سیستمهای IoT و موبایل 📱
🚀 شرکتهایی مانند Google, Apple و NVIDIA سالهاست از این روش برای بهبود مدلهای کیبورد، تشخیص گفتار و سلامت استفاده میکنند.
📌 در آینده، یادگیری فدرال میتواند سنگبنای «هوش مصنوعی توزیعشده» شود — جایی که هر دستگاه، بخشی از مغز جهانی هوش مصنوعی خواهد بود.
@rss_ai_ir
#هوش_مصنوعی #یادگیری_فدرال #FederatedLearning #AI #Privacy #MachineLearning #EdgeAI
در دنیای امروز، داده شخصیترین دارایی ماست — از اطلاعات تلفن همراه گرفته تا سوابق پزشکی. اما چگونه میتوان مدلهای هوش مصنوعی را آموزش داد بدون آنکه دادهها از دستگاه کاربران خارج شوند؟
🔹 پاسخ: یادگیری فدرال (Federated Learning)
در این روش، بهجای ارسال دادهها به سرور مرکزی، مدل به سراغ دادهها میرود. هر دستگاه (مثل موبایل، لپتاپ یا حسگر صنعتی) نسخهای از مدل را بهصورت محلی آموزش میدهد و فقط وزنها (Weights) را به اشتراک میگذارد، نه خود دادهها.
💡 مراحل کلی فرآیند:
1️⃣ مدل مرکزی به همه دستگاهها ارسال میشود.
2️⃣ هر دستگاه مدل را با دادههای خودش بهروزرسانی میکند.
3️⃣ فقط وزنهای جدید ارسال میشود.
4️⃣ سرور مرکزی این وزنها را ترکیب کرده و مدل بهروزرسانیشده را برمیگرداند.
✅ مزایا:
حفظ حریم خصوصی کاربران 🔒
کاهش ترافیک داده و هزینه انتقال 🌐
یادگیری از منابع متنوع در نقاط مختلف جهان 🌍
مناسب برای سیستمهای IoT و موبایل 📱
🚀 شرکتهایی مانند Google, Apple و NVIDIA سالهاست از این روش برای بهبود مدلهای کیبورد، تشخیص گفتار و سلامت استفاده میکنند.
📌 در آینده، یادگیری فدرال میتواند سنگبنای «هوش مصنوعی توزیعشده» شود — جایی که هر دستگاه، بخشی از مغز جهانی هوش مصنوعی خواهد بود.
@rss_ai_ir
#هوش_مصنوعی #یادگیری_فدرال #FederatedLearning #AI #Privacy #MachineLearning #EdgeAI
👏3❤1🔥1
🧠 مدل ChatGPT دیگر دادههای حذفشده یا گفتگوهای موقت را نگه نمیدارد
شرکت OpenAI اعلام کرد که از این پس هیچ دادهای از گفتوگوهای حذفشده یا چتهای موقت را ذخیره نخواهد کرد،
و دیگر تحت هیچ دستور قانونی برای نگهداری دادهها نیست. ⚖️
🔹 گفتوگوهای حذفشده و چتهای موقت حداکثر تا ۳۰ روز پس از حذف، بهطور کامل از سیستمها پاک میشوند.
🔹 دادههای مربوط به API نیز بهصورت خودکار پس از ۳۰ روز حذف خواهند شد.
این تغییر بزرگ به معنی افزایش حریم خصوصی کاربران و شفافیت بیشتر در نحوهی مدیریت دادهها توسط OpenAI است.
@rss_ai_ir
#ChatGPT #OpenAI #Privacy #AI #DataSecurity #هوش_مصنوعی
شرکت OpenAI اعلام کرد که از این پس هیچ دادهای از گفتوگوهای حذفشده یا چتهای موقت را ذخیره نخواهد کرد،
و دیگر تحت هیچ دستور قانونی برای نگهداری دادهها نیست. ⚖️
🔹 گفتوگوهای حذفشده و چتهای موقت حداکثر تا ۳۰ روز پس از حذف، بهطور کامل از سیستمها پاک میشوند.
🔹 دادههای مربوط به API نیز بهصورت خودکار پس از ۳۰ روز حذف خواهند شد.
این تغییر بزرگ به معنی افزایش حریم خصوصی کاربران و شفافیت بیشتر در نحوهی مدیریت دادهها توسط OpenAI است.
@rss_ai_ir
#ChatGPT #OpenAI #Privacy #AI #DataSecurity #هوش_مصنوعی
👍2
🔒 سرقت اطلاعات کاربران API اوپناِیآی
اوپناِیآی اعلام کرد که اوایل نوامبر سرویس آنالیتیک Mixpanel که برای تحلیل رفتار کاربران استفاده میکرد، هک شده و دادههای مربوط به کاربران API افشا شده است.
چه چیزهایی لو رفته؟
• نام صاحب اکانت API
• ایمیل مرتبط با اکانت
• موقعیت تقریبی (شهر، منطقه، کشور) بر اساس داده مرورگر
• سیستمعامل و مرورگر مورد استفاده
• وبسایتهایی که کاربر از آنها وارد شده
• شناسههای سازمانی یا کاربری متصل به اکانت API
⛔ خوشبختانه: کلیدهای API، رمز عبورها و اطلاعات پرداخت فاش نشدهاند.
این حادثه یادآوری مهمی است:
حتی ابزارهای آنالیتیک هم میتوانند نقطه ضعف امنیتی باشند.
برای امنیت، سازمانها و کاربران باید اکانتهای خود را بررسی و سیاستهای امنیتیشان را بهروزرسانی کنند.
#OpenAI #CyberSecurity #DataLeak #APISecurity #InfoSec #Privacy #AISecurity
اوپناِیآی اعلام کرد که اوایل نوامبر سرویس آنالیتیک Mixpanel که برای تحلیل رفتار کاربران استفاده میکرد، هک شده و دادههای مربوط به کاربران API افشا شده است.
چه چیزهایی لو رفته؟
• نام صاحب اکانت API
• ایمیل مرتبط با اکانت
• موقعیت تقریبی (شهر، منطقه، کشور) بر اساس داده مرورگر
• سیستمعامل و مرورگر مورد استفاده
• وبسایتهایی که کاربر از آنها وارد شده
• شناسههای سازمانی یا کاربری متصل به اکانت API
⛔ خوشبختانه: کلیدهای API، رمز عبورها و اطلاعات پرداخت فاش نشدهاند.
این حادثه یادآوری مهمی است:
حتی ابزارهای آنالیتیک هم میتوانند نقطه ضعف امنیتی باشند.
برای امنیت، سازمانها و کاربران باید اکانتهای خود را بررسی و سیاستهای امنیتیشان را بهروزرسانی کنند.
#OpenAI #CyberSecurity #DataLeak #APISecurity #InfoSec #Privacy #AISecurity
❤2😁2