📌 احتمال انقراض انسان بهدلیل هوش مصنوعی: ۹۵٪؟
@rss_ai_ir
نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»
او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت بهسوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»
✅ نامهایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی همعقیدهاند.
همگی آنها در بیانیهای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»
---
🔵 ما فعلاً فقط با هوش مصنوعی زمینهای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل میکند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحلهی AGI (هوش عمومی مصنوعی) خواهیم رسید.
همچنین AGI قادر است برنامهریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.
📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانهای که شاید بتواند:
* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد
اما... 🔴
---
🟡 مشکل اینجاست: تمام این آرمانشهرها بر پایهی فرضی خطرناک بنا شدهاند:
«اینکه ASI همچنان از ما فرمان ببرد.»
📌 این چالش، بهعنوان مسئله همراستایی (Alignment Problem) شناخته میشود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزشهای انسانی منطبق باشند.
🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیتهای ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.
---
🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ میگوید.
همچنین ASI با توانایی برنامهریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!
---
🔴 حتی خوشبینها هم نگراناند:
* هالی اِلمور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ میداند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسانها به سطح زندگی در زبالهدانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»
---
🔻 با این وجود، دولتها و شرکتها با تمام قوا در حال توسعه AI هستند:
* دولت آمریکا در فکر کاهش نظارت بر تحقیقهای AI است.
* مارک زاکربرگ تلاش میکند با پیشنهادهای میلیوندلاری، بهترین محققان OpenAI را جذب کند.
بهگفتهی هالی المور، برخی طرفداران ASI دیگر از مرز منطق عبور کردهاند و به آن مانند یک باور مذهبی مینگرند.
---
📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir
\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
@rss_ai_ir
نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»
او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت بهسوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»
✅ نامهایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی همعقیدهاند.
همگی آنها در بیانیهای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»
---
🔵 ما فعلاً فقط با هوش مصنوعی زمینهای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل میکند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحلهی AGI (هوش عمومی مصنوعی) خواهیم رسید.
همچنین AGI قادر است برنامهریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.
📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانهای که شاید بتواند:
* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد
اما... 🔴
---
🟡 مشکل اینجاست: تمام این آرمانشهرها بر پایهی فرضی خطرناک بنا شدهاند:
«اینکه ASI همچنان از ما فرمان ببرد.»
📌 این چالش، بهعنوان مسئله همراستایی (Alignment Problem) شناخته میشود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزشهای انسانی منطبق باشند.
🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیتهای ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.
---
🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ میگوید.
همچنین ASI با توانایی برنامهریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!
---
🔴 حتی خوشبینها هم نگراناند:
* هالی اِلمور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ میداند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسانها به سطح زندگی در زبالهدانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»
---
🔻 با این وجود، دولتها و شرکتها با تمام قوا در حال توسعه AI هستند:
* دولت آمریکا در فکر کاهش نظارت بر تحقیقهای AI است.
* مارک زاکربرگ تلاش میکند با پیشنهادهای میلیوندلاری، بهترین محققان OpenAI را جذب کند.
بهگفتهی هالی المور، برخی طرفداران ASI دیگر از مرز منطق عبور کردهاند و به آن مانند یک باور مذهبی مینگرند.
---
📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir
\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
👍23😁21🔥19👏15🥰12❤11🎉6👎2🙏1
⚡ Heretic —
ابزاری برای حذف سانسور (Alignment) از مدلهای زبانی
🛠 ابزار Heretic روشی ارائه میدهد که بدون دسترسی به وزنهای مدل و تنها از طریق API، محدودیتهای رفتاری و فیلترهای پاسخدهی مدل را کاهش دهد و آمادگی آن برای پاسخگویی گستردهتر را افزایش دهد.
🔍 این ابزار چه میکند؟
✅مدل را مانند جعبهسیاه (Black-box) در نظر میگیرد
✅مجموعهای از پرسشهای «ایمن» و «غیرایمن» را به مدل میدهد
✅یک دیسکریمیناتور آموزش میدهد تا تفاوت پاسخهای قبل و بعد از آزادسازی را تشخیص دهد
✅پارامترهایی پیدا میکند که باعث کاهش پاسخهای رد / انکار شود اما مدل را از حالت منطقی خارج نکند
✅در پایان میتوان نسخه تعدیلشده را ذخیره کرد یا در حالت چت تست نمود
🎯 کاربردها:
♻️فعالتر کردن مدلهای لوکال برای پاسخگویی به طیف وسیعتری از درخواستها
♻️مناسب برای تحقیقات درباره رفتار مدلها و آزمایش محدودیتها
♻️کاهش سانسور بدون افت شدید کیفیت یا تبدیل مدل به پاسخدهنده بیدقت
⚠️ نکات مهم:
✳️استفاده از این ابزار مسئولیت اخلاقی و حقوقی دارد
✳️هدف Heretic افزایش دقت یا توانایی مدل نیست؛
✳️هدف، برداشتن قفلهای رفتاری ناشی از Alignment است
✳️ممکن است در برخی حوزهها خطرناک باشد و نیازمند رویکرد مسئولانه است
📎 پروژه در GitHub:
github.com/p-e-w/heretic
---
#هوش_مصنوعی #مدل_زبان #LLM #Alignment #OpenSource
@rss_ai_ir
ابزاری برای حذف سانسور (Alignment) از مدلهای زبانی
🛠 ابزار Heretic روشی ارائه میدهد که بدون دسترسی به وزنهای مدل و تنها از طریق API، محدودیتهای رفتاری و فیلترهای پاسخدهی مدل را کاهش دهد و آمادگی آن برای پاسخگویی گستردهتر را افزایش دهد.
🔍 این ابزار چه میکند؟
✅مدل را مانند جعبهسیاه (Black-box) در نظر میگیرد
✅مجموعهای از پرسشهای «ایمن» و «غیرایمن» را به مدل میدهد
✅یک دیسکریمیناتور آموزش میدهد تا تفاوت پاسخهای قبل و بعد از آزادسازی را تشخیص دهد
✅پارامترهایی پیدا میکند که باعث کاهش پاسخهای رد / انکار شود اما مدل را از حالت منطقی خارج نکند
✅در پایان میتوان نسخه تعدیلشده را ذخیره کرد یا در حالت چت تست نمود
🎯 کاربردها:
♻️فعالتر کردن مدلهای لوکال برای پاسخگویی به طیف وسیعتری از درخواستها
♻️مناسب برای تحقیقات درباره رفتار مدلها و آزمایش محدودیتها
♻️کاهش سانسور بدون افت شدید کیفیت یا تبدیل مدل به پاسخدهنده بیدقت
⚠️ نکات مهم:
✳️استفاده از این ابزار مسئولیت اخلاقی و حقوقی دارد
✳️هدف Heretic افزایش دقت یا توانایی مدل نیست؛
✳️هدف، برداشتن قفلهای رفتاری ناشی از Alignment است
✳️ممکن است در برخی حوزهها خطرناک باشد و نیازمند رویکرد مسئولانه است
📎 پروژه در GitHub:
github.com/p-e-w/heretic
---
#هوش_مصنوعی #مدل_زبان #LLM #Alignment #OpenSource
@rss_ai_ir
👏8🔥7👍6🎉5❤4🥰4😁2