شارا - شبکه اطلاع‌رسانی روابط‌عمومی
2.36K subscribers
25.6K photos
942 videos
246 files
14.5K links
رسانه‌ای برای روابط‌عمومی
تماس با مدیر کانال: @kargozar80
تکمله مباحث را در سایت شارا دنبال کنید...
www.shara.ir

https://kpri.ir/ مرکز تخصصی دانلود روابط‌عمومی ایران
Download Telegram
«#شارا هوش_مصنوعی به اندازه #سلاح‌های_هسته‌ای خطرناک است»

اریک اشمیت می‌گوید که درباره عواقب کار روی #هوش_مصنوعی در گوگل، بیش از حد ساده و خوشبین بوده است

اگر الگوریتم‌هایی که این سیستم‌ها را آموزش می‌دهند مبتنی بر داده‌های ناقص، نژادپرستانه یا تبعیض جنسیتی باشند، نتایج [هم در نهایت همین موارد] را منعکس خواهد کرد- Canva

#اریک_اشمیت، مدیر اجرایی سابق گوگل، هوش مصنوعی را به اندازه سلاح‌های هستهای خطرناک خوانده است.

اریک اشمیت در سخنرانی خود در مجمع امنیتی آسپن در اوایل هفته جاری گفت که او «در مورد تاثیر کاری که انجام می‌دادند ساده لوح بوده است.»، اما این اطلاعات «بسیار قدرتمندند» و «دولت و سایر نهادها باید فشار بیشتری را بر #فناوری اعمال کنند تا با ارزش‌های [اخلاقی‌مان] هماهنگ شوند.»

«زور و قدرتی که فناوری در اختیار دارد بسیار بسیار واقعی است. به این موضوع فکر کنید که چگونه می‌توانیم در مورد توافقنامه #هوش_مصنوعی مذاکره کنیم؟ ابتدا باید دست‌اندرکارانی در فناوری داشته باشید که آگاه باشند چه اتفاق‌هایی خواهد افتاد و از سوی دیگر، خود شما باید [درباره خطرات آن] آگاهی داشته باشید. فرض کنید می‌خواهیم با #چین درباره نوعی معاهده درباره شگفتی‌های #هوش_مصنوعی گفت‌وگو کنیم. این بسیار معقول و منطقی است. اما چگونه آن را انجام دهیم؟ چه کسی در دولت #آمریکا با ما کار خواهد کرد؟ و حتی در طرف چینی اوضاع بدتر است؟ چه کسی را خطاب قرار دهیم؟»

ما به مذاکراتی نیاز داریم که هنوز آمادگی‌اش را نداریم.

«ما بالاخره در دهه‌های ۵۰ و ۶۰ میلادی موفق شدیم دنیایی را به وجود آوریم که در آن قانون «غافلگیر نشدن» درباره #آزمایش‌های_هسته‌ای وجود داشت و در نهایت این سلاح‌ها ممنوع شدند. این مورد نمونه‌ای است از تعادل میان اعتماد، یا اعتماد نداشتن، این یک قانون «غافلگیر نشدن» است.»

[توضیح مترجم: قانون عدم غافلگیری در اینجا یعنی در آن زمان کاری کردیم و معاهداتی را امضا کردیم که از پیامدهای به کارگیری سلاح هستهای غافلگیر نشویم.]

«من بسیار نگرانم که نگاه ایالات متحده به چین [به‌عنوان یک حکومت] فاسد یا کمونیست یا هر چیز دیگری، و دیدگاه چینی‌ها به آمریکا به‌عنوان [یک حکومت] شکست‌خورده... به مردم اجازه دهد که بگویند «اوه خدای من، آن‌ها حتما نقشه‌ای دارند» و سپس شروع کنند به یک جور معما ساختن [و مسئله را پیچیده بغرنج‌تر کنند].... چون در حال مسلح شدن یا آماده کردن خودتان‌اید، پس در این صورت، طرف مقابل را به اقدام متقابل تحریک می‌کنید.»

قابلیت‌های #هوش_مصنوعی طی سال‌ها به دفعات بیان شده است و حتی بیش از حد در این‌باره صحبت شده است. ایلان ماسک، مدیر اجرایی تسلا، اغلب گفته است که هوش مصنوعی به احتمال بالا تهدیدی برای انسان است. اخیرا گوگل هم یک مهندس نرم‌افزار را اخراج کرده است که ادعا کرده‌ بود هوش مصنوعی به خودآگاهی رسیده است و دارای ادراک است.

با این حال، کارشناسان اغلب به مردم یادآوری کرده‌اند که مسئله #هوش_مصنوعی این است که برای چه چیزی آموزش داده شده و انسان‌ها چگونه از آن استفاده می‌کنند. اگر الگوریتم‌هایی که این سیستم‌ها را آموزش می‌دهند مبتنی بر داده‌های ناقص، نژادپرستانه یا تبعیض جنسیتی باشند، نتایج [هم در نهایت همین موارد] را منعکس خواهد کرد.

منبع: Independent



///