عرصه‌های‌ ارتباطی
3.66K subscribers
29.9K photos
3.06K videos
875 files
6K links
🔸عرصه‌های‌ ارتباطی
▫️کانال رسمی یونس شُکرخواه
Agora | The official Telegram channel of Younes Shokrkhah
https://t.iss.one/boost/younesshokrkhah
🔹اکانت اینستاگرام من:
https://www.instagram.com/younesshokrkhah
Download Telegram
🔸دیپ فیک چیست؟
#دیپ‌فیک (جعل عمیق) از ترکیب واژگان Deep (عمیق) و"Fake (جعل) ساخته شده و یک تکنیک نرم‌افزاری مبتنی بر #هوش‌مصنوعی است که در محتوای صوت و تصویر به دلخواه دست می‌برد و در واقع چیزی کاملا متفاوت از واقعیت و حقیقت تولید می‌کند
#خبر🔸نگاه تجاری به دیپفیک آسیب زاست
#حسین_کرمانی دکترای ارتباطات معتقد است در کشور ما هر از گاهی واژه و اصطلاحی برجسته می‌شود و برای آن کنفرانس و سمیناری برگزار می‌شود و در نهایت تبدیل به یک تجارت می‌شود، مثل بلایی که بر سر سواد رسانه‌ای آمد. این احتمال هست که برای #دیپ‌فیک هم چنین اتفاقی بیافتد. به همین خاطر برای پرداختن به فرصت‌ها و تهدیدهای آن فعلا اظهار نظر زود است. دانشگاه‌ها و سازمان‌های مسئول باید به فکر تقویت تحقیقات علمی و پژوهش ها درباره دیپ فیک باشند. همچنین اساتید باید بر روی این موضوع درست کار کنند تا دانش عمومی جامعه را بالا ببرند و استفاده از ظرفیت #صداوسیما برای استفاده درست از این تکنیک هم، می‌تواند کمک کننده باشد.
کرمانی در ابتدای صحبت‌های خود با اشاره به ذینفعان دیپفیک به شفقنا رسانه می‌گوید: دیپفیک را نمی‌توان یک نرم افزار نامید، بلکه حاصل ابزارها، نرم‌افزار‌ها و تکنیک‌های بصری و کامپیوتری است که به تولید دیپ فیک می‌انجامد. ذینفعان دیپفیک، عمدتا گروهای سیاسی، گروه‌های قدرتمند و ذی‌نفوذ در جوامع مختلف است که اهداف سیاسی یا هر نوع برنامه و عمل دیگری را دنبال می‌کنند و می‌خواهند به اهداف خاصی برسند. متن کامل
🔸ترویج دیپ فیک باید به نفع بشریت باشد نه تخریب و فریب
#حسین_امامی، مدرس ارتباطات دیجیتال در دانشگاه در باره #دیپ‌فیک می‌گوید: کم بودن ساخت دیپ فیک در ایران در مقایسه با آماری که مجمع جهانی اقتصاد منتشر کرده که سالانه ۹۰۰درصد رشد داشته است می‌تواند فرصت خوبی باشد تا از جنبه‌های مثبت آن بیشتر بهره گرفت. به عبارتی ترویج دیپ فیک باید به نفع بشریت باشد، نه فریب، تخریب و اخاذی.
دیپ فیک، در باور عامه مردم، مفهومی منفی دارد در حالی که می‌تواند کاربردهای مثبتی هم داشته باشد. بنابراین این‌گونه نیست که همیشه در مواجهه با دیپ فیک، کسی نفع ببرد و یکی بازنده باشد. متن کامل
#هوش‌مصنوعی #جرایم‌سایبر
🔸پیامدهای
دیپ‌‌فیک در دنیای واقعی
از نظر #یوروپل (پلیس ‌اتحادیه اروپا) #چت‌جی‌پی‌تی تنها یکی از حوزه‌های هوش مصنوعی است که می‌تواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوری‌های جنجالی هوش مصنوعی مانند #دیپ‌‌فیک آسیب‌های جدی به جامعه رسانده بودند.
بطور مثال، یکی از پرونده‌های تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکس‌های پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکس‌ها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوری‌های دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجه‌ای جز "حبس مادام‌العمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپفیک‌های آنلاین، پورنوگرافی‌های غیرقانونی است. گاه نیز از فناوری دیپ‌‌فیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانواده‌اش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیش‌بینی و از وقوع آن جلوگیری کنند.
#هوش‌مصنوعی🔸گوگل و تولید عکس
🔻رقبای دستپاچه در حال رقابت هستند
#آلفابت اعلام کرد پس از انتقاداتی که در مورد نحوه تولید عکس افراد در #جمنای (مدل هوش مصنوعی قدرتمند گوگل) پیش آمده فعلا آن را متوقف می‌کند. گوگل در پستی در شبکه اجتماعی‌ اکس خبر داد: "ما در حال حاضر در حال کار برای رفع مشکلات اخیر در تولید تصویر جمنای هستیم. ما می‌خواهیم تولید تصویر افراد را متوقف کنیم و به زودی نسخه بهبود یافته را دوباره منتشر خواهیم کرد."
این اشتباه در حالی رخ می‌دهد که گوگل به طرز فزاینده‌ای بر روی هوش مصنوعی متمرکز شده است تا از #مایکروسافت و #اوپن‌ای‌آی که طور بالقوه تجارت اصلی جستجوی اینترنتی گوگل را تهدید کرده‌اند.، عقب نماند. پیشرفت در هوش مصنوعی در عین حال به این نگرانی منجر شده است که این فناوری باعث ایجاد #دیپ‌فیک، اطلاعات نادرست و سوگیری می‌شود.
در اوایل این هفته، گوگل اعلام کرد که می‌دانسته جمنای در تولید برخی از تصاویر تاریخی دچار عدم دقت بوده است. این شرایط به این دلیل پیش آمد که منتقدان در اکس نمونه‌های متعددی از این مدل را منتشر کردند که به نظر می‌رسید تصاویر تاریخی نژاد سوژه‌ها را نادرست نشان می‌دهند... +