عرصه‌های‌ ارتباطی
3.65K subscribers
29.8K photos
3.06K videos
874 files
5.99K links
🔸عرصه‌های‌ ارتباطی
▫️کانال رسمی یونس شُکرخواه
Agora | The official Telegram channel of Younes Shokrkhah
https://t.iss.one/boost/younesshokrkhah
🔹اکانت اینستاگرام من:
https://www.instagram.com/younesshokrkhah
Download Telegram
#تکنوکلاس 🔸دیپفیک چیست؟
#دیپ‌فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌‌مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .
در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. #تکنولوژی جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی می‌کنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#هوش‌مصنوعی #دیپ‌فیک #جعل‌عمیق
🔸 اپلیکیشن‌های دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپ‌ها امتحان کرده‌اید. شمار برنامه‌های دیپفیک رو به افزایش است و هر کدام قابلیت‌های مختلفی در اختیارتان قرار می‌دهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ می‌خواهیم بهترین اپلیکیشن‌های دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
#هلند 🔸 این دیپفیک..
یک فرد با استفاده از فناوری #دیپ‌فیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریه‌های NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیه‌ای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری می‌کنند.
البته به نظر نمی‌رسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیب‌های احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی می‌تواند سیاستمداران را فریب دهد تا تصمیم‌های اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانه‌تری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقع‌گرایانه ساخته می‌شود.
🔸دیپفیک نمایندگان پارلمان هلند را فریب داد
کارشناسان مدت‌هاست درباره خطرات فناوری #دیپ‌فیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خورده‌اند. گویا سیاست‌مداران هلندی می‌خواسته‌اند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفت‌و‌گو کرده‌اند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانه‌ها می‌گویند او پیش از این نیز با سیاستمداران دولت‌های دیگر را نیز فریب داده و با آن ها گفت‌و‌گو کرده است.
دیپفیک، اگرچه در شکل کنونی‌اش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاه‌های حساس دردسرآفرین شود و به همین دلیل باید فناوری‌هایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
#سینما
🔸هوش مصنوعی دوبله می‌کند
تکنولوژی #دیپ‌فیک توانسته است یکی از متن‌های فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرم‌افزاری که برای این کار استفاده شده است از #هوش‌مصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته می‌تواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرم‌افزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی ‌صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان می‌تواند همزمان فیلم را به چند زبان داشته باشد.
🔸دیپ فیک چیست؟
#دیپ‌فیک (جعل عمیق) از ترکیب واژگان Deep (عمیق) و"Fake (جعل) ساخته شده و یک تکنیک نرم‌افزاری مبتنی بر #هوش‌مصنوعی است که در محتوای صوت و تصویر به دلخواه دست می‌برد و در واقع چیزی کاملا متفاوت از واقعیت و حقیقت تولید می‌کند
#خبر🔸نگاه تجاری به دیپفیک آسیب زاست
#حسین_کرمانی دکترای ارتباطات معتقد است در کشور ما هر از گاهی واژه و اصطلاحی برجسته می‌شود و برای آن کنفرانس و سمیناری برگزار می‌شود و در نهایت تبدیل به یک تجارت می‌شود، مثل بلایی که بر سر سواد رسانه‌ای آمد. این احتمال هست که برای #دیپ‌فیک هم چنین اتفاقی بیافتد. به همین خاطر برای پرداختن به فرصت‌ها و تهدیدهای آن فعلا اظهار نظر زود است. دانشگاه‌ها و سازمان‌های مسئول باید به فکر تقویت تحقیقات علمی و پژوهش ها درباره دیپ فیک باشند. همچنین اساتید باید بر روی این موضوع درست کار کنند تا دانش عمومی جامعه را بالا ببرند و استفاده از ظرفیت #صداوسیما برای استفاده درست از این تکنیک هم، می‌تواند کمک کننده باشد.
کرمانی در ابتدای صحبت‌های خود با اشاره به ذینفعان دیپفیک به شفقنا رسانه می‌گوید: دیپفیک را نمی‌توان یک نرم افزار نامید، بلکه حاصل ابزارها، نرم‌افزار‌ها و تکنیک‌های بصری و کامپیوتری است که به تولید دیپ فیک می‌انجامد. ذینفعان دیپفیک، عمدتا گروهای سیاسی، گروه‌های قدرتمند و ذی‌نفوذ در جوامع مختلف است که اهداف سیاسی یا هر نوع برنامه و عمل دیگری را دنبال می‌کنند و می‌خواهند به اهداف خاصی برسند. متن کامل
🔸ترویج دیپ فیک باید به نفع بشریت باشد نه تخریب و فریب
#حسین_امامی، مدرس ارتباطات دیجیتال در دانشگاه در باره #دیپ‌فیک می‌گوید: کم بودن ساخت دیپ فیک در ایران در مقایسه با آماری که مجمع جهانی اقتصاد منتشر کرده که سالانه ۹۰۰درصد رشد داشته است می‌تواند فرصت خوبی باشد تا از جنبه‌های مثبت آن بیشتر بهره گرفت. به عبارتی ترویج دیپ فیک باید به نفع بشریت باشد، نه فریب، تخریب و اخاذی.
دیپ فیک، در باور عامه مردم، مفهومی منفی دارد در حالی که می‌تواند کاربردهای مثبتی هم داشته باشد. بنابراین این‌گونه نیست که همیشه در مواجهه با دیپ فیک، کسی نفع ببرد و یکی بازنده باشد. متن کامل
#هوش‌مصنوعی #جرایم‌سایبر
🔸پیامدهای
دیپ‌‌فیک در دنیای واقعی
از نظر #یوروپل (پلیس ‌اتحادیه اروپا) #چت‌جی‌پی‌تی تنها یکی از حوزه‌های هوش مصنوعی است که می‌تواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوری‌های جنجالی هوش مصنوعی مانند #دیپ‌‌فیک آسیب‌های جدی به جامعه رسانده بودند.
بطور مثال، یکی از پرونده‌های تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکس‌های پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکس‌ها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوری‌های دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجه‌ای جز "حبس مادام‌العمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپفیک‌های آنلاین، پورنوگرافی‌های غیرقانونی است. گاه نیز از فناوری دیپ‌‌فیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانواده‌اش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیش‌بینی و از وقوع آن جلوگیری کنند.
#هوش‌مصنوعی🔸گوگل و تولید عکس
🔻رقبای دستپاچه در حال رقابت هستند
#آلفابت اعلام کرد پس از انتقاداتی که در مورد نحوه تولید عکس افراد در #جمنای (مدل هوش مصنوعی قدرتمند گوگل) پیش آمده فعلا آن را متوقف می‌کند. گوگل در پستی در شبکه اجتماعی‌ اکس خبر داد: "ما در حال حاضر در حال کار برای رفع مشکلات اخیر در تولید تصویر جمنای هستیم. ما می‌خواهیم تولید تصویر افراد را متوقف کنیم و به زودی نسخه بهبود یافته را دوباره منتشر خواهیم کرد."
این اشتباه در حالی رخ می‌دهد که گوگل به طرز فزاینده‌ای بر روی هوش مصنوعی متمرکز شده است تا از #مایکروسافت و #اوپن‌ای‌آی که طور بالقوه تجارت اصلی جستجوی اینترنتی گوگل را تهدید کرده‌اند.، عقب نماند. پیشرفت در هوش مصنوعی در عین حال به این نگرانی منجر شده است که این فناوری باعث ایجاد #دیپ‌فیک، اطلاعات نادرست و سوگیری می‌شود.
در اوایل این هفته، گوگل اعلام کرد که می‌دانسته جمنای در تولید برخی از تصاویر تاریخی دچار عدم دقت بوده است. این شرایط به این دلیل پیش آمد که منتقدان در اکس نمونه‌های متعددی از این مدل را منتشر کردند که به نظر می‌رسید تصاویر تاریخی نژاد سوژه‌ها را نادرست نشان می‌دهند... +