عرصه‌های‌ ارتباطی
3.66K subscribers
29.9K photos
3.06K videos
875 files
6K links
🔸عرصه‌های‌ ارتباطی
▫️کانال رسمی یونس شُکرخواه
Agora | The official Telegram channel of Younes Shokrkhah
https://t.iss.one/boost/younesshokrkhah
🔹اکانت اینستاگرام من:
https://www.instagram.com/younesshokrkhah
Download Telegram
#زوم🔸دیپفیک چیست؟
#دیپ‌فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌‌مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .
در تکنیک #جعل‌عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری #دیپ‌فیک و پیامدهای آن به شدت ابراز نگرانی می‌کنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
🔸دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌_مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .
در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری #دیپ‌فیک و پیامدهای آن به شدت ابراز نگرانی می‌کنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.

https://t.iss.one/younesshokrkhah
Forwarded from عصر هوشمندی
This media is not supported in your browser
VIEW IN TELEGRAM
#جعل_عمیق

قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.

دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌_مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود.

در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری #دیپ‌فیک و پیامدهای آن به شدت ابراز نگرانی میکنند.

@asrehooshmansdi
This media is not supported in your browser
VIEW IN TELEGRAM
🔸وقتی حقیقت در عمق دروغ غرق می‌شود
#دیپ‌فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌‌مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود.
فناوری دیپ فیک، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین‌ها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و می‌تواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد
‏asrehooshmandi@
#تکنوکلاس 🔸دیپفیک چیست؟
#دیپ‌فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌‌مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .
در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. #تکنولوژی جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی می‌کنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#هوش‌مصنوعی #دیپ‌فیک #جعل‌عمیق
🔸 اپلیکیشن‌های دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپ‌ها امتحان کرده‌اید. شمار برنامه‌های دیپفیک رو به افزایش است و هر کدام قابلیت‌های مختلفی در اختیارتان قرار می‌دهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ می‌خواهیم بهترین اپلیکیشن‌های دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
#هلند 🔸 این دیپفیک..
یک فرد با استفاده از فناوری #دیپ‌فیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریه‌های NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیه‌ای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری می‌کنند.
البته به نظر نمی‌رسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیب‌های احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی می‌تواند سیاستمداران را فریب دهد تا تصمیم‌های اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانه‌تری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقع‌گرایانه ساخته می‌شود.
🔸دیپفیک نمایندگان پارلمان هلند را فریب داد
کارشناسان مدت‌هاست درباره خطرات فناوری #دیپ‌فیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خورده‌اند. گویا سیاست‌مداران هلندی می‌خواسته‌اند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفت‌و‌گو کرده‌اند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانه‌ها می‌گویند او پیش از این نیز با سیاستمداران دولت‌های دیگر را نیز فریب داده و با آن ها گفت‌و‌گو کرده است.
دیپفیک، اگرچه در شکل کنونی‌اش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاه‌های حساس دردسرآفرین شود و به همین دلیل باید فناوری‌هایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
#سینما
🔸هوش مصنوعی دوبله می‌کند
تکنولوژی #دیپ‌فیک توانسته است یکی از متن‌های فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرم‌افزاری که برای این کار استفاده شده است از #هوش‌مصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته می‌تواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرم‌افزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی ‌صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان می‌تواند همزمان فیلم را به چند زبان داشته باشد.