#زوم🔸دیپفیک چیست؟
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعلعمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعلعمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
Forwarded from عرصههای ارتباطی
🔸دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
https://t.iss.one/younesshokrkhah
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
https://t.iss.one/younesshokrkhah
Forwarded from عصر هوشمندی
This media is not supported in your browser
VIEW IN TELEGRAM
#جعل_عمیق
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
This media is not supported in your browser
VIEW IN TELEGRAM
🔸وقتی حقیقت در عمق دروغ غرق میشود
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
فناوری دیپ فیک، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربینها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد
asrehooshmandi@
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
فناوری دیپ فیک، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربینها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد
asrehooshmandi@
#تکنوکلاس 🔸دیپفیک چیست؟
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. #تکنولوژی جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. #تکنولوژی جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#هوشمصنوعی #دیپفیک #جعلعمیق
🔸 اپلیکیشنهای دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپها امتحان کردهاید. شمار برنامههای دیپفیک رو به افزایش است و هر کدام قابلیتهای مختلفی در اختیارتان قرار میدهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ میخواهیم بهترین اپلیکیشنهای دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
🔸 اپلیکیشنهای دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپها امتحان کردهاید. شمار برنامههای دیپفیک رو به افزایش است و هر کدام قابلیتهای مختلفی در اختیارتان قرار میدهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ میخواهیم بهترین اپلیکیشنهای دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
دیجیاتو
جعبه ابزار: بهترین اپلیکیشنهای دیپ فیک برای اندروید و iOS - دیجیاتو
در سالهای اخیر فناوری دیپ فیک مورد توجه زیادی قرار گرفته است. اگر چه این فناوری موجب نگرانیهای زیادی شده، اما میتوان برای سرگرمی هم از آن استفاده کرد. فناوری دیپ فیک در سالهای اخیر مورد توجه زیادی قرار گرفته و حالا میخواهیم بهترین اپلیکیشنهای دیپ فیک…
#هلند 🔸 این دیپفیک..
یک فرد با استفاده از فناوری #دیپفیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریههای NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیهای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری میکنند.
البته به نظر نمیرسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیبهای احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی میتواند سیاستمداران را فریب دهد تا تصمیمهای اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانهتری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقعگرایانه ساخته میشود.
یک فرد با استفاده از فناوری #دیپفیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریههای NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیهای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری میکنند.
البته به نظر نمیرسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیبهای احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی میتواند سیاستمداران را فریب دهد تا تصمیمهای اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانهتری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقعگرایانه ساخته میشود.
🔸دیپفیک نمایندگان پارلمان هلند را فریب داد
کارشناسان مدتهاست درباره خطرات فناوری #دیپفیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خوردهاند. گویا سیاستمداران هلندی میخواستهاند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفتوگو کردهاند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانهها میگویند او پیش از این نیز با سیاستمداران دولتهای دیگر را نیز فریب داده و با آن ها گفتوگو کرده است.
دیپفیک، اگرچه در شکل کنونیاش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاههای حساس دردسرآفرین شود و به همین دلیل باید فناوریهایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
کارشناسان مدتهاست درباره خطرات فناوری #دیپفیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خوردهاند. گویا سیاستمداران هلندی میخواستهاند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفتوگو کردهاند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانهها میگویند او پیش از این نیز با سیاستمداران دولتهای دیگر را نیز فریب داده و با آن ها گفتوگو کرده است.
دیپفیک، اگرچه در شکل کنونیاش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاههای حساس دردسرآفرین شود و به همین دلیل باید فناوریهایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
#سینما
🔸هوش مصنوعی دوبله میکند
تکنولوژی #دیپفیک توانسته است یکی از متنهای فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرمافزاری که برای این کار استفاده شده است از #هوشمصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته میتواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرمافزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان میتواند همزمان فیلم را به چند زبان داشته باشد.
🔸هوش مصنوعی دوبله میکند
تکنولوژی #دیپفیک توانسته است یکی از متنهای فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرمافزاری که برای این کار استفاده شده است از #هوشمصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته میتواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرمافزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان میتواند همزمان فیلم را به چند زبان داشته باشد.