#زوم🔸دیپفیک چیست؟
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعلعمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعلعمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
Forwarded from عرصههای ارتباطی
🔸دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
https://t.iss.one/younesshokrkhah
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست فیک است.
https://t.iss.one/younesshokrkhah
Forwarded from عصر هوشمندی
This media is not supported in your browser
VIEW IN TELEGRAM
#جعل_عمیق
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
This media is not supported in your browser
VIEW IN TELEGRAM
🔸وقتی حقیقت در عمق دروغ غرق میشود
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
فناوری دیپ فیک، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربینها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد
asrehooshmandi@
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
فناوری دیپ فیک، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربینها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد
asrehooshmandi@
#تکنوکلاس 🔸دیپفیک چیست؟
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. #تکنولوژی جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#دیپفیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوشمصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد* که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. #تکنولوژی جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند. در تصویر ارائه شده؛ اوبامای سمت راست #فیک است.
*Generative Adversarial Network
#هوشمصنوعی #دیپفیک #جعلعمیق
🔸 اپلیکیشنهای دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپها امتحان کردهاید. شمار برنامههای دیپفیک رو به افزایش است و هر کدام قابلیتهای مختلفی در اختیارتان قرار میدهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ میخواهیم بهترین اپلیکیشنهای دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
🔸 اپلیکیشنهای دیپفیک
چه طرفدار دیپفیک باشید، چه از مخالفانش، به احتمال زیاد تا به امروز برای یکبار هم که شده آن را از طریق اپها امتحان کردهاید. شمار برنامههای دیپفیک رو به افزایش است و هر کدام قابلیتهای مختلفی در اختیارتان قرار میدهند که البته کیفیت متفاوتی هم دارند. در این مقاله جعبه ابزار برای نوروز ۱۴۰۰ میخواهیم بهترین اپلیکیشنهای دیپفیک را به شما معرفی کنیم.
https://dgto.ir/22xm
دیجیاتو
جعبه ابزار: بهترین اپلیکیشنهای دیپ فیک برای اندروید و iOS - دیجیاتو
در سالهای اخیر فناوری دیپ فیک مورد توجه زیادی قرار گرفته است. اگر چه این فناوری موجب نگرانیهای زیادی شده، اما میتوان برای سرگرمی هم از آن استفاده کرد. فناوری دیپ فیک در سالهای اخیر مورد توجه زیادی قرار گرفته و حالا میخواهیم بهترین اپلیکیشنهای دیپ فیک…
#هلند 🔸 این دیپفیک..
یک فرد با استفاده از فناوری #دیپفیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریههای NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیهای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری میکنند.
البته به نظر نمیرسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیبهای احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی میتواند سیاستمداران را فریب دهد تا تصمیمهای اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانهتری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقعگرایانه ساخته میشود.
یک فرد با استفاده از فناوری #دیپفیک هویت رئیس ستاد یکی از مخالفان دولت روسیه را جعل کرده و با نمایندگان پارلمان #هلند گفتگوی ویدئویی انجام داده است.
سیاستمداران هلندی به طور مستقیم با خطرات ویدئوهای دیپ فیک روبرو شدند.
به گزارش مهر، طبق گزارش نشریههای NL Times و De Volkskrant اعضای کمیته امور خارجه پارلمان این کشور فریب خوردند و با فردی کنفرانس ویدئویی برقرار کردند که با استفاده از فناوری دیپ فیک خود را لئونید ولکوف رئیس ستاد آلکسی ناوالنی (مخالف دولت رسمی روسیه) معرفی کرده بود.
نام این فرد هنوز فاش نشده اما به طور حتم این نخستین مورد سواستفاده او از فناوری دیپ فیک نبوده است. همین فرد با سیاستمداران لتونیایی و اوکراینی نیز گفتگو کرده و به مقامات سیاسی در استونی، لیتوانی و انگلیس نزدیک شده است.
پارلمان هلند در بیانیهای اعلام کرد درباره این گفتگوی جعلی خشمگین است و از بروز چنین رویدادهایی در آینده جلوگیری میکنند.
البته به نظر نمیرسد این تماس ویدئویی جعلی پیامدهای بلندمدتی داشته باشد. اما در هرحال نشان دهنده آسیبهای احتمالی گفتگوهای دیپ فیکی با سیاستمداران است.
فرد جاعل ممکن است باعث شرمساری مقامات شود، اما یک جاسوس وابسته به دولت خارجی میتواند سیاستمداران را فریب دهد تا تصمیمهای اشتباه بگیرند.
بنابراین باید فرایندهای بررسی سختگیرانهتری برای رصد موارد استفاده از دیپ فیک استفاده شود.
دیپ فیک، یک فناوری جدید و مبتنی بر هوش مصنوعی است که با استفاده از تصاویر و ویدئوهای دروغین اما واقعگرایانه ساخته میشود.
🔸دیپفیک نمایندگان پارلمان هلند را فریب داد
کارشناسان مدتهاست درباره خطرات فناوری #دیپفیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خوردهاند. گویا سیاستمداران هلندی میخواستهاند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفتوگو کردهاند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانهها میگویند او پیش از این نیز با سیاستمداران دولتهای دیگر را نیز فریب داده و با آن ها گفتوگو کرده است.
دیپفیک، اگرچه در شکل کنونیاش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاههای حساس دردسرآفرین شود و به همین دلیل باید فناوریهایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
کارشناسان مدتهاست درباره خطرات فناوری #دیپفیک هشدار می دهند. پای این فناوری به عالم سیاست هم کشیده شده و گروهی از اعضای پارلمان #هلند فریب آن را خوردهاند. گویا سیاستمداران هلندی میخواستهاند با کنفرانسی ویدئویی با مسئول دفتر #آلکسی_ناوالنی رهبر مخالفان دولت #روسیه صحبت کنند، اما به جای آن با شخص دیگری گفتوگو کردهاند که چهره خود را با فناوری دیپفیک عوض کرده بود.
مشخص نشده کسی که هویت دیگران را جعل کرده، چه کسی بوده اما رسانهها میگویند او پیش از این نیز با سیاستمداران دولتهای دیگر را نیز فریب داده و با آن ها گفتوگو کرده است.
دیپفیک، اگرچه در شکل کنونیاش بیشتر اسباب سرگرمی و تفریح است، ناظران معتقدند ممکن است در بزنگاههای حساس دردسرآفرین شود و به همین دلیل باید فناوریهایی توسعه یابد تا روند احراز هویت طرفین به صورت دقیق و مطمئن انجام شود.
#ماهنامه_مدیریت_ارتباطات
پرونده ویژه ماهنامه مدیریت ارتباطات درباره دیپفیک را در شماره ١٢٩ بخوانید یا از این لینک دریافت کنید
#سینما
🔸هوش مصنوعی دوبله میکند
تکنولوژی #دیپفیک توانسته است یکی از متنهای فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرمافزاری که برای این کار استفاده شده است از #هوشمصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته میتواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرمافزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان میتواند همزمان فیلم را به چند زبان داشته باشد.
🔸هوش مصنوعی دوبله میکند
تکنولوژی #دیپفیک توانسته است یکی از متنهای فیلم راننده تاکسی (با بازیگری رابرت دنیرو) را به زبان آلمانی و درست هماهنگ با تصویر اجرا کند.
نرمافزاری که برای این کار استفاده شده است از #هوشمصنوعی استفاده کرده تا به این توانایی برسد. این #تکنولوژی البته میتواند هزینه را کاهش و سرعت دوبله را افزایش دهد اما برخی نگران هستند هنرمندان زیادی بیکار شوند و کارها از حالت انسانی به سمت ماشینی شدن پیش رود.
نرمافزاز دیپ فیک با استفاده از هوش مصنوعی صورت فردی را روی صورت دیگری #مونتاژ می کند. با این تکنولوژی کارگردان میتواند همزمان فیلم را به چند زبان داشته باشد.
🔸دیپ فیک چیست؟
#دیپفیک (جعل عمیق) از ترکیب واژگان Deep (عمیق) و"Fake (جعل) ساخته شده و یک تکنیک نرمافزاری مبتنی بر #هوشمصنوعی است که در محتوای صوت و تصویر به دلخواه دست میبرد و در واقع چیزی کاملا متفاوت از واقعیت و حقیقت تولید میکند
#دیپفیک (جعل عمیق) از ترکیب واژگان Deep (عمیق) و"Fake (جعل) ساخته شده و یک تکنیک نرمافزاری مبتنی بر #هوشمصنوعی است که در محتوای صوت و تصویر به دلخواه دست میبرد و در واقع چیزی کاملا متفاوت از واقعیت و حقیقت تولید میکند
#خبر🔸نگاه تجاری به دیپفیک آسیب زاست
#حسین_کرمانی دکترای ارتباطات معتقد است در کشور ما هر از گاهی واژه و اصطلاحی برجسته میشود و برای آن کنفرانس و سمیناری برگزار میشود و در نهایت تبدیل به یک تجارت میشود، مثل بلایی که بر سر سواد رسانهای آمد. این احتمال هست که برای #دیپفیک هم چنین اتفاقی بیافتد. به همین خاطر برای پرداختن به فرصتها و تهدیدهای آن فعلا اظهار نظر زود است. دانشگاهها و سازمانهای مسئول باید به فکر تقویت تحقیقات علمی و پژوهش ها درباره دیپ فیک باشند. همچنین اساتید باید بر روی این موضوع درست کار کنند تا دانش عمومی جامعه را بالا ببرند و استفاده از ظرفیت #صداوسیما برای استفاده درست از این تکنیک هم، میتواند کمک کننده باشد.
کرمانی در ابتدای صحبتهای خود با اشاره به ذینفعان دیپفیک به شفقنا رسانه میگوید: دیپفیک را نمیتوان یک نرم افزار نامید، بلکه حاصل ابزارها، نرمافزارها و تکنیکهای بصری و کامپیوتری است که به تولید دیپ فیک میانجامد. ذینفعان دیپفیک، عمدتا گروهای سیاسی، گروههای قدرتمند و ذینفوذ در جوامع مختلف است که اهداف سیاسی یا هر نوع برنامه و عمل دیگری را دنبال میکنند و میخواهند به اهداف خاصی برسند. متن کامل
#حسین_کرمانی دکترای ارتباطات معتقد است در کشور ما هر از گاهی واژه و اصطلاحی برجسته میشود و برای آن کنفرانس و سمیناری برگزار میشود و در نهایت تبدیل به یک تجارت میشود، مثل بلایی که بر سر سواد رسانهای آمد. این احتمال هست که برای #دیپفیک هم چنین اتفاقی بیافتد. به همین خاطر برای پرداختن به فرصتها و تهدیدهای آن فعلا اظهار نظر زود است. دانشگاهها و سازمانهای مسئول باید به فکر تقویت تحقیقات علمی و پژوهش ها درباره دیپ فیک باشند. همچنین اساتید باید بر روی این موضوع درست کار کنند تا دانش عمومی جامعه را بالا ببرند و استفاده از ظرفیت #صداوسیما برای استفاده درست از این تکنیک هم، میتواند کمک کننده باشد.
کرمانی در ابتدای صحبتهای خود با اشاره به ذینفعان دیپفیک به شفقنا رسانه میگوید: دیپفیک را نمیتوان یک نرم افزار نامید، بلکه حاصل ابزارها، نرمافزارها و تکنیکهای بصری و کامپیوتری است که به تولید دیپ فیک میانجامد. ذینفعان دیپفیک، عمدتا گروهای سیاسی، گروههای قدرتمند و ذینفوذ در جوامع مختلف است که اهداف سیاسی یا هر نوع برنامه و عمل دیگری را دنبال میکنند و میخواهند به اهداف خاصی برسند. متن کامل
🔸ترویج دیپ فیک باید به نفع بشریت باشد نه تخریب و فریب
#حسین_امامی، مدرس ارتباطات دیجیتال در دانشگاه در باره #دیپفیک میگوید: کم بودن ساخت دیپ فیک در ایران در مقایسه با آماری که مجمع جهانی اقتصاد منتشر کرده که سالانه ۹۰۰درصد رشد داشته است میتواند فرصت خوبی باشد تا از جنبههای مثبت آن بیشتر بهره گرفت. به عبارتی ترویج دیپ فیک باید به نفع بشریت باشد، نه فریب، تخریب و اخاذی.
دیپ فیک، در باور عامه مردم، مفهومی منفی دارد در حالی که میتواند کاربردهای مثبتی هم داشته باشد. بنابراین اینگونه نیست که همیشه در مواجهه با دیپ فیک، کسی نفع ببرد و یکی بازنده باشد. متن کامل
#حسین_امامی، مدرس ارتباطات دیجیتال در دانشگاه در باره #دیپفیک میگوید: کم بودن ساخت دیپ فیک در ایران در مقایسه با آماری که مجمع جهانی اقتصاد منتشر کرده که سالانه ۹۰۰درصد رشد داشته است میتواند فرصت خوبی باشد تا از جنبههای مثبت آن بیشتر بهره گرفت. به عبارتی ترویج دیپ فیک باید به نفع بشریت باشد، نه فریب، تخریب و اخاذی.
دیپ فیک، در باور عامه مردم، مفهومی منفی دارد در حالی که میتواند کاربردهای مثبتی هم داشته باشد. بنابراین اینگونه نیست که همیشه در مواجهه با دیپ فیک، کسی نفع ببرد و یکی بازنده باشد. متن کامل
شفقنا رسانه | Shafaqna Media
حسین امامی: ترویج دیپ فیک باید به نفع بشریت باشد نه تخریب و فریب - شفقنا رسانه | Shafaqna Media
شفقنا رسانه- در سال های اخیر استفاده و کاربرد هوش مصنوعی در تمام دنیا همه گیر شده است. اما مسأله ای که در این میان خودنمایی می کند چگونگی استفاده…
#هوشمصنوعی #جرایمسایبر
🔸پیامدهای دیپفیک در دنیای واقعی
از نظر #یوروپل (پلیس اتحادیه اروپا) #چتجیپیتی تنها یکی از حوزههای هوش مصنوعی است که میتواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوریهای جنجالی هوش مصنوعی مانند #دیپفیک آسیبهای جدی به جامعه رسانده بودند.
بطور مثال، یکی از پروندههای تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکسهای پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکسها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوریهای دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجهای جز "حبس مادامالعمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ فیکهای آنلاین، پورنوگرافیهای غیرقانونی است. گاه نیز از فناوری دیپفیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانوادهاش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیشبینی و از وقوع آن جلوگیری کنند.
🔸پیامدهای دیپفیک در دنیای واقعی
از نظر #یوروپل (پلیس اتحادیه اروپا) #چتجیپیتی تنها یکی از حوزههای هوش مصنوعی است که میتواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوریهای جنجالی هوش مصنوعی مانند #دیپفیک آسیبهای جدی به جامعه رسانده بودند.
بطور مثال، یکی از پروندههای تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکسهای پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکسها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوریهای دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجهای جز "حبس مادامالعمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ فیکهای آنلاین، پورنوگرافیهای غیرقانونی است. گاه نیز از فناوری دیپفیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانوادهاش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیشبینی و از وقوع آن جلوگیری کنند.
#هوشمصنوعی🔸گوگل و تولید عکس
🔻رقبای دستپاچه در حال رقابت هستند
#آلفابت اعلام کرد پس از انتقاداتی که در مورد نحوه تولید عکس افراد در #جمنای (مدل هوش مصنوعی قدرتمند گوگل) پیش آمده فعلا آن را متوقف میکند. گوگل در پستی در شبکه اجتماعی اکس خبر داد: "ما در حال حاضر در حال کار برای رفع مشکلات اخیر در تولید تصویر جمنای هستیم. ما میخواهیم تولید تصویر افراد را متوقف کنیم و به زودی نسخه بهبود یافته را دوباره منتشر خواهیم کرد."
این اشتباه در حالی رخ میدهد که گوگل به طرز فزایندهای بر روی هوش مصنوعی متمرکز شده است تا از #مایکروسافت و #اوپنایآی که طور بالقوه تجارت اصلی جستجوی اینترنتی گوگل را تهدید کردهاند.، عقب نماند. پیشرفت در هوش مصنوعی در عین حال به این نگرانی منجر شده است که این فناوری باعث ایجاد #دیپفیک، اطلاعات نادرست و سوگیری میشود.
در اوایل این هفته، گوگل اعلام کرد که میدانسته جمنای در تولید برخی از تصاویر تاریخی دچار عدم دقت بوده است. این شرایط به این دلیل پیش آمد که منتقدان در اکس نمونههای متعددی از این مدل را منتشر کردند که به نظر میرسید تصاویر تاریخی نژاد سوژهها را نادرست نشان میدهند... +
🔻رقبای دستپاچه در حال رقابت هستند
#آلفابت اعلام کرد پس از انتقاداتی که در مورد نحوه تولید عکس افراد در #جمنای (مدل هوش مصنوعی قدرتمند گوگل) پیش آمده فعلا آن را متوقف میکند. گوگل در پستی در شبکه اجتماعی اکس خبر داد: "ما در حال حاضر در حال کار برای رفع مشکلات اخیر در تولید تصویر جمنای هستیم. ما میخواهیم تولید تصویر افراد را متوقف کنیم و به زودی نسخه بهبود یافته را دوباره منتشر خواهیم کرد."
این اشتباه در حالی رخ میدهد که گوگل به طرز فزایندهای بر روی هوش مصنوعی متمرکز شده است تا از #مایکروسافت و #اوپنایآی که طور بالقوه تجارت اصلی جستجوی اینترنتی گوگل را تهدید کردهاند.، عقب نماند. پیشرفت در هوش مصنوعی در عین حال به این نگرانی منجر شده است که این فناوری باعث ایجاد #دیپفیک، اطلاعات نادرست و سوگیری میشود.
در اوایل این هفته، گوگل اعلام کرد که میدانسته جمنای در تولید برخی از تصاویر تاریخی دچار عدم دقت بوده است. این شرایط به این دلیل پیش آمد که منتقدان در اکس نمونههای متعددی از این مدل را منتشر کردند که به نظر میرسید تصاویر تاریخی نژاد سوژهها را نادرست نشان میدهند... +
Yahoo Finance
Google Pauses AI-Made Images of People After Race Inaccuracies
(Bloomberg) -- Alphabet Inc.’s Google said it will pause the image generation of people for Gemini, a powerful artificial intelligence model, after criticism about how it was handling race. Most Read from BloombergNvidia Rises Most in About Nine Months as…