This media is not supported in your browser
VIEW IN TELEGRAM
🔴خبر جعلی و دستکاری تکنولوژیک
🔺جدای از هیمنه همه جانبه اخبار جعلی بر رسانه ها و به ویژه شبکه های اجتماعی ، دستاوردهای اعجاب انگیز فناورانه خواسته یا ناخواسته پدیده های جدیدی را در سرزمین خلق اخبار جعلی به وجود آورده اند. آنگونه که شاید دیگر نتوان آنچه را که به عینه میتوان دید و یا شنید باور کرد. در حقیقت، فراتر از شعبده های فوتوشاپ و پروژه هایی چون «چهره به چهره » حالا وارد وادی «جعل عمیق » شده ایم.
🔺دیپفیک نام تکنیکی نرمافزاری مبتنیبر هوش مصنوعی است که در محتوای صوتی و تصویری دست میبرد و آن را به دلخواه دگرگون میسازد. بنابراین نتیجهی نهایی که بهدست میآید، چیزی کاملا متفاوت از حقیقت خواهد بود. درواقع نام این تکنیک نیز بهدرستی عملکرد آن را آشکار میسازد؛ دیپفیک، ترکیبی از یادگیری عمیق (Deep Learning) و جعل (Fake) است.
#اقناع #اقناع_رسانه #لوگوس #پاتوس #خبر_جعلی #جعل_عمیق
با ما همراه باشید
"ژئوپلیتیک رسانه"
@Dr_bavir
🔺جدای از هیمنه همه جانبه اخبار جعلی بر رسانه ها و به ویژه شبکه های اجتماعی ، دستاوردهای اعجاب انگیز فناورانه خواسته یا ناخواسته پدیده های جدیدی را در سرزمین خلق اخبار جعلی به وجود آورده اند. آنگونه که شاید دیگر نتوان آنچه را که به عینه میتوان دید و یا شنید باور کرد. در حقیقت، فراتر از شعبده های فوتوشاپ و پروژه هایی چون «چهره به چهره » حالا وارد وادی «جعل عمیق » شده ایم.
🔺دیپفیک نام تکنیکی نرمافزاری مبتنیبر هوش مصنوعی است که در محتوای صوتی و تصویری دست میبرد و آن را به دلخواه دگرگون میسازد. بنابراین نتیجهی نهایی که بهدست میآید، چیزی کاملا متفاوت از حقیقت خواهد بود. درواقع نام این تکنیک نیز بهدرستی عملکرد آن را آشکار میسازد؛ دیپفیک، ترکیبی از یادگیری عمیق (Deep Learning) و جعل (Fake) است.
#اقناع #اقناع_رسانه #لوگوس #پاتوس #خبر_جعلی #جعل_عمیق
با ما همراه باشید
"ژئوپلیتیک رسانه"
@Dr_bavir
Media is too big
VIEW IN TELEGRAM
⚠️ به چشهمایتان اعتماد نکنید
🔺 اگه تا حالا برای این که بگیم از مطلبی خیلی مطمئنیم می گفتیم:
« به اندازه ی چشمام بهش اطمینان دارم» ؛ یکی دو ساله که دیگه این ضرب المثل کارآیی نداره، چون با ظهور «دیپ فیک» دیگه حتی به چشمهامون هم نمی تونیم اطمینان کنیم...!!!
💢 «دیپ فیک یا جعل عمیق»، تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
جعل عمیق، تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد؛ به طوری که ویدیوی جعلی حاصل، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است. با این وضعیت دیگر نباید به چشمهایمان اعتماد کنیم...!!!‼️
#سواد_رسانهای
#اخبار_جعلی
#جعل_عمیق
#سواد_مدیا
#ژئوپلیتیک_رسانه
با ما همراه باشید
@Dr_bavir
🔺 اگه تا حالا برای این که بگیم از مطلبی خیلی مطمئنیم می گفتیم:
« به اندازه ی چشمام بهش اطمینان دارم» ؛ یکی دو ساله که دیگه این ضرب المثل کارآیی نداره، چون با ظهور «دیپ فیک» دیگه حتی به چشمهامون هم نمی تونیم اطمینان کنیم...!!!
💢 «دیپ فیک یا جعل عمیق»، تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
جعل عمیق، تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد؛ به طوری که ویدیوی جعلی حاصل، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است. با این وضعیت دیگر نباید به چشمهایمان اعتماد کنیم...!!!‼️
#سواد_رسانهای
#اخبار_جعلی
#جعل_عمیق
#سواد_مدیا
#ژئوپلیتیک_رسانه
با ما همراه باشید
@Dr_bavir
⭕️ پنتاگون و استفاده از جعل عمیق
🔹اگرچه پیشرفت در حوزه فناوری و تکنولوژی، یکی از کارویژههای زندگی بشری محسوب میشود اما برخی دولتها وکشورها مانند آمریکا نشان دادهاند که اساسا تکنولوژی را ابزاری جهت استهداف امنیت و ثبات جهانی قلمداد کرده و از این زاویه به آن مینگرند. در قاعده، درخصوص پدیدهای تحت عنوان «جعل عمیق»نیز صادق است.
🔸یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح #جعل_عمیق در فضای مجازی است. بر این اساس، وبگاه آمریکایی «اینترسپت» گزارش داد فرماندهی عملیاتهای ویژه ارتش آمریکا به دنبال استخدام نیروهای مقاطعهکاری است که کاربران اینترنتی «جعل عمیق» را که نه توسط انسانها و نه توسط کامپیوترها قابل شناسایی باشند، ایجاد کنند. این رسانه آمریکایی با استناد به یک طرح متعلق به این واحد فرماندهی نوشت: «نیروهای عملیات ویژه علاقهمند به فن آوریهایی هستند که بتوانند شخصیتهای اینترنتی قانعکنندهای به منظور استفاده از آنها در پلتفرمهای رسانههای اجتماعی، سایتهای شبکههای اجتماعی و دیگر محتواهای آنلاین را ایجاد کنند. این کاربران اینترنتی باید همچون یک فرد منحصر به فرد به نظر برسند که به عنوان یک انسان بتوان آنها را به رسمیت شناخت اما در جهان واقعی وجود نداشته باشند.»
🔺 #جعل_عمیق، تکنیکی بوده که آمریکا بارها از آن در راستای تصویرسازیهای نادرست در قبال واقعیات و پدیدههای گذشته، جاری و حتی آتی در نظام بینالملل استفاده کرده اما اکنون خود در دام آن گرفتار شده است! تبعات این موضوع، گریبانگیر نهادهای اطلاعاتی و جاسوسی آمریکا شده است. در یکی از این موارد، فرماندهی ارتش آمریکا علاقهمند است که مسئله راستیآزمایی کاربران در شبکههای اجتماعی حل شود بنا بر این به دنبال فنآوری است که بتوان با آن تصاویر سلفی و اسناد رسمی را برای دور زدن این بررسیها تولید کرد. در ادامه این گزارش نوشته شد: «نظامیان عملیات ویژه از این قابلیت برای جمعآوری اطلاعات از تالارهای گفتوگوی اینترنتی استفاده خواهند کرد.»
🔸طبق این گزارش این برنامهها با موضع رسمی دولت آمریکا مغایر هستند. نهادهایی همچون دفتر تحقیقات فدرال آمریکا (اف.بی.آی)، آژانس امنیت زیرساخت و امنیت سایبری آمریکا و آژانس امنیت ملی آمریکا پیش از این اعلام کرده بودند که فنآوری جعل عمیق یک تهدید به حساب میآید! عدول آشکار آمریکاییها از این سیاست کلان و رسمی، بیانگر بحرانهای اطلاعاتی و امنیتی عمیقی است که واشنگتن در آستانه انتخابات ریاست جمهوری سال ۲۰۲۴ و متعاقب مداخله گرایی دهشتناک و وقیحانه خود در جنگ غزه و لبنان، به آن مبتلا شده است.
#جهادگران_تبیین
#ژئوپلیتیک_رسانه
با ما همراه باشید
@Dr_bavir
🔹اگرچه پیشرفت در حوزه فناوری و تکنولوژی، یکی از کارویژههای زندگی بشری محسوب میشود اما برخی دولتها وکشورها مانند آمریکا نشان دادهاند که اساسا تکنولوژی را ابزاری جهت استهداف امنیت و ثبات جهانی قلمداد کرده و از این زاویه به آن مینگرند. در قاعده، درخصوص پدیدهای تحت عنوان «جعل عمیق»نیز صادق است.
🔸یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح #جعل_عمیق در فضای مجازی است. بر این اساس، وبگاه آمریکایی «اینترسپت» گزارش داد فرماندهی عملیاتهای ویژه ارتش آمریکا به دنبال استخدام نیروهای مقاطعهکاری است که کاربران اینترنتی «جعل عمیق» را که نه توسط انسانها و نه توسط کامپیوترها قابل شناسایی باشند، ایجاد کنند. این رسانه آمریکایی با استناد به یک طرح متعلق به این واحد فرماندهی نوشت: «نیروهای عملیات ویژه علاقهمند به فن آوریهایی هستند که بتوانند شخصیتهای اینترنتی قانعکنندهای به منظور استفاده از آنها در پلتفرمهای رسانههای اجتماعی، سایتهای شبکههای اجتماعی و دیگر محتواهای آنلاین را ایجاد کنند. این کاربران اینترنتی باید همچون یک فرد منحصر به فرد به نظر برسند که به عنوان یک انسان بتوان آنها را به رسمیت شناخت اما در جهان واقعی وجود نداشته باشند.»
🔺 #جعل_عمیق، تکنیکی بوده که آمریکا بارها از آن در راستای تصویرسازیهای نادرست در قبال واقعیات و پدیدههای گذشته، جاری و حتی آتی در نظام بینالملل استفاده کرده اما اکنون خود در دام آن گرفتار شده است! تبعات این موضوع، گریبانگیر نهادهای اطلاعاتی و جاسوسی آمریکا شده است. در یکی از این موارد، فرماندهی ارتش آمریکا علاقهمند است که مسئله راستیآزمایی کاربران در شبکههای اجتماعی حل شود بنا بر این به دنبال فنآوری است که بتوان با آن تصاویر سلفی و اسناد رسمی را برای دور زدن این بررسیها تولید کرد. در ادامه این گزارش نوشته شد: «نظامیان عملیات ویژه از این قابلیت برای جمعآوری اطلاعات از تالارهای گفتوگوی اینترنتی استفاده خواهند کرد.»
🔸طبق این گزارش این برنامهها با موضع رسمی دولت آمریکا مغایر هستند. نهادهایی همچون دفتر تحقیقات فدرال آمریکا (اف.بی.آی)، آژانس امنیت زیرساخت و امنیت سایبری آمریکا و آژانس امنیت ملی آمریکا پیش از این اعلام کرده بودند که فنآوری جعل عمیق یک تهدید به حساب میآید! عدول آشکار آمریکاییها از این سیاست کلان و رسمی، بیانگر بحرانهای اطلاعاتی و امنیتی عمیقی است که واشنگتن در آستانه انتخابات ریاست جمهوری سال ۲۰۲۴ و متعاقب مداخله گرایی دهشتناک و وقیحانه خود در جنگ غزه و لبنان، به آن مبتلا شده است.
#جهادگران_تبیین
#ژئوپلیتیک_رسانه
با ما همراه باشید
@Dr_bavir