🔸️چگونه در فضای مجازی #جعل و#شایعه را از #واقعیت تشخیص دهیم؟
🔹️«منبع معتبر»: اگر مطلبی منبع معتبر نداشت به راحتی باور نکنید. داشتن یک لینک اینترنتی به عنوان منبع، سادهترین کاری است که انتشار دهنده خبر میتواند برای اعتباربخشی به خبرش در متن بگذارد.
🔹️قطعه فیلم و تکه عکس اصلیترین ابزار شایعهسازها: زاویه خاص فیلمبرداری یا عکسبرداری، مشخص نبودن اتفاقات قبل و بعد از آن تکه جدا شده از فیلم، ربط دادن عکس به مطلب نامرتبط، دستکاری عکس و فیلم،کیفیتهای پایین و نامشخص بودن جزئیات و… فرصت را برای داستانسرایی و شایعهپردازی روی آن ایجاد میکند.
🔹️ قسم دادن، التماس کردن، وعدهدادن، ارعاب یا تهدید برای انتشار مطلب.
🔹️ اعلام زمانهای نسبی به جای ذکر تاریخ مشخص.
🔹️عباراتی که نشان میدهد رازی مخوف یا سندی فوقمحرمانه کشف شده است.
🔹️جملات خبری شبهعلمی و مبهم: دانشمندان کشف کردهاند، آخرین دستاوردهای پزشکی نشان میدهد و... کدام پزشکان؟ کدام دانشمندان؟ عرفان کوانتومی، قانون راز، شعور آب و … نمونههایی از این ادعا هستند.
🔹️ ارجاع به منابع غیرواقعی با اسم های عجیب و غریب و پرابهت شبکه خبری
🔹️تبلیغ یا ضدتبلیغ عقیدتی و نژادپرستانه برای یک فرقه خاص ۹۰ نفر وهابی…، دانشمندی که شیعه شد، یک بهایی و ...
🔹️عدم ارتباط منطقی و تخصصی منبع با متن:رئیس مرکز «قلب» ژاپن گفته است سیگنال موبایل برای «مغز» مضر است.
🔹️اینترنت و گوگل منبع نیستند:اینها ابزارهای ارتباطی و جستجو هستند. هر چیزی در آن پیدا شود درست نیست حتی اگر در چندین جای آن تکرار شده بود.
🔹️آیا می دانیدها.
🔹️ توصیه های اکید و هشدارهای عجیب.
🔹️ تعدد انتساب مطالب به یک شخصیت معروف.
♨️قبل از کپی و ارسال، #مکث، #فکر و سپس #منتشر کنید.
🔹️عصر هوشمندی
👈برگرفته از کانال :
@fake_news_media
🆔 @MLiteracy
🔹️«منبع معتبر»: اگر مطلبی منبع معتبر نداشت به راحتی باور نکنید. داشتن یک لینک اینترنتی به عنوان منبع، سادهترین کاری است که انتشار دهنده خبر میتواند برای اعتباربخشی به خبرش در متن بگذارد.
🔹️قطعه فیلم و تکه عکس اصلیترین ابزار شایعهسازها: زاویه خاص فیلمبرداری یا عکسبرداری، مشخص نبودن اتفاقات قبل و بعد از آن تکه جدا شده از فیلم، ربط دادن عکس به مطلب نامرتبط، دستکاری عکس و فیلم،کیفیتهای پایین و نامشخص بودن جزئیات و… فرصت را برای داستانسرایی و شایعهپردازی روی آن ایجاد میکند.
🔹️ قسم دادن، التماس کردن، وعدهدادن، ارعاب یا تهدید برای انتشار مطلب.
🔹️ اعلام زمانهای نسبی به جای ذکر تاریخ مشخص.
🔹️عباراتی که نشان میدهد رازی مخوف یا سندی فوقمحرمانه کشف شده است.
🔹️جملات خبری شبهعلمی و مبهم: دانشمندان کشف کردهاند، آخرین دستاوردهای پزشکی نشان میدهد و... کدام پزشکان؟ کدام دانشمندان؟ عرفان کوانتومی، قانون راز، شعور آب و … نمونههایی از این ادعا هستند.
🔹️ ارجاع به منابع غیرواقعی با اسم های عجیب و غریب و پرابهت شبکه خبری
🔹️تبلیغ یا ضدتبلیغ عقیدتی و نژادپرستانه برای یک فرقه خاص ۹۰ نفر وهابی…، دانشمندی که شیعه شد، یک بهایی و ...
🔹️عدم ارتباط منطقی و تخصصی منبع با متن:رئیس مرکز «قلب» ژاپن گفته است سیگنال موبایل برای «مغز» مضر است.
🔹️اینترنت و گوگل منبع نیستند:اینها ابزارهای ارتباطی و جستجو هستند. هر چیزی در آن پیدا شود درست نیست حتی اگر در چندین جای آن تکرار شده بود.
🔹️آیا می دانیدها.
🔹️ توصیه های اکید و هشدارهای عجیب.
🔹️ تعدد انتساب مطالب به یک شخصیت معروف.
♨️قبل از کپی و ارسال، #مکث، #فکر و سپس #منتشر کنید.
🔹️عصر هوشمندی
👈برگرفته از کانال :
@fake_news_media
🆔 @MLiteracy
#مفاهیم
#دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای به شدت ابراز نگرانی میکنند. درتصویر ارائه شده؛ اوبامای سمت راست فیک است
منبع :کانال یونس شکرخواه
#دیپ فیک
#جعل_عمیق
#اخبار_جعلی
@MLiteracy
#دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای به شدت ابراز نگرانی میکنند. درتصویر ارائه شده؛ اوبامای سمت راست فیک است
منبع :کانال یونس شکرخواه
#دیپ فیک
#جعل_عمیق
#اخبار_جعلی
@MLiteracy
This media is not supported in your browser
VIEW IN TELEGRAM
📌«جعل عمیق» فریب مخاطب با هوش مصنوعی
🔸️شاید تا به حال در شبکههای اجتماعی تصاویر و فیلمهایی از افراد مختلف را دیدهاید که به نظر واقعی میرسند اما در اصل جعلی هستند. این فیلمها به کمک هوش مصنوعی بهسادگی و حتی توسط افراد مبتدی هم میتوانند ساخته شوند. شما با دیدن این فیلمها چه واکنشی نشان میدهید؟ بهتر است در مواجهه با فیلمهایی که در ظاهر واقعی و در اصل جعلی هستند هیجانزده نشوید و قبل از اینکه دست به انتشار آنها بزنید یا فردی را قضاوت کنید درباره آنها از منابع رسمی و معتبر تحقیق کنید.
#فضای_مجازی
#سواد_رسانه_ای
#شبکه_های_اجتماعی
#جعل_عمیق
🔸️شاید تا به حال در شبکههای اجتماعی تصاویر و فیلمهایی از افراد مختلف را دیدهاید که به نظر واقعی میرسند اما در اصل جعلی هستند. این فیلمها به کمک هوش مصنوعی بهسادگی و حتی توسط افراد مبتدی هم میتوانند ساخته شوند. شما با دیدن این فیلمها چه واکنشی نشان میدهید؟ بهتر است در مواجهه با فیلمهایی که در ظاهر واقعی و در اصل جعلی هستند هیجانزده نشوید و قبل از اینکه دست به انتشار آنها بزنید یا فردی را قضاوت کنید درباره آنها از منابع رسمی و معتبر تحقیق کنید.
#فضای_مجازی
#سواد_رسانه_ای
#شبکه_های_اجتماعی
#جعل_عمیق
#دیپفیک چیست؟
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای به شدت ابراز نگرانی میکنند.
#دیپ_فیک
#جعل_عمیق
#اخبار_جعلی
#سوادرسانه #سواددیجیتال #شکاف_رسانه #آداب_فضای_مجازی
🆔 @MLiteracy
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای به شدت ابراز نگرانی میکنند.
#دیپ_فیک
#جعل_عمیق
#اخبار_جعلی
#سوادرسانه #سواددیجیتال #شکاف_رسانه #آداب_فضای_مجازی
🆔 @MLiteracy