This media is not supported in your browser
VIEW IN TELEGRAM
ویدئو/ #جعل_عمیق به زبان ساده
شما هم به #ویدیوهایی برخوردهاید که در آنها یک سیاستمدار مشهور سخنانی نامربوط یا دور از جایگاه خود میزند؟ این ویدیوها محصول #جعل_عمیق هستند؛ فناوریای که مثلا میتواند تحولی عمیق در صنعت سینما ایجاد کند، یا اگر مورد سوء استفاده قرار گیرد، ممکن است پیامدهای سیاسی و اجتماعی هولناکی در پی داشته باشد.
روش کار چگونه است؟
برای تولید یک #ویدیوی یک دقیقهای چقدر زمان لازم است؟
کاستیهای کار کجاست؟
////
شما هم به #ویدیوهایی برخوردهاید که در آنها یک سیاستمدار مشهور سخنانی نامربوط یا دور از جایگاه خود میزند؟ این ویدیوها محصول #جعل_عمیق هستند؛ فناوریای که مثلا میتواند تحولی عمیق در صنعت سینما ایجاد کند، یا اگر مورد سوء استفاده قرار گیرد، ممکن است پیامدهای سیاسی و اجتماعی هولناکی در پی داشته باشد.
روش کار چگونه است؟
برای تولید یک #ویدیوی یک دقیقهای چقدر زمان لازم است؟
کاستیهای کار کجاست؟
////
«#دیپ_فیک» خطرناکترین فناوری قرن معرفی شد
«#جعل_عمیق» یا «دیپ فِیک» نوع ویژهای از فناوری هوش مصنوعی است که بواسطه کارکرد خود برای نامگذاری آن دو اصطلاح «یادگیری عمیق» و «جعلی» باهم ترکیب شدهاند.
این فناوری تکنیک ویژهای برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که در آن تصاویر و فیلمهای موجود روی تصاویر یا فیلمهای منبع قرار میگیرد و از قابلیت ویژه فناوری یادگیری ماشینی موسوم به «شبکه مولد تخاصمی» (GAN) استفاده میشود.
ویدیوی جعلی که از این طریق ساخته میشود ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیت ویژه نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
در ادامه با #شارا همراه باشید:
https://www.shara.ir/view/46599/
«#جعل_عمیق» یا «دیپ فِیک» نوع ویژهای از فناوری هوش مصنوعی است که بواسطه کارکرد خود برای نامگذاری آن دو اصطلاح «یادگیری عمیق» و «جعلی» باهم ترکیب شدهاند.
این فناوری تکنیک ویژهای برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که در آن تصاویر و فیلمهای موجود روی تصاویر یا فیلمهای منبع قرار میگیرد و از قابلیت ویژه فناوری یادگیری ماشینی موسوم به «شبکه مولد تخاصمی» (GAN) استفاده میشود.
ویدیوی جعلی که از این طریق ساخته میشود ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیت ویژه نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
در ادامه با #شارا همراه باشید:
https://www.shara.ir/view/46599/
مغز انسان به طور ناخودآگاه #جعل_عمیق را تشخیص میدهد
دانشمندان میگویند که درک نحوه تشخیص جعل عمیق بهوسیله مغز، به ایجاد الگوریتمهایی برای شناسایی آنلاین آنها کمک میکند
مطالعهای جدید نشان میدهد مغز انسان قادر است بهطور ناخودآگاه جعل عمیق [#دیپفیک] را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند.
دیپ فیکها، ویدیوها، تصاویر، صدا یا متنیاند که معتبر به نظر میرسند، اما شبیهسازی کامپیوتریاند که برای گمراه کردن و تحت تاثیر قرار دادن افکار عمومی طراحی میشوند.
در این مطالعه که اخیرا در نشریه ویژن ریسرچ منتشر شده، آمده است افرادی سعی کردند جعل عمیق را تشخیص بدهند و با استفاده از اسکن مغزی الکتروآنسفالوگرافی (ئیئیجی) ارزیابی شدند.
در ادامه با #شارا همراه باشید:
https://www.shara.ir
دانشمندان میگویند که درک نحوه تشخیص جعل عمیق بهوسیله مغز، به ایجاد الگوریتمهایی برای شناسایی آنلاین آنها کمک میکند
مطالعهای جدید نشان میدهد مغز انسان قادر است بهطور ناخودآگاه جعل عمیق [#دیپفیک] را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند.
دیپ فیکها، ویدیوها، تصاویر، صدا یا متنیاند که معتبر به نظر میرسند، اما شبیهسازی کامپیوتریاند که برای گمراه کردن و تحت تاثیر قرار دادن افکار عمومی طراحی میشوند.
در این مطالعه که اخیرا در نشریه ویژن ریسرچ منتشر شده، آمده است افرادی سعی کردند جعل عمیق را تشخیص بدهند و با استفاده از اسکن مغزی الکتروآنسفالوگرافی (ئیئیجی) ارزیابی شدند.
در ادامه با #شارا همراه باشید:
https://www.shara.ir