هُدهُد"علوم شناختی و رسانه "
1.91K subscribers
1.78K photos
855 videos
61 files
768 links
مطالعات رسانه
@mmhn1361
Download Telegram
سرمایه گذاری 10 میلیون دلاری فیس بوک و مایکروسافت برای مبارزه با #دیپ_فیک یا #جعل_عمیق

این روزها ماجرای ویدئوها و تصاویر دیپ فیک یا جعل عمیق به شدت حاشیه ساز شده و بسیاری از اشخاص و نهادها را درگیر کرده است. اکنون دو شرکت سرشناس فیس بوک و مایکروسافت اعلام کرده اند که تلاش خواهند کرد تمامی ویدئوهای جعل عمیق را در پلتفرمهای خود نشانه گذاری کنند.

به گزارش سرویس آی تی و فناوری انتخاب، فیس بوک قصد دارد روشی را ایجاد کند که بر اساس ان امکان شناسایی فیلم های ساخته شده با تکنیک جعل عمیق امکان پذیر شود.

شاید برایتان سوال باشد چرا باید فیلم های جعل عمیق برای این پلتفرمهای سرشناس آنلاین مهم باشد. فارغ از مسائلی که برای اشخاص رخ می دهدف گاهی ابعاد ویدئوهای جعل عمیق ملی و جهانی است. اگر فیلم های "عمیق" ایجاد شده توسط هوش مصنوعی در آینده در حوزه هایی مثل آتش سوزی پخش شوند، می توانند با انتشار خبری جعلی زمینه ساز هرج و مرج اجتماعی باشند. این نوع اتفاقات نیز احتمالا در فیس بوک یا واتس اپ و اینستاگرام که متعلق به فیس بوک هستند رخ خواهد داد.

اکنون این شبکه اجتماعی سیستمی را برای مبارزه و به چالش کشیدن جعل عمیق در دست تولید دارد و حدود 10 میلیون دلار نیز در این زمینه کمک هزینه تحقیقاتی و پاداش ارائه می دهد. این تلاش با مشارکت مایکروسافت در حوزه هوش مصنوعی ، انجام می شود و تیمی از دانشگاهیان ام آی تی، آکسفورد، برکلی ، مریلند ، کالج پارک و دانشگاه ایالتی نیویورک از این طرح پشتیبانی می کنند.

فیس بوک در گذشته آزمایش هایی را بدون رضایت کاربران روی آنان انجام داده است اما این بار تأکید می کند شرکت از داده های کاربران فیس بوک استفاده نخواهد کرد. هدف این است نوعی فناوری ایجاد شود که وقتی کاربران در حال دیدن فیلم یا تصاویر هستند تشخیص دهند این تصاویر و فیلمها جعلی هستند یا حقیقت دارند.

دکتر مت تورک ، مدیر برنامه در دفتر نوآوری اطلاعات دارپا در این خصوص(I2O) گفت: "بین دستکاری هایی که رسانه ها را برای سرگرمی یا اهداف هنری انجام می دهند و دستکاری هایی که با هدف فریب مردم انجام می شود، تفاوت هایی وجود دارد و مردم باید از این تفاوت آگاه شوند."

@HOD8HOD
تکنولوژی « #جعل_عمیق » به رئیس جمهور روسیه هم رحم نکرد: مصاحبه جعلی با #پوتین از راه رسید

🔻اخیرا یک مصاحبه جعلی با پوتین منتشر شده که با تکنولوژی #دیپ_فیک یا «جعل عمیق» ساخته شده و نشان می دهد چطور می توان تأثیرات متقاعد کننده ای را روی مخاطب گذاشت که تصور کند در حال تماشای یک شخصیت سیاسی واقعی است.

🔻به گزارش سرویس آی تی و فناوری انتخاب، تکنولوژی جعل عمیق به ساخت تصاویر و ویدئوهایی منجر می شود که به نظر واقعی می رسند اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی #واقعیت_مجازی انجام می شود.

🔻موضوع جعل عمیق به یکی از نگران کننده ترین موضوعات سالهای اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئوهای جعل عمیق با محوریت موضوعاتی سیاسی ساخته می شوند. اخیرا ایالات متحده درباره این موضوع نگرانی های زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال 2020 می شود.

🔻طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفت های فناوری جعل عمیق پرده برداری شد. جایی که از این فناوری برای نمایش مصاحبه در زمان واقعی با رئیس جمهور روسیه؛ ولادیمیر پوتین استفاده شد. هنرمند و متخصص حوزه جعل عمیق؛ #هائو_لی که پوتین قلابی را طراحی کرده است در جریان این کنفرانس گفت که تکنولوژی جعل عمیق می تواند طی سالهای آتی به درجه ای از بلوغ و پختگی برسد که قابل کشف نباشد.

🔻در جریان کنفرانس مهمانها از دیدن پوتین که در یک مصاحبه جعلی حاضر شده بود شوکه شدند اما پوتین واقعی نبود. پیش از این از تکنولوژِی جعل عمیق برای جعل چهره های سرشناس سیاسی و بازیگران بارها و بارها استفاده شده است. در حالی که ادعا می شود در آینده ای نزدیک و نهایتا تا سه سال آتی تکنولوژی جعل عمیق غیرقابل ردیابی است، اما فیس بوک 10 میلیون دلار آمریکا را به تحقیق در زمینه کشف و مبارزه با تکنولوژی جعل عمیق اختصاص داده است.

به ما بپیوندید👈
@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
#جعل_عمیق

قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.

دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌_مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود.

در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فن‌آوری #دیپ‌فیک و پیامدهای آن به شدت ابراز نگرانی میکنند.

@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 اولین موزیک‌ویدیوی ساخته‌شده با هوش مصنوعی و با استفاده از فناوری #دیپ_فیک در ایران

با صدای همایون شجریان و هنرنمایی چهره‌های نام‌آشنا

🔹#دیپ‌فیک چیست؟


🔸دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌_مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .

🔹در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است.

#دیپ‌_فیک
#جعل_عمیق

@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
💠گوشه‌هایی از تکنولوژی #جعل_عمیق یا همان #DeepFake را ببینید.
تشخیص جعلی از واقعی این روزها به شدت دشوار شده است

@HOD8HOD