هُدهُد"علوم شناختی و رسانه "
1.91K subscribers
1.78K photos
855 videos
61 files
768 links
مطالعات رسانه
@mmhn1361
Download Telegram
🔻تقلید صدای یک مدیر شرکت با فناوری "دیپ فیک" و سرقت۲۴۳ هزار دلاری

یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوش‌مصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.

👈بنابر گزارش Futurism، این فرد با استفاده از نرم‌افزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیه‌کننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت می‌شود.

👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگی‌های سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمی‌کند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.

👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.

#دیپ_فیک

@HOD8HOD
سرمایه گذاری 10 میلیون دلاری فیس بوک و مایکروسافت برای مبارزه با #دیپ_فیک یا #جعل_عمیق

این روزها ماجرای ویدئوها و تصاویر دیپ فیک یا جعل عمیق به شدت حاشیه ساز شده و بسیاری از اشخاص و نهادها را درگیر کرده است. اکنون دو شرکت سرشناس فیس بوک و مایکروسافت اعلام کرده اند که تلاش خواهند کرد تمامی ویدئوهای جعل عمیق را در پلتفرمهای خود نشانه گذاری کنند.

به گزارش سرویس آی تی و فناوری انتخاب، فیس بوک قصد دارد روشی را ایجاد کند که بر اساس ان امکان شناسایی فیلم های ساخته شده با تکنیک جعل عمیق امکان پذیر شود.

شاید برایتان سوال باشد چرا باید فیلم های جعل عمیق برای این پلتفرمهای سرشناس آنلاین مهم باشد. فارغ از مسائلی که برای اشخاص رخ می دهدف گاهی ابعاد ویدئوهای جعل عمیق ملی و جهانی است. اگر فیلم های "عمیق" ایجاد شده توسط هوش مصنوعی در آینده در حوزه هایی مثل آتش سوزی پخش شوند، می توانند با انتشار خبری جعلی زمینه ساز هرج و مرج اجتماعی باشند. این نوع اتفاقات نیز احتمالا در فیس بوک یا واتس اپ و اینستاگرام که متعلق به فیس بوک هستند رخ خواهد داد.

اکنون این شبکه اجتماعی سیستمی را برای مبارزه و به چالش کشیدن جعل عمیق در دست تولید دارد و حدود 10 میلیون دلار نیز در این زمینه کمک هزینه تحقیقاتی و پاداش ارائه می دهد. این تلاش با مشارکت مایکروسافت در حوزه هوش مصنوعی ، انجام می شود و تیمی از دانشگاهیان ام آی تی، آکسفورد، برکلی ، مریلند ، کالج پارک و دانشگاه ایالتی نیویورک از این طرح پشتیبانی می کنند.

فیس بوک در گذشته آزمایش هایی را بدون رضایت کاربران روی آنان انجام داده است اما این بار تأکید می کند شرکت از داده های کاربران فیس بوک استفاده نخواهد کرد. هدف این است نوعی فناوری ایجاد شود که وقتی کاربران در حال دیدن فیلم یا تصاویر هستند تشخیص دهند این تصاویر و فیلمها جعلی هستند یا حقیقت دارند.

دکتر مت تورک ، مدیر برنامه در دفتر نوآوری اطلاعات دارپا در این خصوص(I2O) گفت: "بین دستکاری هایی که رسانه ها را برای سرگرمی یا اهداف هنری انجام می دهند و دستکاری هایی که با هدف فریب مردم انجام می شود، تفاوت هایی وجود دارد و مردم باید از این تفاوت آگاه شوند."

@HOD8HOD
تکنولوژی « #جعل_عمیق » به رئیس جمهور روسیه هم رحم نکرد: مصاحبه جعلی با #پوتین از راه رسید

🔻اخیرا یک مصاحبه جعلی با پوتین منتشر شده که با تکنولوژی #دیپ_فیک یا «جعل عمیق» ساخته شده و نشان می دهد چطور می توان تأثیرات متقاعد کننده ای را روی مخاطب گذاشت که تصور کند در حال تماشای یک شخصیت سیاسی واقعی است.

🔻به گزارش سرویس آی تی و فناوری انتخاب، تکنولوژی جعل عمیق به ساخت تصاویر و ویدئوهایی منجر می شود که به نظر واقعی می رسند اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی #واقعیت_مجازی انجام می شود.

🔻موضوع جعل عمیق به یکی از نگران کننده ترین موضوعات سالهای اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئوهای جعل عمیق با محوریت موضوعاتی سیاسی ساخته می شوند. اخیرا ایالات متحده درباره این موضوع نگرانی های زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال 2020 می شود.

🔻طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفت های فناوری جعل عمیق پرده برداری شد. جایی که از این فناوری برای نمایش مصاحبه در زمان واقعی با رئیس جمهور روسیه؛ ولادیمیر پوتین استفاده شد. هنرمند و متخصص حوزه جعل عمیق؛ #هائو_لی که پوتین قلابی را طراحی کرده است در جریان این کنفرانس گفت که تکنولوژی جعل عمیق می تواند طی سالهای آتی به درجه ای از بلوغ و پختگی برسد که قابل کشف نباشد.

🔻در جریان کنفرانس مهمانها از دیدن پوتین که در یک مصاحبه جعلی حاضر شده بود شوکه شدند اما پوتین واقعی نبود. پیش از این از تکنولوژِی جعل عمیق برای جعل چهره های سرشناس سیاسی و بازیگران بارها و بارها استفاده شده است. در حالی که ادعا می شود در آینده ای نزدیک و نهایتا تا سه سال آتی تکنولوژی جعل عمیق غیرقابل ردیابی است، اما فیس بوک 10 میلیون دلار آمریکا را به تحقیق در زمینه کشف و مبارزه با تکنولوژی جعل عمیق اختصاص داده است.

به ما بپیوندید👈
@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
#دیپ_فیک و دیگر هیچ
وقتی غیر واقعی ها واقعی می شوند.

به ما بپیوندید👈
@HOD8HOD
🔸شرکت‌های بزرگ دنیای فناوری با پیاده‌سازی سیاست‌ها و قوانین جامع در نرم‌افزارها و پلتفرم‌ها، از سوءاستفاده از فناوری دیپفیک می‌توانند جلوگیری کنند.
🔸پلتفرم‌های بزرگ دنیای فناوری تمام تلاش خود را به‌کار می‌گیرند تا اطلاعات صحیح در شبکه‌ها منتشر شود. آن‌ها به‌ویژه درباره‌ی اطلاعات مرتبط با نامزدهای انتخاباتی بسیار حساس هستند و اطلاعات غلط درباره‌ی تاریخ‌های رأی‌گیری با جدی‌ترین برخورد آن‌ها مواجه می‌شود.
🔸توییتر اعلام کرد اگر توییتی باعث ایجاد خطر جدی برای جامعه شود و امنیت آن را به‌خطر بیندازد، قطعا حذف خواهد شد. توییتر همچنین اعلام کرده است درصورت تعامل کاربران با توییتی حاوی محتوای دست‌کاری‌شده، به آن‌ها هشدار می‌دهد و حتی دسترسی و توزیع توییت مذکور را محدود می‌کند.

#دیپ_فیک
#توییتر
#فناوری
#هوش_مصنوعی
@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 اولین موزیک‌ویدیوی ساخته‌شده با هوش مصنوعی و با استفاده از فناوری #دیپ_فیک در ایران

با صدای همایون شجریان و هنرنمایی چهره‌های نام‌آشنا

🔹#دیپ‌فیک چیست؟


🔸دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش‌‌_مصنوعی است که برای تلفیق تصاویر انسان‌ها به کار می‌رود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلم‌های موجود بر روی تصاویر یا فیلم‌‌‌های مورد نظر از تکنیک‌های یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاس‌های یادگیری ماشین است استفاده می‌کند .

🔹در تکنیک #جعل_عمیق، تصاویر و ویدئو‌های دروغینِ به شکلی کاملا واقع‌گرایانه ساخته می‌شود. فن‌آوری جعل عمیق می‌تواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آن‌ها به نظر می‌رسد فردی، حرف خاصی می‌زند یا کاری را انجام می‌دهد که اصلا در دنیای واقعی اتفاق نیفتاده است.

#دیپ‌_فیک
#جعل_عمیق

@HOD8HOD
هُدهُد"علوم شناختی و رسانه "
💠گوشه‌هایی از تکنولوژی #جعل_عمیق یا همان #DeepFake را ببینید. تشخیص جعلی از واقعی این روزها به شدت دشوار شده است @HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
💠 تکنیک #دیپ_فیک و همخوانی شهدا با شعر مدافعان حرم

🔸تکنولوژی به کمک رسانه می‌آید تا محتوا باور پذیر شود.

🔹نگاه واقع بینانه به تکنولوژی کمک می کند تا از فرصت های آن استفاده کنیم و مانع آسیب‌های رسانه شویم.

🔸 تکنیک دیپ فیک می گوید به چشمانتان نیز اعتماد نکنید.


#سواد‌رسانه‌ای
@HOD8HOD
💠 تبعات #دیپ_فیک

🔸 انواع فناوری‌های دیپ فیک یا جعل عمیق که به تازگی ابداع شده‌اند، از چند سال پیش به سهولت در دسترس کاربران قرار گرفته‌اند.

🔹این تغییرات دیجیتالی باعث نگرانی در زمینه آسیب‌‌های احتمالی و تبعات فاجعه باری شده است که این فناوری‌‌‌ها می‌‌‌توانند در جامعه داشته باشند.

🔸سازندگان تصاویر دیپ فیک با استفاده از الگوریتم‌‌های هوش مصنوعی، قادر به ساخت مدل‌‌های تقلبی‌اند که به شدت واقعی به نظر می‌‌‌رسند.

🔹استفاده از این فناوری در ویدئو، تصویر و صدا به کار می‌‌‌رود؛ به طوری که این رسانه ترکیبی به زودی می‌‌‌تواند انقدر پیش‌رونده شود که حتی صحت برخی وقایع تاریخی را زیرسوال برد.

🔸 چیزی که همه ما می‌‌‌دانیم این است که استفاده از فناوری دیپ فیک یا جعل عمیق فقط در حوزه سیاست نیست. تا زمانی که اقدامی در جهت استانداردسازی یا وضع قانون در این زمینه نکنیم، صداقت در ثبت تاریخ با شواهد و مدارک واقعی در معرض خطر خواهد بود.

آیا آینده‌‌‌ای پر از دروغ پیش روی ماست؟


📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
yun.ir/krp5l3 🔗

@HOD8HOD