🔻تقلید صدای یک مدیر شرکت با فناوری "دیپ فیک" و سرقت۲۴۳ هزار دلاری
یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوشمصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
👈بنابر گزارش Futurism، این فرد با استفاده از نرمافزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیهکننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت میشود.
👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگیهای سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمیکند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.
👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
#دیپ_فیک
@HOD8HOD
یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوشمصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
👈بنابر گزارش Futurism، این فرد با استفاده از نرمافزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیهکننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت میشود.
👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگیهای سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمیکند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.
👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
#دیپ_فیک
@HOD8HOD
سرمایه گذاری 10 میلیون دلاری فیس بوک و مایکروسافت برای مبارزه با #دیپ_فیک یا #جعل_عمیق
این روزها ماجرای ویدئوها و تصاویر دیپ فیک یا جعل عمیق به شدت حاشیه ساز شده و بسیاری از اشخاص و نهادها را درگیر کرده است. اکنون دو شرکت سرشناس فیس بوک و مایکروسافت اعلام کرده اند که تلاش خواهند کرد تمامی ویدئوهای جعل عمیق را در پلتفرمهای خود نشانه گذاری کنند.
به گزارش سرویس آی تی و فناوری انتخاب، فیس بوک قصد دارد روشی را ایجاد کند که بر اساس ان امکان شناسایی فیلم های ساخته شده با تکنیک جعل عمیق امکان پذیر شود.
شاید برایتان سوال باشد چرا باید فیلم های جعل عمیق برای این پلتفرمهای سرشناس آنلاین مهم باشد. فارغ از مسائلی که برای اشخاص رخ می دهدف گاهی ابعاد ویدئوهای جعل عمیق ملی و جهانی است. اگر فیلم های "عمیق" ایجاد شده توسط هوش مصنوعی در آینده در حوزه هایی مثل آتش سوزی پخش شوند، می توانند با انتشار خبری جعلی زمینه ساز هرج و مرج اجتماعی باشند. این نوع اتفاقات نیز احتمالا در فیس بوک یا واتس اپ و اینستاگرام که متعلق به فیس بوک هستند رخ خواهد داد.
اکنون این شبکه اجتماعی سیستمی را برای مبارزه و به چالش کشیدن جعل عمیق در دست تولید دارد و حدود 10 میلیون دلار نیز در این زمینه کمک هزینه تحقیقاتی و پاداش ارائه می دهد. این تلاش با مشارکت مایکروسافت در حوزه هوش مصنوعی ، انجام می شود و تیمی از دانشگاهیان ام آی تی، آکسفورد، برکلی ، مریلند ، کالج پارک و دانشگاه ایالتی نیویورک از این طرح پشتیبانی می کنند.
فیس بوک در گذشته آزمایش هایی را بدون رضایت کاربران روی آنان انجام داده است اما این بار تأکید می کند شرکت از داده های کاربران فیس بوک استفاده نخواهد کرد. هدف این است نوعی فناوری ایجاد شود که وقتی کاربران در حال دیدن فیلم یا تصاویر هستند تشخیص دهند این تصاویر و فیلمها جعلی هستند یا حقیقت دارند.
دکتر مت تورک ، مدیر برنامه در دفتر نوآوری اطلاعات دارپا در این خصوص(I2O) گفت: "بین دستکاری هایی که رسانه ها را برای سرگرمی یا اهداف هنری انجام می دهند و دستکاری هایی که با هدف فریب مردم انجام می شود، تفاوت هایی وجود دارد و مردم باید از این تفاوت آگاه شوند."
@HOD8HOD
این روزها ماجرای ویدئوها و تصاویر دیپ فیک یا جعل عمیق به شدت حاشیه ساز شده و بسیاری از اشخاص و نهادها را درگیر کرده است. اکنون دو شرکت سرشناس فیس بوک و مایکروسافت اعلام کرده اند که تلاش خواهند کرد تمامی ویدئوهای جعل عمیق را در پلتفرمهای خود نشانه گذاری کنند.
به گزارش سرویس آی تی و فناوری انتخاب، فیس بوک قصد دارد روشی را ایجاد کند که بر اساس ان امکان شناسایی فیلم های ساخته شده با تکنیک جعل عمیق امکان پذیر شود.
شاید برایتان سوال باشد چرا باید فیلم های جعل عمیق برای این پلتفرمهای سرشناس آنلاین مهم باشد. فارغ از مسائلی که برای اشخاص رخ می دهدف گاهی ابعاد ویدئوهای جعل عمیق ملی و جهانی است. اگر فیلم های "عمیق" ایجاد شده توسط هوش مصنوعی در آینده در حوزه هایی مثل آتش سوزی پخش شوند، می توانند با انتشار خبری جعلی زمینه ساز هرج و مرج اجتماعی باشند. این نوع اتفاقات نیز احتمالا در فیس بوک یا واتس اپ و اینستاگرام که متعلق به فیس بوک هستند رخ خواهد داد.
اکنون این شبکه اجتماعی سیستمی را برای مبارزه و به چالش کشیدن جعل عمیق در دست تولید دارد و حدود 10 میلیون دلار نیز در این زمینه کمک هزینه تحقیقاتی و پاداش ارائه می دهد. این تلاش با مشارکت مایکروسافت در حوزه هوش مصنوعی ، انجام می شود و تیمی از دانشگاهیان ام آی تی، آکسفورد، برکلی ، مریلند ، کالج پارک و دانشگاه ایالتی نیویورک از این طرح پشتیبانی می کنند.
فیس بوک در گذشته آزمایش هایی را بدون رضایت کاربران روی آنان انجام داده است اما این بار تأکید می کند شرکت از داده های کاربران فیس بوک استفاده نخواهد کرد. هدف این است نوعی فناوری ایجاد شود که وقتی کاربران در حال دیدن فیلم یا تصاویر هستند تشخیص دهند این تصاویر و فیلمها جعلی هستند یا حقیقت دارند.
دکتر مت تورک ، مدیر برنامه در دفتر نوآوری اطلاعات دارپا در این خصوص(I2O) گفت: "بین دستکاری هایی که رسانه ها را برای سرگرمی یا اهداف هنری انجام می دهند و دستکاری هایی که با هدف فریب مردم انجام می شود، تفاوت هایی وجود دارد و مردم باید از این تفاوت آگاه شوند."
@HOD8HOD
تکنولوژی « #جعل_عمیق » به رئیس جمهور روسیه هم رحم نکرد: مصاحبه جعلی با #پوتین از راه رسید
🔻اخیرا یک مصاحبه جعلی با پوتین منتشر شده که با تکنولوژی #دیپ_فیک یا «جعل عمیق» ساخته شده و نشان می دهد چطور می توان تأثیرات متقاعد کننده ای را روی مخاطب گذاشت که تصور کند در حال تماشای یک شخصیت سیاسی واقعی است.
🔻به گزارش سرویس آی تی و فناوری انتخاب، تکنولوژی جعل عمیق به ساخت تصاویر و ویدئوهایی منجر می شود که به نظر واقعی می رسند اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی #واقعیت_مجازی انجام می شود.
🔻موضوع جعل عمیق به یکی از نگران کننده ترین موضوعات سالهای اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئوهای جعل عمیق با محوریت موضوعاتی سیاسی ساخته می شوند. اخیرا ایالات متحده درباره این موضوع نگرانی های زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال 2020 می شود.
🔻طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفت های فناوری جعل عمیق پرده برداری شد. جایی که از این فناوری برای نمایش مصاحبه در زمان واقعی با رئیس جمهور روسیه؛ ولادیمیر پوتین استفاده شد. هنرمند و متخصص حوزه جعل عمیق؛ #هائو_لی که پوتین قلابی را طراحی کرده است در جریان این کنفرانس گفت که تکنولوژی جعل عمیق می تواند طی سالهای آتی به درجه ای از بلوغ و پختگی برسد که قابل کشف نباشد.
🔻در جریان کنفرانس مهمانها از دیدن پوتین که در یک مصاحبه جعلی حاضر شده بود شوکه شدند اما پوتین واقعی نبود. پیش از این از تکنولوژِی جعل عمیق برای جعل چهره های سرشناس سیاسی و بازیگران بارها و بارها استفاده شده است. در حالی که ادعا می شود در آینده ای نزدیک و نهایتا تا سه سال آتی تکنولوژی جعل عمیق غیرقابل ردیابی است، اما فیس بوک 10 میلیون دلار آمریکا را به تحقیق در زمینه کشف و مبارزه با تکنولوژی جعل عمیق اختصاص داده است.
به ما بپیوندید👈
@HOD8HOD
🔻اخیرا یک مصاحبه جعلی با پوتین منتشر شده که با تکنولوژی #دیپ_فیک یا «جعل عمیق» ساخته شده و نشان می دهد چطور می توان تأثیرات متقاعد کننده ای را روی مخاطب گذاشت که تصور کند در حال تماشای یک شخصیت سیاسی واقعی است.
🔻به گزارش سرویس آی تی و فناوری انتخاب، تکنولوژی جعل عمیق به ساخت تصاویر و ویدئوهایی منجر می شود که به نظر واقعی می رسند اما در حقیقت وجود خارجی ندارند. این کار اغلب با کمک تکنولوژی #واقعیت_مجازی انجام می شود.
🔻موضوع جعل عمیق به یکی از نگران کننده ترین موضوعات سالهای اخیر تبدیل شده است چرا که عده زیادی نگرانند با این تکنولوژی جنایاتی بزرگ رخ دهد. به خصوص وقتی ویدئوهای جعل عمیق با محوریت موضوعاتی سیاسی ساخته می شوند. اخیرا ایالات متحده درباره این موضوع نگرانی های زیادی ابراز کرده است. خصوصاً وقتی صحبت از گسترش اطلاعات نادرست پیش از انتخابات ریاست جمهوری سال 2020 می شود.
🔻طی هفته جاری و در جریان کنفرانس فناوری ام آی تی، از پیشرفت های فناوری جعل عمیق پرده برداری شد. جایی که از این فناوری برای نمایش مصاحبه در زمان واقعی با رئیس جمهور روسیه؛ ولادیمیر پوتین استفاده شد. هنرمند و متخصص حوزه جعل عمیق؛ #هائو_لی که پوتین قلابی را طراحی کرده است در جریان این کنفرانس گفت که تکنولوژی جعل عمیق می تواند طی سالهای آتی به درجه ای از بلوغ و پختگی برسد که قابل کشف نباشد.
🔻در جریان کنفرانس مهمانها از دیدن پوتین که در یک مصاحبه جعلی حاضر شده بود شوکه شدند اما پوتین واقعی نبود. پیش از این از تکنولوژِی جعل عمیق برای جعل چهره های سرشناس سیاسی و بازیگران بارها و بارها استفاده شده است. در حالی که ادعا می شود در آینده ای نزدیک و نهایتا تا سه سال آتی تکنولوژی جعل عمیق غیرقابل ردیابی است، اما فیس بوک 10 میلیون دلار آمریکا را به تحقیق در زمینه کشف و مبارزه با تکنولوژی جعل عمیق اختصاص داده است.
به ما بپیوندید👈
@HOD8HOD
🔸شرکتهای بزرگ دنیای فناوری با پیادهسازی سیاستها و قوانین جامع در نرمافزارها و پلتفرمها، از سوءاستفاده از فناوری دیپفیک میتوانند جلوگیری کنند.
🔸پلتفرمهای بزرگ دنیای فناوری تمام تلاش خود را بهکار میگیرند تا اطلاعات صحیح در شبکهها منتشر شود. آنها بهویژه دربارهی اطلاعات مرتبط با نامزدهای انتخاباتی بسیار حساس هستند و اطلاعات غلط دربارهی تاریخهای رأیگیری با جدیترین برخورد آنها مواجه میشود.
🔸توییتر اعلام کرد اگر توییتی باعث ایجاد خطر جدی برای جامعه شود و امنیت آن را بهخطر بیندازد، قطعا حذف خواهد شد. توییتر همچنین اعلام کرده است درصورت تعامل کاربران با توییتی حاوی محتوای دستکاریشده، به آنها هشدار میدهد و حتی دسترسی و توزیع توییت مذکور را محدود میکند.
#دیپ_فیک
#توییتر
#فناوری
#هوش_مصنوعی
@HOD8HOD
🔸پلتفرمهای بزرگ دنیای فناوری تمام تلاش خود را بهکار میگیرند تا اطلاعات صحیح در شبکهها منتشر شود. آنها بهویژه دربارهی اطلاعات مرتبط با نامزدهای انتخاباتی بسیار حساس هستند و اطلاعات غلط دربارهی تاریخهای رأیگیری با جدیترین برخورد آنها مواجه میشود.
🔸توییتر اعلام کرد اگر توییتی باعث ایجاد خطر جدی برای جامعه شود و امنیت آن را بهخطر بیندازد، قطعا حذف خواهد شد. توییتر همچنین اعلام کرده است درصورت تعامل کاربران با توییتی حاوی محتوای دستکاریشده، به آنها هشدار میدهد و حتی دسترسی و توزیع توییت مذکور را محدود میکند.
#دیپ_فیک
#توییتر
#فناوری
#هوش_مصنوعی
@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 اولین موزیکویدیوی ساختهشده با هوش مصنوعی و با استفاده از فناوری #دیپ_فیک در ایران
با صدای همایون شجریان و هنرنمایی چهرههای نامآشنا
🔹#دیپفیک چیست؟
🔸دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
🔹در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است.
#دیپ_فیک
#جعل_عمیق
@HOD8HOD
با صدای همایون شجریان و هنرنمایی چهرههای نامآشنا
🔹#دیپفیک چیست؟
🔸دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود. این فناوری برای ترکیب و قرار دادن تصاویر و فیلمهای موجود بر روی تصاویر یا فیلمهای مورد نظر از تکنیکهای یادگیری ماشین تحت عنوان شبکه تقابلی مولد generative adversarial network (GAN) که یکی از کلاسهای یادگیری ماشین است استفاده میکند .
🔹در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است.
#دیپ_فیک
#جعل_عمیق
@HOD8HOD
هُدهُد"علوم شناختی و رسانه "
💠گوشههایی از تکنولوژی #جعل_عمیق یا همان #DeepFake را ببینید. تشخیص جعلی از واقعی این روزها به شدت دشوار شده است @HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
💠 تکنیک #دیپ_فیک و همخوانی شهدا با شعر مدافعان حرم
🔸تکنولوژی به کمک رسانه میآید تا محتوا باور پذیر شود.
🔹نگاه واقع بینانه به تکنولوژی کمک می کند تا از فرصت های آن استفاده کنیم و مانع آسیبهای رسانه شویم.
🔸 تکنیک دیپ فیک می گوید به چشمانتان نیز اعتماد نکنید.
#سوادرسانهای
@HOD8HOD
🔸تکنولوژی به کمک رسانه میآید تا محتوا باور پذیر شود.
🔹نگاه واقع بینانه به تکنولوژی کمک می کند تا از فرصت های آن استفاده کنیم و مانع آسیبهای رسانه شویم.
🔸 تکنیک دیپ فیک می گوید به چشمانتان نیز اعتماد نکنید.
#سوادرسانهای
@HOD8HOD
💠 تبعات #دیپ_فیک
🔸 انواع فناوریهای دیپ فیک یا جعل عمیق که به تازگی ابداع شدهاند، از چند سال پیش به سهولت در دسترس کاربران قرار گرفتهاند.
🔹این تغییرات دیجیتالی باعث نگرانی در زمینه آسیبهای احتمالی و تبعات فاجعه باری شده است که این فناوریها میتوانند در جامعه داشته باشند.
🔸سازندگان تصاویر دیپ فیک با استفاده از الگوریتمهای هوش مصنوعی، قادر به ساخت مدلهای تقلبیاند که به شدت واقعی به نظر میرسند.
🔹استفاده از این فناوری در ویدئو، تصویر و صدا به کار میرود؛ به طوری که این رسانه ترکیبی به زودی میتواند انقدر پیشرونده شود که حتی صحت برخی وقایع تاریخی را زیرسوال برد.
🔸 چیزی که همه ما میدانیم این است که استفاده از فناوری دیپ فیک یا جعل عمیق فقط در حوزه سیاست نیست. تا زمانی که اقدامی در جهت استانداردسازی یا وضع قانون در این زمینه نکنیم، صداقت در ثبت تاریخ با شواهد و مدارک واقعی در معرض خطر خواهد بود.
❓ ❓آیا آیندهای پر از دروغ پیش روی ماست؟
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
yun.ir/krp5l3 🔗
@HOD8HOD
🔸 انواع فناوریهای دیپ فیک یا جعل عمیق که به تازگی ابداع شدهاند، از چند سال پیش به سهولت در دسترس کاربران قرار گرفتهاند.
🔹این تغییرات دیجیتالی باعث نگرانی در زمینه آسیبهای احتمالی و تبعات فاجعه باری شده است که این فناوریها میتوانند در جامعه داشته باشند.
🔸سازندگان تصاویر دیپ فیک با استفاده از الگوریتمهای هوش مصنوعی، قادر به ساخت مدلهای تقلبیاند که به شدت واقعی به نظر میرسند.
🔹استفاده از این فناوری در ویدئو، تصویر و صدا به کار میرود؛ به طوری که این رسانه ترکیبی به زودی میتواند انقدر پیشرونده شود که حتی صحت برخی وقایع تاریخی را زیرسوال برد.
🔸 چیزی که همه ما میدانیم این است که استفاده از فناوری دیپ فیک یا جعل عمیق فقط در حوزه سیاست نیست. تا زمانی که اقدامی در جهت استانداردسازی یا وضع قانون در این زمینه نکنیم، صداقت در ثبت تاریخ با شواهد و مدارک واقعی در معرض خطر خواهد بود.
❓ ❓آیا آیندهای پر از دروغ پیش روی ماست؟
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
yun.ir/krp5l3 🔗
@HOD8HOD