This media is not supported in your browser
VIEW IN TELEGRAM
دیگر به چشمانتان هم نمیتوانید اعتماد کنید!
🔹تکنولوژی جدیدی به بازار آمده که تنها با عکس چهره یک شخص میتواند ویدئویی بسازد که در آن صاحب عکس هر چیزی بگوید و هر کاری انجام دهد.
🔹ببینید چرا تکنولوژی "#دیپ_فیک" بسیاری را نگران کرده است.
@asrehooshmandi
🔹تکنولوژی جدیدی به بازار آمده که تنها با عکس چهره یک شخص میتواند ویدئویی بسازد که در آن صاحب عکس هر چیزی بگوید و هر کاری انجام دهد.
🔹ببینید چرا تکنولوژی "#دیپ_فیک" بسیاری را نگران کرده است.
@asrehooshmandi
🔻تقلید صدای یک مدیر شرکت با فناوری #دیپ_فیک و سرقت۲۴۳ هزار دلاری
یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوشمصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
👈بنابر گزارش Futurism، این فرد با استفاده از نرمافزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیهکننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت میشود.
👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگیهای سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمیکند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.
👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
#دیپ_فیک
@asrehooshmandi
یک کلاهبردار با استفاده از فناوری "deepfake" و نرم افزار #هوشمصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
👈بنابر گزارش Futurism، این فرد با استفاده از نرمافزار هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر را تقلید کرده و از مدیر زیرمجموعه در انگلیس خواسته تا طی یک ساعت مبلغی را به یک شرکت تهیهکننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت میشود.
👈مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگیهای سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمیکند. اما نه تنها مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اگرچه این بار مدیر انگلیسی از انجام آن سرباز زد.
👈درنهایت مشخص شد مبلغی که به بلغارستان شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلامنتقلهبرداری سایبری هستند. طبق نوشته وال استریت ژورنال این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است.
#دیپ_فیک
@asrehooshmandi
Forwarded from شارا - شبکه اطلاعرسانی روابطعمومی (Shara Public Relations)
به عصر "#دیپ_فیک" ها خوش آمدید
به عصر "#دیپ_فیک" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دستکم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونهای از محتوایی است که به آن "#دیپ_فیک" (یا جعل عمیق) میگویند.
در ادامه با #شارا همراه باشید:
https://www.shara.ir/view/40774/
به عصر "#دیپ_فیک" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دستکم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونهای از محتوایی است که به آن "#دیپ_فیک" (یا جعل عمیق) میگویند.
در ادامه با #شارا همراه باشید:
https://www.shara.ir/view/40774/
Media is too big
VIEW IN TELEGRAM
اولین ویدیوی ساخته شده با استفاده از #هوش_مصنوعی و هنرنمایی جمعی از شخصیت های ایران زمین؛ از مصدق و ستارخان تا شهید آوینی و شهید چمران و ....
پازل
#دیپ_فیک #deep_fake #جعل_عمیق #ایران_من #همایون_شجریان
@asrehooshmandi
پازل
#دیپ_فیک #deep_fake #جعل_عمیق #ایران_من #همایون_شجریان
@asrehooshmandi
💠 #جعل_عمیق و کشمکش بین این #فناوری و تشخیصدهندههای آن
⚡ جعل عمیق یا #دیپ_فیک به زودی همانند #فتوشاپ به صورت گسترده مورد استفاده همگان قرار میگیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانیها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.
⚡ تشخیصدهندههای جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن درههای وهمی و شناسایی کوچکترین اختلافها، به دنبال جزئیاتی هستند که با عکس جور در نمیآید.
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
🔗 yun.ir/833kr3
@asrehooshmandi
⚡ جعل عمیق یا #دیپ_فیک به زودی همانند #فتوشاپ به صورت گسترده مورد استفاده همگان قرار میگیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانیها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.
⚡ تشخیصدهندههای جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن درههای وهمی و شناسایی کوچکترین اختلافها، به دنبال جزئیاتی هستند که با عکس جور در نمیآید.
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
🔗 yun.ir/833kr3
@asrehooshmandi