This media is not supported in your browser
VIEW IN TELEGRAM
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
عصر «می گویند»، «شنیده ام» و حتی «دیده ام» پایان یافته است. عصر، عصر هوشمندی است.
دیپ فیک و هر آنچه باید از آن بدانید را در کلیپ بالا ملاحظه کنید.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
عصر «می گویند»، «شنیده ام» و حتی «دیده ام» پایان یافته است. عصر، عصر هوشمندی است.
دیپ فیک و هر آنچه باید از آن بدانید را در کلیپ بالا ملاحظه کنید.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
This media is not supported in your browser
VIEW IN TELEGRAM
#جعل_عمیق
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
قبلا می گفتیم تا خودمان با چشمانمان نبینیم باور نمی کنیم، اما امروزه حتی دیگر به آنچه با چشمانمان می بینم هم نمی توانیم اعتماد کنیم.
دیپ فیک (Deepfake) به معنی جعل عمیق یا یادگیری عمیق جعل کردن، تکنیکی بر پایه #هوش_مصنوعی است که برای تلفیق تصاویر انسانها به کار میرود.
در تکنیک #جعل_عمیق، تصاویر و ویدئوهای دروغینِ به شکلی کاملا واقعگرایانه ساخته میشود. فنآوری جعل عمیق میتواند تصاویری بسازد که از اساس حقیقت ندارند، تصاویری که در آنها به نظر میرسد فردی، حرف خاصی میزند یا کاری را انجام میدهد که اصلا در دنیای واقعی اتفاق نیفتاده است. کارشناسان از رواج استفاده از فنآوری #دیپفیک و پیامدهای آن به شدت ابراز نگرانی میکنند.
@asrehooshmansdi
Media is too big
VIEW IN TELEGRAM
اولین ویدیوی ساخته شده با استفاده از #هوش_مصنوعی و هنرنمایی جمعی از شخصیت های ایران زمین؛ از مصدق و ستارخان تا شهید آوینی و شهید چمران و ....
پازل
#دیپ_فیک #deep_fake #جعل_عمیق #ایران_من #همایون_شجریان
@asrehooshmandi
پازل
#دیپ_فیک #deep_fake #جعل_عمیق #ایران_من #همایون_شجریان
@asrehooshmandi
💠 #جعل_عمیق و کشمکش بین این #فناوری و تشخیصدهندههای آن
⚡ جعل عمیق یا #دیپ_فیک به زودی همانند #فتوشاپ به صورت گسترده مورد استفاده همگان قرار میگیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانیها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.
⚡ تشخیصدهندههای جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن درههای وهمی و شناسایی کوچکترین اختلافها، به دنبال جزئیاتی هستند که با عکس جور در نمیآید.
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
🔗 yun.ir/833kr3
@asrehooshmandi
⚡ جعل عمیق یا #دیپ_فیک به زودی همانند #فتوشاپ به صورت گسترده مورد استفاده همگان قرار میگیرد و از آنجایی که هنوز روش مناسبی برای تشخیص این فناوری وجود ندارد، نگرانیها از در دسترس قرار گرفتن این تکنولوژی افزایش یافته است.
⚡ تشخیصدهندههای جعل عمیق با زیر و رو کردن تصویر و با پیدا کردن درههای وهمی و شناسایی کوچکترین اختلافها، به دنبال جزئیاتی هستند که با عکس جور در نمیآید.
📌 برای خواندن متن کامل مقاله به لینک زیر مراجعه کنید:
🔗 yun.ir/833kr3
@asrehooshmandi
This media is not supported in your browser
VIEW IN TELEGRAM
🔻#جعل_عمیق (Deep Fake) دارد به خطری جدی تبدیل میشود !!!
کمکم با عمومی شدن هوش مصنوعی اصالت و صحت بسیاری از کلیپها، با تردید مواجه خواهد شد و این میتواند علیه امنیت یک جامعه بسیار خطرناک شود.
قبلا میگفتیم تا با چشم خودم نبینم باور نمیکنم، الان و با توجه به شرایط موجود رخ داده در حوزه تکنولوژی، با چشم خودتان دیدید هم باور نکنید.
@asrehooshmandi
کمکم با عمومی شدن هوش مصنوعی اصالت و صحت بسیاری از کلیپها، با تردید مواجه خواهد شد و این میتواند علیه امنیت یک جامعه بسیار خطرناک شود.
قبلا میگفتیم تا با چشم خودم نبینم باور نمیکنم، الان و با توجه به شرایط موجود رخ داده در حوزه تکنولوژی، با چشم خودتان دیدید هم باور نکنید.
@asrehooshmandi