MatlabTips
892 subscribers
462 photos
72 videos
54 files
304 links
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
خلاصه کتاب: هفت عادت انسان های موثر

The 7 Habits of Highly Effective People: Powerful Lessons in Personal Change https://www.amazon.com/dp/0743269519/ref=cm_sw_r_cp_apa_i_-2uuCb46TZZ0Y
نظریه اطلاعات (قسمت اول)

نظریه اطلاعات در قلب ارتباطات ایجاد شد. زمانی که شما بخواهید پیامی را از یک منبع A به یک مقصد B برسانید همیشه این سوال وجود دارد که بهترین روش برای ارسال اطلاعات چیست. فرض کنید می خواهیم یک سری متون را از A به B برسانیم. اگر بخواهیم هر کاراکتر را به صورت باینری در بیاوریم. در این صورت مثلا برای زبان فارسی نیاز به 5 بیت برای 32 حرف داریم. بنابراین یک کلمه سه حرفی نیاز به 15 بیت برای انتقال دارد. شانون به عنوان یک ریاضیدان و مهندس برق به دنبال راهی برای بهینه تر کردن این ارسال بود. اگرچه چند بیت اضافی شاید خیلی مهم بنظر نرسد اما در آن زمان بیت به بیت برای شبکه های اولیه بسیار پرهزینه بود و از طرفی حتی امروزه هم انتقال بهینه اطلاعات با حجم بسیار زیاد اطلاعات و نیز تعداد بسیار زیاد کاربران بسیار مهم است. هرچند باید دانست کاربردهای نظریه اطلاعات از انتقال اطلاعات بسیار فراتر می رود.

ادامه در لینک زیر
https://goo.gl/WiwwPq
MatlabTips
نظریه اطلاعات (قسمت اول) نظریه اطلاعات در قلب ارتباطات ایجاد شد. زمانی که شما بخواهید پیامی را از یک منبع A به یک مقصد B برسانید همیشه این سوال وجود دارد که بهترین روش برای ارسال اطلاعات چیست. فرض کنید می خواهیم یک سری متون را از A به B برسانیم. اگر بخواهیم…
برای مدت طولانی دوست داشتم نظریه اطلاعات که در قلب بسیاری از نظریه هایی هست که در مهندسی و علوم استفاده میشه رو به زبان ساده بفهمم و برای بقیه توضیح بدم. بالاخره بعد از چندین هفته مطالعه و تغییر پیش نویس دو قسمت اول اون رو آماده کردم. برخلاف اهمیت زیادی که این نظریه داره در خیلی از دانشکده ها این درس هنوز ارایه نمیشه و در بهترین حالت یک زیرمجموعه از نظریه احتمال قرار میگیره. همچنین منابع فارسی ترجمه شده بسیار خشک و بی روح بدون توجه به کاربردها به این موضوع پرداختند. پس تصمیم گرفتم که تمامی منابع انگلیسی مناسبی که در طول دو سال اخیر رو خوندم جمع آوری بکنم و در یک قالب واحد و منسجم و تا جای ممکن شهودی به فارسی بنویسم و در اختیار شما بگذارم. امیدوارم کسی که می خواد درک شهودی(و نه حفظی و طوطی وار) از نظریه اطلاعات پیدا کنه این مجموعه براش مفید باشه. به عقیده من نظریه اطلاعات آنقدر شهودی هست که شما می توانید برای تقریبا هر شخصی با کمترین پیش زمینه ریاضی بدون حفظ کردن حتی یک فرمول توضیح دهید.
از اونجایی که تلگرام رسانه مناسبی برای قرار دادن فرمول ها نیست تصمیم گرفتم اونها رو روی وب منتشر کنم که هم راحتتر قابل خواندن باشد و هم قابل جستجو و دسترسی برای دایره بزرگتری از مخاطبان باشه.
در قسمت قبلی مقدمه ای از نظریه اطلاعات را گفتیم و با مفاهیم اطلاعات و آنتروپی آشنا شدیم. در این قسمت سعی میکنیم ادامه این نظریه با احتمالات و تابع درستنمایی(likelihood) متصل کنیم.

آنتروپی قانون جهانی زبان هاست. مهم نیست شما از چه زبانی استفاده می کنید قوانین نظریه اطلاعات مشخص می کنند فراوانی ها چگونه توزیع می شود. دلایل مهمی برای این موضوع وجود دارد. این که چرا برخی از کلمات به صورت مشخصی در همه زبان ها پرتکرار تر از بقیه هستند و برخی کم تکرار تر هستند. روابط بین کلمات در یک دنبال نیز چنین قوانینی دارد.

https://goo.gl/oj2E9o
🔵برنامه نویس نباشید!🔵

وقتی وارد رشته کامپیوتر شدم اقبال زیادی از این رشته وجود نداشت. رشته کامپیوتر در رده رشته های ششم و هفتم مهندسی بود و حتی به خاطر دارم که اطرافیان به من میگفتند "تو با این رتبه ای که داشتی می توانستی رشته های بهتری(مثلا برق و مکانیک) قبول شوی". جدای از اینکه رشته خوب در ایران فقط و فقط به بازار کار آن خلاصه می شود اوضاع بعد از چند سال عوض شد. تعداد نرم افزارها زیاد شد و با ورود موبایل و اینترنت پر سرعت و اپ های موبایلی تقریبا همه مردم درگیر با تکنولوژی هایی شدند که در علوم کامپیوتر خلاصه می شد. با روی کار آمدن شبکه های اجتماعی و استارت آپ های مختلف که یک شبه راه های صد ساله می پیمودند، کاملا ورق برگشت! در اواخر دوره کارشناسی ارشد بودم که می دیدم تقریبا همه دوستانم حتی از رشته های نامرتبط سعی میکردند برنامه نویسی موبایل یا طراحی سایت یاد بگیرند یا اینکه کارهای برنامه نویسی پیدا کنند. سیل دانشجوهای جدید باعث شیفت تاریخی رتبه های برتر کنکور در چند سال اخیر به سمت مهندسی کامپیوتر شده است. همه این اتفاقات صد البته به نفع کسانی مثل من بود که نه تنها زودتر وارد این حوزه شده بودند بلکه مدرک مرتبط هم داشتند. اما این همه این داستان نیست. این متن را برای همه کسانی می نویسم که عشقشان برنامه نویسی است. متن پیش رو ممکن است خاطر خیلی از همکاران من را آزرده کند ولی باعث نمی شود من را از بیان حقایقی که آن ها را با سختی یافته ام منصرف کند.

خیلی ها وقتی وارد این دنیا می شوند به دنبال یاد گرفتن زبان های برنامه نویسی مختلف هستند و مدام از من میپرسند قوی ترین یا بهترین زبان برنامه نویسی چیست. آن ها ساعت ها وساعت ها برای یادگرفتن چارچوب های جدید نرم افزاری(که امروزه بسیار زیاد هم شده اند و از چارچوب های طراحی سایت گرفته تا یادگیری ماشین هستند) وقت می گذارند. تمام این فعالیت ها بسیار لذت بخش هستند و من هم منکر مفید بودن آن ها نمی شوم. اما این مسیر بیراهه های زیادی هم دارد.

برای اینکه گرفتار نشوید فقط به این فکر کنید که بشر چرا کامپیوتر را درست کرد؟ آیا غیر از این است که کامپیوتر یک ابزار است؟ اگر اینطور است چرا ما تمام وقت خود را صرف یادگرفتن کار با ابزار می کنیم و به منطقی که وجود آن را ضروری کرده توجه نمی کنیم. سعی کنید برنامه نویس های حرفه ای باشید اما فقط برنامه نویس نباشید به چند دلیل:

1-برنامه نویسیِ صرف از شما یک کارگر می سازد. شما یک ابزار شناس خوب هستید اما مساله ها را نمی شناسید یا شخص دیگری آن را برای شما تعریف می کند. شما مثل یک کارگر یک وظیفه مشخص می گیرید، آن را انجام می دهید و دستمزد می گیرید. سعی کنید منطق کاری که انجام می دهید را یاد بگیرید و با آدم ها درگیر شوید. سعی کنید بدانید چطور می توان مساله را تعریف کرد و منطق کسب و کار چیست(business logic). مشتریان شما چه کسانی هستند و چه می کنند. ساز و کارهای قانونی شرکت شما برای کسب درآمد چیست. اگر کار علمی می کنید فقط ورودی نگیرید و خروجی تحویل بدهید. کامپیوترتان را خاموش کنید. قلم و کاغذ دست بگیرید و بر روی آن فکر کنید. اگر مساله ای را نمی فهمید کپی کردن چند خط کد و استفاده از یک لایبرری به شما هیچ کمکی نمیکند. fft را بفهمید نه اینکه بدانید در متلب چگونه استفاده می شود!

2-سرعت تغییر در ابزارها زیاد است. خیلی از ابزارها و حتی زبان های برنامه نویسی بعد از مدتی کنار گذاشته می شوند. اما شما انسان هستید و باید یک حل کننده مساله باشید. کنار گذاشتن یک لایبرری یا چارچوب توسط شرکتتان نباید به قیمت کنار گذاشتن شما تمام شود. سعی کنید الگوریتم ها را درک کنید و با مفاهیم سر و کله بزنید. شی گرایی را در فقط جاوا بلد نباشید. شما باید بتوانید آن را به صورت مفهومی هم توضیح دهید. شما backpropagation را باید درک کنید نه صرفا بدانید که در یک لایبری چطور باید آن را صدا زد.

3-زمان محدود است. تا چشم به هم بزنید سن شما بالا میرود و دیگر در سن بالای سی سالگی کسی شما را به عنوان یک برنامه نویسِ صرف استخدام نمی کند. شما باید بتوانید تا آن زمان چندین مهارت مهم، کاملا مستقل از برنامه نویسی را در خود پرورش دهید.
4-اکنون دیگر همه برنامه نویسی می کنند. برنامه نویسی ابزاری شده است که از زمین شناس تا متخصص ژنتیک و حتی بازاریاب ها آن را فرا گرفته اند. شاید اعتراض کنید که کدهای آن ها بسیار محدود و خارج از اصول است. اما وقتی وارد تعامل با آنها می شوید متوجه می شوید آنها نه تنها برنامه نویس های خوبی هستند بلکه خیلی چیزهای دیگر(مثل زمین شناسی، ژنتیک و بازاریابی) هم می دانند در حالی که شما فقط برنامه نویسی می دانید! آگاهی به این موضوع ممکن است بسیار دردناک باشد اما واقعیتی است که اگر دیر متوجه آن بشوید شاید فرصت مناسب برای جبران آن نداشته باشید. در اولین قدم باید یک انقلاب مهم در افکارتان نسبت به برنامه نویسی ایجاد کنید و آن را از مرکز دنیاتان قدری کنار بگذارید.

5-باز هم تاکید می کنم باید بتوانید روابط اجتماعی خود را گسترش دهید. خیلی از برنامه نویسان تازه کار تصور می کنند با افزایش مهارت صرف می توانند به هر جایی که می خواهند برسند. اما وقتی وارد یک شرکت واقعی یا آزمایشگاه بزرگ می شوند و با آدم های واقعی سر و کله می زنند متوجه می شوند مهارت های تکنیکی شاید تنها نصف کل مسیر باشد. شما اگر نتوانید در یک تیم زندگی کنید و با آنها به صورت سازنده تعامل کنید نمی توانید هیچ کار بزرگی انجام دهید.

6-برنامه بنویسید که مشکلات را حل کنید! برنامه نویسی در نهایت باید برای حل یک مشکل باشد. شما باید خلاق باشید. حل کننده مسایل باشید. شما باهوش هستید و باید از هوشتان به نفع جامعه تان استفاده کنید. انجام دادن چیزی که وقتی پیر شدید بتوانید آن را از لحاظ اخلاقی ارزشمند بدانید. شاید بسیار آرمان گرایانه بنظر برسد اما اگر برنامه نویسی باعث نمی شود مشکلی از مردم حل کنید باید دوباره به آن فکر کنید. راه های دیگری هم برای فقط کسب پول هست!

برای رسیدن به همه اینها شما نیاز دارید که geek به معنای اغراق آمیز آن نباشید. این اتفاق متاسفانه در اهالی برنامه نویس بسیار اتفاق می افتد. باید دایره مطالعه تان را گسترش دهید و علایق دیگری غیر از پشت کامپیوتر نشستن را در خودتان پرورش دهید. اگر کسی ندارد که آخر هفته تان را را با او بگذرانید یا کاری غیر از برنامه نویسی در لیست تفریحاتتان نیست باید متوجه آژیر های خطر باشید و شروع کنید به تغییر دادن رویه هایتان تا روزی نرسد که شما هم فرقی با کامپیوتر نداشته باشید. فراموش نکنید ما قبل از همه چیز انسان هستیم و باید زندگی کنیم.
زمان Imagenet برای پردازش زبان طبیعی فرارسیده است!

دیتاست imagenet انقلابی در پردازش تصویر و هوش مصنوعی ایجاد کرد طوری که بسیاری از مسایل دیرپای این حوزه بعد از مدتی با روش های یادگیری عمیق به زانو در آمدند و توسط ماشین قابل حل شدند. به سرعت نتایج چنین راه حل هایی حتی صنعتی شد و میوه های آن را حتی بر روی یک موبایل ساده می توان دید! (آنلاک کردن گوشی با تصویر چهره تان)

شاید چموش ترین بخش هوش مصنوعی پردازش زبان طبیعی باشد چرا که اساسی ترین سوالات بشر در مورد هوش ماشین به یادگیری زبان توسط ماشین مرتبط می شود. آزمون معروف تورینگ سند محکمی برای این ادعا است. تمام تلاش های زبان شناسان، معناشناسان، دانشمندان علوم کامپیوتر، علوم شناختی و عصب شناسی با نظریات ابتدایی از زبان در دهه های ۶۰ و ۷۰ میلادی در برابر واقعیت زبان های بشری به خاکستر تبدیل شد. پروژه های جاه طلبانه زیادی با شکست مواجه شدند اما امروز متخصصین با فروتنی بسیار بیشتر به نتایج شگفت انگیزی رسیده اند.

در سالهای گذشته مدل سازی احتمالاتی زبان، در مرکز تقریبا تمامی تلاش ها برای برملا کردن چند راز از این هزارتوی عجیب و غریب قرار گرفته است. مدل های زیادی ارایه شده اند که هر کدام ساده سازی های زیادی انجام میدهد. هدف این مدلسازی ها اتوماتیک کردن برخی از کارهایی است که مردم می توانند با زبان انجام دهند. مثلا آیا دو جمله از لحاظ معنایی یکسان هستند؟ شباهت معنایی جملات چقدر است؟ چه چیزی از چند جمله می توان نتیجه گرفت؟چگونه می توان یک متن را خلاصه کرد؟ این جمله مثبت است یا منفی؟ و ده ها وظیفه دیگر که اگرچه برای انسان فوق العاده ساده بنظر می رسد اما الگوریتم ها نمی توانند برای آن کاری بکنند.

خیلی از مدل ها در طول چندین سال فقط توانستند پیشرفت های اندکی در این زمینه داشته باشند. اما یکی از این مدل های احتمالاتی به اسم BERT که سه ماه پیش توسط گوگل ارایه شد برای اولین بار توانست از این سد عبور کند و در بسیاری از وظایف تعریف شده حتی از انسان پیشی بگیرد!! این تقریبا نخستین بار است که ماشین در درک زبان توانسته از انسان پیشی بگیرد. اگر با ادبیات موضوع این زمینه آشنا باشید متوجه می شوید مدلی که گوگل به آن رسیده خیلی پیچیده نیست. ایده اصلی در واقع به طرز عجیبی ساده است. در مدل های معمول برای زبان از شبکه های عصبی ای استفاده می شود که یک حالت را نگه می دارند و همزمان که بر روی کلمات یک متن حرکت می کنند آن حالت را بروز رسانی می کنند. دلیل اینکه چرا کل متن را همزمان به عنوان ورودی نمی دهند این است که در این صورت مدل زبانی نمی تواند کلمه بعدی را پیش بینی کند چون ما از قبل آن را به شبکه خورانده ایم. شبکه عصبی BERT از یک کلک ساده استفاده می کند. به جای دادن کل متن به صورت تصادفی تنها بخشی از کلمات از متن حذف می شوند اما شبکه همزمان می تواند اول و آخر جملات را ببیند. به این مدل Masked Language Model گفته می شود. این بیشتر شبیه به cloze test هایی است که دانش آموزان ابتدایی پر می کنند. چند کلمه انداخته می شود و از آن ها خواسته می شود که جمله را کامل کنند. اینطور نیست که اولین کلمه را به دانش آموز نشان دهند و از اون بخواهند کل جمله را کامل کند چنین چیزی ممکن نیست اما این کاری بوده که سالها در NLP انجام می شده!! رویکرد قدیمی به تولید جملات ضعیف،‌ تکراری و گاه از لحاظ گرامری غلط منجر می شد.

کالبدشکافی شبکه عصبی BERT حقایق جالبی را در مورد آن برملا می کند. BERT دقیقا مثل ما هنگام برخورد با یک جمله به قسمت های مختلف آن مثل فاعل و فعل توجه می کند و سعی میکند روابط را در یک شبکه از ارتباطات یاد بگیرد. چندین الگو کشف شده است که تقریبا قابل توضیح هستند هرچند شبکه های عصبی در حالت کلی قابلیت توضیح دهندگی زیادی در لایه های داخلی ندارند. مثلا نمی توان یک نورون را بیرون کشید و پرسید که این نورون دقیقا دارد چه کاری میکند چنین چیزی در پردازش تصویر و پردازش زبان طبیعی مشترک است.

گوگل سورس کد BERT را بر روی گیت هاب قرار داده است. برای مطالعه بیشتر چندین لینک جالب و خواندنی اینجا می گذارم.

سورس کد BERT:
https://github.com/google-research/bert

یک توضیح ساده در مورد BERT:
https://jalammar.github.io/illustrated-bert/


الگوهای کشف شده در BERT:

https://towardsdatascience.com/deconstructing-bert-distilling-6-patterns-from-100-million-parameters-b49113672f77
🔵راز JPEG🔵

خیلی برای ما پیش آمده است که وقتی عکسی در اینترنت میبینیم با پدیده بارگذاری (لود شدن) عکس مواجه می شویم. یعنی اول یک تصویر تار میبینیم و سپس جزییات بیشتری به آن اضافه می شود تا اینکه می توانیم آن را کامل ببینیم. اما چرا چنین است؟ دلیل این نحوه بارگذاری در فشرده سازی jpg نهفته است. در این روش از تبدیل DCT(Discrete Cosine Transform) استفاده می شود. به این ترتیب که دقیقا شبیه به تبدیل فوریه به جای نگه داشتن کل تصویر ضریب های یک تبدیل فرکانسی از آن نگه داشته می شود. این ضرایب برای فرکانس های کمتر (کلیات تصویر) تا فرکانس های بیشتر(جزییات بیشتر) وجود دارند. ضرایب برای فرکانس های کمتر حاوی اطلاعات بیشتری هستند و حتی فرستادن بخشی از کل طیف فرکانسی کافی است تا شما تصویر را بدون تقریبا هیچ خدشه ای ببینید. زمانی که یک تصویر در اینترنت لود می شود. به جای فرستادن کل تصویر مرورگر شما ابتدا ضرایبِ فرکانس های پایین تر را گرفته و سعی میکند با استفاده از آن ها تصویر را نشان دهد با رسیدن ضرایبِ فرکانس های بالاتر مرورگر جزییات بیشتری به تصویر اضافه می کند تا بتواند آن را به صورت کامل تر بازیابی کند. در تصویر زیر از 900 ضریب تنها 435 تای اول آن را نشان داده ایم. می بینید حتی با 60 ضریب هم تصویر تقریبا کامل است. کد متلب مربوط به آن را می توانید دانلود کنید و خودتان هم تست کنید.

منبع: https://www.mathworks.com/examples/image/mw/images-ex44409888-image-compression-with-the-discrete-cosine-transform
dct_compression.m
926 B
زوم هایی که گاهی در فیلم های اکشن میبینیم چقدر به واقعیت نزدیک هستند؟ آیا دیدن پلاک یک ماشین از چند کیلومتر قابل انجام است؟ می توانید خودتان چک کنید. دوربین های ۲۵ میلیارد پیکسلی زیر تصویر هایی منحصر بفرد با زوم هایی باور نکردنی در اختیار می گذارند

https://www.bigpixel.cn/
🔴آیا غلبه ماشین ها نزدیک است؟🔴

بعد از موفقیت شگفت انگیز مدل زبانی BERT توسط گوگل، چند روز پیش شرکت openai از مدل زبانی جدید خود به نام GPT2 پرده برداری کرد و سورس کد آن را هم بر روی github قرار داد. بنابر ادعای این شرکت این بهترین مدل زبانی ای است که تا کنون ساخته شده است. این مدل به طرز شگفت آوری خوب کار میکند به طوری که قادر است با گرفتن تنها یک جمله (یا پاراگراف) از شما آن را ادامه دهد و تا چندین پاراگراف به صورت بسیار منظم، دقیق و معنا دار در مورد آن داستان سرایی کند!! نمونه های آن را می توانید در لینکی که می گذارم ببینید. کیفیت خروجی های تولید شده آنقدر زیاد است که تشخیص اینکه آن را ماشین تولید کرده است تقریبا غیر ممکن است.

اما قسمت عجیب تر ماجرا چیز دیگری است openai برای اولین بار برخلاف رسم معمول که مدل های آموزش داده شده را در اختیار برنامه نویسان قرار می دهند تا در برنامه های خود استفاده کنند از انجام اینکار خودداری کرده است!! نویسندگان این مقاله نوشته اند کیفیت خروجی ها آنقدر بالاست که می تواند توسط افراد یا گروه هایی در راستای اهداف "مخرب" استفاده شود!!! آنها در وبلاگ خود چند نمونه از کارهای مخربی که می توان با این مدل کرد را لیست کرده اند:

تولید اخبار جعلی
دزدیدن هویت افراد به صورت آنلاین!(چت کردن با دیگران به جای ایشان توسط ماشین!)
تولید اسپم هایی که سرویس های معمول قادر به تشخیص آنها نیستند!
تولید محتواهای مخرب توسط افراد بد اندیش بر روی پلتفرمهایی مثل توییتر(توسط بات ها)

این لیست بیشتر شبیه به داستان های علمی-تخیلی از آینده است، اما ظاهرا واقعیت دارند! نویسندگان این مدل را بر روی ۴۰ گیگابایت متن اینترنتی آموزش داده اند اما مدل اصلی را در دسترس قرار نداده اند به جای آن تنها یک مدل کوچک و کدها را در اختیار برنامه نویسان قرار داده اند. هر کسی از جمله نویسندگان این مقاله می دانند دیر یا زود یک نفر با داشتن کدها می تواند همان مدل را آموزش دهد اما ظاهرا openai نخواسته است آن شرکت پلیدی باشد که این مشکلات را شروع میکند و برای همیشه بدنام باقی بماند. تقریبا یک سال پیش تولید تصاویر و حتی ویدیوهای فیک(لب خوانی معروف اوباما) ممکن شد اما تولید متن های فیک همراه با آن ها، آینده چندان زیبایی را برای ما به تصویر نمیکشد. برخی از بنیانگذاران openai یک مقاله بر روی arxiv قرار داده اند و از مسئولیت اخلاقی که بر دوش متخصصان هوش مصنوعی است و راهکارهای مقابله با استفاده نادرست از این تکنولوژی ها سخن گفته اند. باید نتایج این پیشرفت های عجیب و هوشمند را در چند سال آینده ببینیم

مدل زبانی openai:
https://blog.openai.com/better-language-models/

راهکارهای مقابله با استفاده نادرست از هوش مصنوعی جدید:
https://arxiv.org/abs/1802.07228
این شخص وجود خارجی ندارد!

این وبسایت با استفاده از تکنیک variational autoencoder که توسط nvidia برای تصاویر چهره با کیفیت بالا ارائه شد به صورت نامتناهی تصاویر چهره جعلی تولید میکند!! کافی است هر بار سایت را رفرش کنید تا یک چهره ی جعلی جدید تولید شود!

https://thispersondoesnotexist.com/
این یکی از نمونه هایی است که الگوریتم gpt-2 به صورت جعلی تولید کرده است. در قسمت بالا یک متن در مورد وجود تک شاخ هایی که قادر به انگلیسی صحبت کردن هستند، توسط انسان نوشته شده است و پایین ماشین به صورت اتوماتیک آن را ادامه داده است. چند نکته شگفت انگیز در متن تولید شده توسط ماشین وجود دارد. اول اینکه این متن تا حد بسیار زیادی منسجم است و دوم اینکه مانند یک متن علمی و خبری با شواهد پر شده است و در نهایت اینکه قسمت های مختلف متن در یک زنجیره تقریبا منطقی به هم متصل می شوند!!
در نگاه اول تصور کردم که این یک شوخی است اما با اجرا کردن کد متوجه شدم که مدل جدید زبانی واقعا این کار را می کند. این تقریبا شبیه بیرون آمدن غول از چراغ جادو است!
خودتان امتحان کنید:

https://colab.research.google.com/github/ilopezfr/gpt-2/blob/master/gpt-2-playground_.ipynb#scrollTo=tI-HVDbQS9dF
🔵ویرایش هوشمند تصویر چهره🔵

تغییر در چهره افراد تنها با اضافه کردن چند خط ساده نقاشی شده.
بزودی شاهد نسل جدیدی از نرم افزار تغییر عکس چهره می شویم که تقریبا به هیچ مهارت خاصی برای یادگیری نیاز ندارند. در حال حاضر شرکت ادوبی سازنده فوتوشاپ از فناوری های بالغ در حوزه هوش مصنوعی در نسخه های جدید خود استفاده میکند.

مقاله:
https://arxiv.org/abs/1902.06838

کد:

https://github.com/JoYoungjoo/SC-FEGAN

(مقاله در ۱۸ فوریه ۲۰۱۹ بر روی arxiv آپلود شده است)
This media is not supported in your browser
VIEW IN TELEGRAM
تغییر هوشمند در تصاویر چهره!(مقاله و کد بالا)
محققان دانشگاه کمبریج نرم افزاری توسعه داده اند که تنها بر اساس لایک های شما بر روی فیسبوک می تواند شخصیت شما را در 5 پارامتر اصلی شخصیت پیش بینی کند. با استفاده از تنها 10 لایک نرم افزار بهتر از همکار شما، با 70 لایک بهتر از دوست(یا هم اتاقی) با 150 لایک بهتر از افراد خانواده و با 300 لایک بهتر از همسر شما شخصیت شما را پیش بینی کند.

پ ن
حالا هی بگید مگه من چی دارم روی اینترنت و هر نرم افزاری (حتی زمانی که می دونید جاسوسی میکنند) نصب کنید!

https://www.telegraph.co.uk/news/science/science-news/11340166/Facebook-knows-you-better-than-your-members-of-your-own-family.html
هر منحنی بسته ای که بتوانید بکشید از چهار گوشه یک مربع عبور میکند!
حدسی که در ۱۹۱۱ توسط otto toeplitz مطرح شد و تاکنون نه اثبات شده و نه مثال نقضی برای آن پیدا شده است!

https://en.m.wikipedia.org/wiki/Inscribed_square_problem?wprov=sfla1
1_Dk3GumlgjMnBbYhyE8jYhQ.gif
22.5 MB
آموزش شبکه های عصبی عمیق با یک Visualization بسیار قوی از نحوه کار کردن Stochastic Gradient Descent . قدم به قدم از پایه در سه قسمت در پایتون (به انگلیسی)

https://towardsdatascience.com/the-keys-of-deep-learning-in-100-lines-of-code-907398c76504
یکی دیگر از کاربرد های #stylegan تبدیل کردن تابلو های نقاشی به افراد واقعی، در این مورد مونالیزا به انسان تبدیل شده است!!

سورس کد:
https://github.com/NVlabs/stylegan