Software engineers
108 subscribers
324 photos
59 videos
25 files
118 links
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
ده ایده برتر برای دانشمندان داده و مهندسین نرم افزار در دوران کرونا:

🔸 تحلیل و بصری سازی داده ها برای درک بهتر بیماری.

🔸 مدل سازی بیماری و تحلیل های پیشگویانه (بر اساس متغیرهایی مانند تراکم جمعیت و میانگین سنی، تعداد ابتلا یا مرگ در اثر بیماری را پیش بینی کنید)

🔸 طراحی اپ های گزارش بیماری و آگاهی های عمومی برای جمع آوری داده و شناسایی افرادی که بیشتر در معرض خطر هستند.

🔸 طراحی پلتفرم جستجوی شغلی برای کمک به افرادی که شغل خود را به علت کرونا از دست دادند.

🔸 طراحی چت بات برای کمک به افرادی مانند سالمندان تا به اطلاعات بیماری راحت تر دسترسی پیدا کنند.

🔸 هدفمند سازی و توزیع بهتر هدایای مردمی به NGO تا کاربر بتواند کمک های خود را ردیابی کند.

🔸 طراحی اپ هایی به منظور رواج مثبت نگری و روایت داستان افراد بهبود یافته.

🔸 اشاعه اطلاعات بیماری از طریق بازی های COVID-19.

🔸 کاوش تحقیقات مربوط به بیماری از طریق روش هایی مانند پردازش زبان طبیعی برای درک بهتر آنها.

🔸 کمک به توزیع مناسب تجهیزات حمایتی مانند دستکش و ماسک بین بیمارستان ها.

🆔 @software_engineers_channel
Linus Torvalds:
"کرنل لینوکس نسخه ی 5.8 یکی از بزرگترین نسخه های منتشر شده در تمام دوران است... ."

🔗 https://zd.net/2N5Tab5

🆔 @software_engineers_channel
🔴 فیلترینگ تلگرام در روسیه برداشته شد!

از امروز فیلترینگ تلگرام در روسیه برداشته شده و آی پی های روسیه با شدت بیشتری در تلگرام جوین داده‌اند.

🆔 @software_engineers_channel
متالرنینگ (Meta-learning)

متالرنینگ که یادگیری فرآیند یادگیری (Learn to Learn) هم نامیده می شود یکی از زیر شاخه های یادگیری ماشین است که هدف آن طراحی مدلی است که با سرعت بالا و تعداد کمی نمونه های آموزشی، مهارت های جدید را یاد بگیرد و با محیط های جدید تطبیق پیدا کند .

یک مدل یادگیری ماشین خوب اغلب نیاز به تعداد زیادی نمونه های آموزشی دارد. اما انسان، مفاهیم و مهارت های جدید را به سرعت یاد می گیرد. مثلا یک کودک با چند بار دیدن گربه و پرنده می تواند انها را از هم تشخیص دهد. هدف متالرنینگ نیز یادگیری سریع و با تعداد کمی نمونه های آموزشی است.

یک الگوریتم متالرنینگ می تواند سیستمی با ویژگی های زیر ایجاد کند:
🔸یادگیری سریعتر
🔸قابل تعمیم با وظایف گوناگون
🔸قابل انطباق با تغییرات محیطی مانند یادگیری Reinforcement

مطالعه بیشتر در:
https://medium.com/huggingface/from-zero-to-research-an-introduction-to-meta-learning-8e16e677f78a
و
https://medium.com/walmartlabs/an-introduction-to-meta-learning-ced7072b80e7

🆔 @software_engineers_channel
اوپن سوزه Leap 15.2 منتشر شد!

اوپن سوزه نسخه جدید توزیع خود را با عنوان Leap 15.2 معرفی کرد. در این نسخه از کتابخانه PyTorch که برای یادگیری ماشینی استفاده می‌شود، به کار گرفته شده است. این کتابخانه باعث می‌شود که نمونه سازی یک پروژه و پروسه تولید آن سرعت بیشتری داشته باشد.

در این نسخه همچنین از ONNX که یک فرمت باز برای نشان دادن مدل‌های یادیگری ماشینی هست استفاده شده است. همچنین گرافانا و پرومتئوس دو بسته نگهدارنده جدید هستند که امکانات جدیدی را برای تجریه و تحلیل داده ‌ها در اختیار کارشناسان قرار می‌دهند.

در اوپن سوزه لیپ 15.2 برای اولین بار از بسته Kubernetes برای مدیریت و استفاده از برنامه‌های کانتینر استفاده شده است.

جرالد پفیفر رئیس هیئت مدیره پروژه اوپن سوزه افزودند، در پروژه اوپن سوزه افزونه های که به کرنل توسط صدها نفر اضافه شده‌اند، باعث می‌شود ما با یک رشد عظیمی مواجه باشیم.

لازم به ذکر است که توزیع‌ اوپن سوزه همواره با چندین دسکتاپ عرضه می‌شود ولی بهترین کارایی این توزیع را می‌توانیم در دسکتاپ KDE تجربه کنیم.

🆔 @software_engineers_channel
یادگیری انتقالی (Transfer Learning) :

روشی مورد استفاده در یادگیری ماشین است که دانش به دست آمده در حل یک مساله را ذخیره می کند و آن را در مساله ایی متفاوت اما مشابه به کار می گیرد. مثلا دانش به دست آمده در یادگیری تشخیص اتومبیل، می تواند در تشخیص کامیون هم به کار گرفته شود. یادگیری انتقالی نوعی بهینه سازی (Optimization) است که باعث پیشرفت سریع یا بهبود عملکرد در هنگام مدل کردن مسائل دیگر می شود. این روش عموماً در موقعیت هایی کاربرد دارد که داده های اندکی برای مدل سازی پدیده جدید در دسترس است.
یادگیری انتقالی، رویکردی محبوب در یادگیری عمیق است که در آن از مدل های از پیش آموزش یافته (Pre-trained Models) به عنوان نقطه شروع مسائل مبتنی بر بینایی ماشین و پردازش زبان طبیعی استفاده می شود.

مطالعه بیشتر در:
https://towardsdatascience.com/a-comprehensive-hands-on-guide-to-transfer-learning-with-real-world-applications-in-deep-learning-212bf3b2f27a

🆔 @software_engineers_channel
لغزش فرویدی

فروید معتقد بود لغزش زبان یا اشتباه لُپی تصادفی نیست و از ناخودآگاه و امیال و افکار سرکوب شده ی ما سرچشمه میگیره. در واقع برای لحظه ای زبان ما چیزی رو که چه آگاهانه و چه ناآگاهانه پنهان می کنیم برملا می کنه.

جالبه که بدونید دانشمندان داده (data scientists) احتمال اشتباه به کار بردن هر حرف به جای حرف دیگه توسط انسان رو جمع آوری؛ و لغزش فرویدی رو با تولید هزاران کلمه توسط هوش مصنوعی (که امیال و افکار سرکوب شده نداره) شبیه سازی کردن. نهایتا با مقایسه ی احتمال تولید یک واژه ی اشتباه در ماشین و انسان به این نتیجه رسیدن که وجود ناخودآگاه و امیال و افکار سرکوب شده نقشی در احتمال تولید اشتباه لُپی توسط انسان نداره.

🔸منبع : کتاب همه دروغ میگویند اثر سث استفنز دیویدویتز

🆔 @software_engineers_channel
مایکروسافت هزار نفر از کارمندان خود را اخراج کرد

🔸 مایکروسافت اعلام کرده نیروی انسانی خود را کاهش داده است. طبق گزارش ها حدود هزار نفر از کارمندان این شرکت اخراج شده اند.

🔸 این خبر در حالی منتشر می شود که مایکروسافت چندی قبل اعلام کرد الگوریتم های هوش مصنوعی در پرتال خبری «ام اس ان» را به عنوان جایگزین ادیتورهای انسانی استفاده می کند و از سوی دیگر در زیر مجموعه «مایکروسافت آزور» نیز نیروی انسانی را کاهش داده است.

🔸 مایکروسافت اعلام کرد فروشگاه های خرده فروشی خود را تعطیل می کند.

🆔 @software_engineers_channel
big change of tech till 2050.pdf
2.3 MB
📚 ۲۰ تغییر بزرگ تکنولوژی تا سال ۲۰۵۰
مترجم: آرش ابراهیمی

🆔 @software_engineers_channel
ابزارهای زیادی در زمینه وب اسکرپینگ و وب کرالینگ وجود دارد که به معرفی دو نمونه از هر کدام می پردازیم:

🔸 ابزارهای web scraping:


🔹ProWebScraper:

به استخراج داده از هر نوع سایتی کمک می کند.


🔹Webscraper.io:

یک افزونه مرورگر کروم است که به استخراج داده از سایت کمک می کند.


🔸 ابزارهای web crawling:


🔹Scrapy:

یک فریم ورک خوب برای وب اسکرپینیگ و وب کرالینگ است که به طور گسترده در سایت ها مورد استفاده قرار می گیرد و برای مقاصد گوناگونی کاربرد دارد. اسکرپی از کتابخانه های پایتون است و اگر با پایتون آشنا باشید، به آسانی آن را یاد خواهید گرفت.


🔹Apache Nutch:

یک پروژه نرم افزاری وب کرالینیگ بسیار مفید است که می توانید در مقیاس بزرگ از آن استفاده کنید. تحلیلگران داده ها، دانشمندان داده، توسعه دهندگان برنامه ها و مهندسین استخراج متن وب به طور گسترده از آن در برنامه های متنوع استفاده می کنند. این نرم افزار به زبان JAVA نوشته شده است.

🆔 @software_engineers_channel
🔸 24 عادت روزانه که شما را باهوش‌تر خواهد کرد.

🆔 @software_engineers_channel
پروژه های پایتون برای سال 2020 - اگر می خواهید در پایتون مهارت کسب کنید بر روی پروژه های بلادرنگ کار کنید.

سایت DataFlair ایده پروژه های مختلف پایتون را در موضوعات زیر ارائه کرده است:

▫️Python Projects
▫️Python Django (Web Development) Projects
▫️Python Artificial Intelligence Projects
▫️Python Machine Learning Projects
▫️Python Data Science Projects
▫️Python Deep Learning Projects
▫️Python Computer Vision Projects
▫️Python Internet of Things Projects

پروژه ها در هر یک از موضوعات مطرح شده در سه سطح مبتدی، متوسط و پیشرفته طبقه بندی شده است.

به همراه کدهای پایتون

لینک دسترسی:
https://data-flair.training/blogs/python-project-ideas/

🆔 @software_engineers_channel
🔸نسخه 20.4 اوبونتو با پشتیبانی چهار ساله LTS منتشر شد.

🔗 https://releases.ubuntu.com/focal/

🆔 @software_engineers_channel
گوگل قابلیت رمزگذاری پوشه‌‌ها را به دستگاه‌های اندرویدی اضافه کرد

با استفاده از ویژگی امنیتی جدید گوگل، برای دستگاه‌های اندرویدی امکان افزودن پین‌کد چهاررقمی برای پوشه‌های مدنظر کاربر فراهم می‌شود.

🆔 @software_engineers_channel
تفاوت CPU , GPU , TPU :

🔶 CPU - Central Processing Unit

سی پی یو یا واحد پردازشگر مرکزی به عنوان مغز کامپیوتر مسئول عملیات ریاضی و منطقی درون کامپیوتر است و برای حل مسائل محاسباتی بسیار کارا است. سی پی یو قادر به پردازش دهها عملیات در هر چرخه است. ابعاد داده معمولا واحد داده 1*1 است.

🔶 GPU - Graphics Processing Unit

جی پی یو یا واحد پردازشگر گرافیک به اجرای برنامه های خاصی مانند بازی ها، ویرایش عکس/ ویدئو، انیمیشن، تحقیقات علمی، نرم افزارهای تحلیلی و یادگیری عمیق می پردازد که نیاز به تصویر کشیدن نتایج گرافیکی با مقدار زیادی داده دارند. سی پی یو نیز می تواند این وظایف را انجام دهد، اما جی پی یو بسیار بهتر قادر به انجام آنهاست. زیرا جی پی یو دهها هزار عملیات را در هر چرخه انجام می دهد و ابعاد داده عموما، واحد داده 1*N است.

🔶 TPU - Tensor Processing Unit

تی پی یو یا واحد پردازش تنسور پردازشگرهایی هستند که برای وظایف یادگیری ماشین و یادگیری عمیق طراحی شده اند و به طور خاص برای استفاده از تنسور فلو توسعه یافته اند. تنسورفلو یک پلت فرم یادگیری ماشین منبع باز است که توسط گوگل توسعه یافته است.

اگرچه سی پی یو و چی پی یو تا حدی می توانند وظایف یادگیری ماشین و یادگیری عمیق را انجام دهند اما این وظایف برای جی پی یو و بدتر از آن برای سی پی یو بسیار سنگین است، اما تی پی یو همه چیز را به سطح دیگری می برد. تی پی یو معماری زیر سیستم حافظه را با ابعاد داده ایی، به واحد داده N*N مدیریت می کند. یعنی تی پی یو می تواند تا 128000 عملیات را در هر چرخه مدیریت کند که بسیار بیش از چیزی است که سی پی یو یا حتی جی پی یو قادر به انجام آن هستند.

🆔 @software_engineers_channel
RadioGeek 101 - Marcus Hutchins
Jadi
رادیوگیک ۱۰۱ - اعترافات مارکوس هاچینز ، هکری که اینترنت را نجات داد

توی این شماره از رادیوگیک، به سراغ داستان هکری می‌ریم که خوبه شنیده بشه: مارکوس هاچینز. کسی که از یه زندگی روستایی ساده شروع کرد ولی به زودی پاش به زیرزمین‌های تاریک و نمور باز شد. کسی که از اتاق خوابش اینترنت رو نجات داد؛ ولی اف بی آی بالاخره دستگیرش کرد؛ اونهم بعد از یک هفته پارتی سنگین! داستان مارکوس هاچینز رو بشنوین!
قدم مهم بعدی در هوش مصنوعی چیه؟

🔸 پروفسور اندرو وو (ان‌جی):
"What do you think is the single most important problem that the AI community should be working on?"

🔸این پست را در توییتر دنبال کنین. ایده‌های جالبی بینشون هست:
https://twitter.com/AndrewYNg/status/1290029141522173952

🆔 @software_engineers_channel
This media is not supported in your browser
VIEW IN TELEGRAM
Arctic Code Vault

🔸 گیت هاب خبری رو منتشر کرد که تعداد زیادی از ریپوزیتوری های پابلیک و اکتیو رو به قطب شمال برده و اونجا نگهداریشون می‌کنه. این کلیپ اطلاعات جامع و کاملی در مورد مکان و نحوه ی نگه داری اطلاعات بیان میکنه .


🆔 @software_engineers_channel
سریع ترین نویسندگان مقالات دانشگاهی

🆔 @software_engineers_channel