Software engineers
108 subscribers
324 photos
59 videos
25 files
118 links
Download Telegram
تفاوت استاندارسازی (Standardization) و نرمال سازی (Normalization) در تغییر مقیاس ویژگی ها:

🔸تغییر مقیاس (Scaling) تکنیکی برای قرار دادن مقادیر ویژگی ها در یک بازه عددی خاص می باشد و در مرحله پیش پردازش داده انجام می شوند. نرمال سازی و استاندارد سازی دو تکنیک تغییر مقیاس داده می باشند و برای کاهش ابعاد داده استفاده می شود. در نرمال سازی، مقادیر یک متغیر بین 0 و 1 قرار می گیرند. در حالی که در استانداردسازی، مقادیر متغیر به اعدادی با میانگین 0 و انحراف استاندارد 1 تبدیل می شود.

🔸اینکه از کدام تکنیک استفاده کنید بستگی به مساله ایی دارد که در حال حل آن هستید. اما در بیشتر موارد توصیه می شود که از استاندارد سازی استفاده کنید زیرا نتایج بهتری به همراه دارد.

🆔 @software_engineers_channel
نرم‌افزارهای متن‌ باز و حقایقی در این رابطه که از دید عموم پنهان است ... .

https://bit.ly/2yaxJlz

🆔 @software_engineers_channel
معرفی 20 ابزار کاربردی ترمینال لینوکس :

https://red.ht/36FugIm

🆔 @software_engineers_channel
موجودی پرحرف و دوست‌داشتنی برای سفر‌های فضایی / روباتی که همدم و همکار فضانوردان می‌شود

🔸 با توجه به بحران جهانی فعلی به دلیل شیوع کرونا، بسیاری از مردم در قرنطینه و انزوا هستند. روسای پروژه سیمون معتقدند که تجربه‌های به دست آمده در آزمایش روبات سیمون در فضا می‌تواند برای از بین بردن حس تنهایی برای افراد روی زمین نیز کاربرد داشته باشد.

🔸 ماتیس بینیوک، رئیس پروژه سیمون در آلمان، در این مورد می‌گوید: درطول سفر‌های فضایی، سیمون راهکار‌هایی برای تعاملات اجتماعی ارائه می‌دهد که می‌تواند یا برای کاهش استرس ناشی از انزوا و دوری از زمین باشد یا در مأموریت‌های طولانی مدتی مثل سفر به ماه یا مریخ، باعث پویایی تعاملات گروهی شود.

🆔 @software_engineers_channel
🔴 لو رفتن اطلاعات کاربران رایتل تایید شد

در ادامه لو رفتن اطلاعات کاربران ایرانی، حالا اطلاعات ۵.۵ میلیون مشترک رایتل به قیمت ۱۰۰۰ دلار به فروش گذاشته شده است؛ اطلاعاتی که برخی از کارشناسان امنیت مجازی و مرکز ماهر، صحت و سقم آن را تایید کرده‌اند، هرچند تا به این لحظه واکنشی از سوی خود رایتل در پی نداشته است. از سوی دیگر معاون وزیر ارتباطات نیز اگرچه می‌گوید که این اطلاعات متعلق به ۴ سال پیش هستند اما لو رفتن آن‌ها را تایید کرده است.

🆔 @software_engineers_channel
This media is not supported in your browser
VIEW IN TELEGRAM
ده ایده برتر برای دانشمندان داده و مهندسین نرم افزار در دوران کرونا:

🔸 تحلیل و بصری سازی داده ها برای درک بهتر بیماری.

🔸 مدل سازی بیماری و تحلیل های پیشگویانه (بر اساس متغیرهایی مانند تراکم جمعیت و میانگین سنی، تعداد ابتلا یا مرگ در اثر بیماری را پیش بینی کنید)

🔸 طراحی اپ های گزارش بیماری و آگاهی های عمومی برای جمع آوری داده و شناسایی افرادی که بیشتر در معرض خطر هستند.

🔸 طراحی پلتفرم جستجوی شغلی برای کمک به افرادی که شغل خود را به علت کرونا از دست دادند.

🔸 طراحی چت بات برای کمک به افرادی مانند سالمندان تا به اطلاعات بیماری راحت تر دسترسی پیدا کنند.

🔸 هدفمند سازی و توزیع بهتر هدایای مردمی به NGO تا کاربر بتواند کمک های خود را ردیابی کند.

🔸 طراحی اپ هایی به منظور رواج مثبت نگری و روایت داستان افراد بهبود یافته.

🔸 اشاعه اطلاعات بیماری از طریق بازی های COVID-19.

🔸 کاوش تحقیقات مربوط به بیماری از طریق روش هایی مانند پردازش زبان طبیعی برای درک بهتر آنها.

🔸 کمک به توزیع مناسب تجهیزات حمایتی مانند دستکش و ماسک بین بیمارستان ها.

🆔 @software_engineers_channel
Linus Torvalds:
"کرنل لینوکس نسخه ی 5.8 یکی از بزرگترین نسخه های منتشر شده در تمام دوران است... ."

🔗 https://zd.net/2N5Tab5

🆔 @software_engineers_channel
🔴 فیلترینگ تلگرام در روسیه برداشته شد!

از امروز فیلترینگ تلگرام در روسیه برداشته شده و آی پی های روسیه با شدت بیشتری در تلگرام جوین داده‌اند.

🆔 @software_engineers_channel
متالرنینگ (Meta-learning)

متالرنینگ که یادگیری فرآیند یادگیری (Learn to Learn) هم نامیده می شود یکی از زیر شاخه های یادگیری ماشین است که هدف آن طراحی مدلی است که با سرعت بالا و تعداد کمی نمونه های آموزشی، مهارت های جدید را یاد بگیرد و با محیط های جدید تطبیق پیدا کند .

یک مدل یادگیری ماشین خوب اغلب نیاز به تعداد زیادی نمونه های آموزشی دارد. اما انسان، مفاهیم و مهارت های جدید را به سرعت یاد می گیرد. مثلا یک کودک با چند بار دیدن گربه و پرنده می تواند انها را از هم تشخیص دهد. هدف متالرنینگ نیز یادگیری سریع و با تعداد کمی نمونه های آموزشی است.

یک الگوریتم متالرنینگ می تواند سیستمی با ویژگی های زیر ایجاد کند:
🔸یادگیری سریعتر
🔸قابل تعمیم با وظایف گوناگون
🔸قابل انطباق با تغییرات محیطی مانند یادگیری Reinforcement

مطالعه بیشتر در:
https://medium.com/huggingface/from-zero-to-research-an-introduction-to-meta-learning-8e16e677f78a
و
https://medium.com/walmartlabs/an-introduction-to-meta-learning-ced7072b80e7

🆔 @software_engineers_channel
اوپن سوزه Leap 15.2 منتشر شد!

اوپن سوزه نسخه جدید توزیع خود را با عنوان Leap 15.2 معرفی کرد. در این نسخه از کتابخانه PyTorch که برای یادگیری ماشینی استفاده می‌شود، به کار گرفته شده است. این کتابخانه باعث می‌شود که نمونه سازی یک پروژه و پروسه تولید آن سرعت بیشتری داشته باشد.

در این نسخه همچنین از ONNX که یک فرمت باز برای نشان دادن مدل‌های یادیگری ماشینی هست استفاده شده است. همچنین گرافانا و پرومتئوس دو بسته نگهدارنده جدید هستند که امکانات جدیدی را برای تجریه و تحلیل داده ‌ها در اختیار کارشناسان قرار می‌دهند.

در اوپن سوزه لیپ 15.2 برای اولین بار از بسته Kubernetes برای مدیریت و استفاده از برنامه‌های کانتینر استفاده شده است.

جرالد پفیفر رئیس هیئت مدیره پروژه اوپن سوزه افزودند، در پروژه اوپن سوزه افزونه های که به کرنل توسط صدها نفر اضافه شده‌اند، باعث می‌شود ما با یک رشد عظیمی مواجه باشیم.

لازم به ذکر است که توزیع‌ اوپن سوزه همواره با چندین دسکتاپ عرضه می‌شود ولی بهترین کارایی این توزیع را می‌توانیم در دسکتاپ KDE تجربه کنیم.

🆔 @software_engineers_channel
یادگیری انتقالی (Transfer Learning) :

روشی مورد استفاده در یادگیری ماشین است که دانش به دست آمده در حل یک مساله را ذخیره می کند و آن را در مساله ایی متفاوت اما مشابه به کار می گیرد. مثلا دانش به دست آمده در یادگیری تشخیص اتومبیل، می تواند در تشخیص کامیون هم به کار گرفته شود. یادگیری انتقالی نوعی بهینه سازی (Optimization) است که باعث پیشرفت سریع یا بهبود عملکرد در هنگام مدل کردن مسائل دیگر می شود. این روش عموماً در موقعیت هایی کاربرد دارد که داده های اندکی برای مدل سازی پدیده جدید در دسترس است.
یادگیری انتقالی، رویکردی محبوب در یادگیری عمیق است که در آن از مدل های از پیش آموزش یافته (Pre-trained Models) به عنوان نقطه شروع مسائل مبتنی بر بینایی ماشین و پردازش زبان طبیعی استفاده می شود.

مطالعه بیشتر در:
https://towardsdatascience.com/a-comprehensive-hands-on-guide-to-transfer-learning-with-real-world-applications-in-deep-learning-212bf3b2f27a

🆔 @software_engineers_channel
لغزش فرویدی

فروید معتقد بود لغزش زبان یا اشتباه لُپی تصادفی نیست و از ناخودآگاه و امیال و افکار سرکوب شده ی ما سرچشمه میگیره. در واقع برای لحظه ای زبان ما چیزی رو که چه آگاهانه و چه ناآگاهانه پنهان می کنیم برملا می کنه.

جالبه که بدونید دانشمندان داده (data scientists) احتمال اشتباه به کار بردن هر حرف به جای حرف دیگه توسط انسان رو جمع آوری؛ و لغزش فرویدی رو با تولید هزاران کلمه توسط هوش مصنوعی (که امیال و افکار سرکوب شده نداره) شبیه سازی کردن. نهایتا با مقایسه ی احتمال تولید یک واژه ی اشتباه در ماشین و انسان به این نتیجه رسیدن که وجود ناخودآگاه و امیال و افکار سرکوب شده نقشی در احتمال تولید اشتباه لُپی توسط انسان نداره.

🔸منبع : کتاب همه دروغ میگویند اثر سث استفنز دیویدویتز

🆔 @software_engineers_channel
مایکروسافت هزار نفر از کارمندان خود را اخراج کرد

🔸 مایکروسافت اعلام کرده نیروی انسانی خود را کاهش داده است. طبق گزارش ها حدود هزار نفر از کارمندان این شرکت اخراج شده اند.

🔸 این خبر در حالی منتشر می شود که مایکروسافت چندی قبل اعلام کرد الگوریتم های هوش مصنوعی در پرتال خبری «ام اس ان» را به عنوان جایگزین ادیتورهای انسانی استفاده می کند و از سوی دیگر در زیر مجموعه «مایکروسافت آزور» نیز نیروی انسانی را کاهش داده است.

🔸 مایکروسافت اعلام کرد فروشگاه های خرده فروشی خود را تعطیل می کند.

🆔 @software_engineers_channel
big change of tech till 2050.pdf
2.3 MB
📚 ۲۰ تغییر بزرگ تکنولوژی تا سال ۲۰۵۰
مترجم: آرش ابراهیمی

🆔 @software_engineers_channel
ابزارهای زیادی در زمینه وب اسکرپینگ و وب کرالینگ وجود دارد که به معرفی دو نمونه از هر کدام می پردازیم:

🔸 ابزارهای web scraping:


🔹ProWebScraper:

به استخراج داده از هر نوع سایتی کمک می کند.


🔹Webscraper.io:

یک افزونه مرورگر کروم است که به استخراج داده از سایت کمک می کند.


🔸 ابزارهای web crawling:


🔹Scrapy:

یک فریم ورک خوب برای وب اسکرپینیگ و وب کرالینگ است که به طور گسترده در سایت ها مورد استفاده قرار می گیرد و برای مقاصد گوناگونی کاربرد دارد. اسکرپی از کتابخانه های پایتون است و اگر با پایتون آشنا باشید، به آسانی آن را یاد خواهید گرفت.


🔹Apache Nutch:

یک پروژه نرم افزاری وب کرالینیگ بسیار مفید است که می توانید در مقیاس بزرگ از آن استفاده کنید. تحلیلگران داده ها، دانشمندان داده، توسعه دهندگان برنامه ها و مهندسین استخراج متن وب به طور گسترده از آن در برنامه های متنوع استفاده می کنند. این نرم افزار به زبان JAVA نوشته شده است.

🆔 @software_engineers_channel
🔸 24 عادت روزانه که شما را باهوش‌تر خواهد کرد.

🆔 @software_engineers_channel
پروژه های پایتون برای سال 2020 - اگر می خواهید در پایتون مهارت کسب کنید بر روی پروژه های بلادرنگ کار کنید.

سایت DataFlair ایده پروژه های مختلف پایتون را در موضوعات زیر ارائه کرده است:

▫️Python Projects
▫️Python Django (Web Development) Projects
▫️Python Artificial Intelligence Projects
▫️Python Machine Learning Projects
▫️Python Data Science Projects
▫️Python Deep Learning Projects
▫️Python Computer Vision Projects
▫️Python Internet of Things Projects

پروژه ها در هر یک از موضوعات مطرح شده در سه سطح مبتدی، متوسط و پیشرفته طبقه بندی شده است.

به همراه کدهای پایتون

لینک دسترسی:
https://data-flair.training/blogs/python-project-ideas/

🆔 @software_engineers_channel
🔸نسخه 20.4 اوبونتو با پشتیبانی چهار ساله LTS منتشر شد.

🔗 https://releases.ubuntu.com/focal/

🆔 @software_engineers_channel
گوگل قابلیت رمزگذاری پوشه‌‌ها را به دستگاه‌های اندرویدی اضافه کرد

با استفاده از ویژگی امنیتی جدید گوگل، برای دستگاه‌های اندرویدی امکان افزودن پین‌کد چهاررقمی برای پوشه‌های مدنظر کاربر فراهم می‌شود.

🆔 @software_engineers_channel
تفاوت CPU , GPU , TPU :

🔶 CPU - Central Processing Unit

سی پی یو یا واحد پردازشگر مرکزی به عنوان مغز کامپیوتر مسئول عملیات ریاضی و منطقی درون کامپیوتر است و برای حل مسائل محاسباتی بسیار کارا است. سی پی یو قادر به پردازش دهها عملیات در هر چرخه است. ابعاد داده معمولا واحد داده 1*1 است.

🔶 GPU - Graphics Processing Unit

جی پی یو یا واحد پردازشگر گرافیک به اجرای برنامه های خاصی مانند بازی ها، ویرایش عکس/ ویدئو، انیمیشن، تحقیقات علمی، نرم افزارهای تحلیلی و یادگیری عمیق می پردازد که نیاز به تصویر کشیدن نتایج گرافیکی با مقدار زیادی داده دارند. سی پی یو نیز می تواند این وظایف را انجام دهد، اما جی پی یو بسیار بهتر قادر به انجام آنهاست. زیرا جی پی یو دهها هزار عملیات را در هر چرخه انجام می دهد و ابعاد داده عموما، واحد داده 1*N است.

🔶 TPU - Tensor Processing Unit

تی پی یو یا واحد پردازش تنسور پردازشگرهایی هستند که برای وظایف یادگیری ماشین و یادگیری عمیق طراحی شده اند و به طور خاص برای استفاده از تنسور فلو توسعه یافته اند. تنسورفلو یک پلت فرم یادگیری ماشین منبع باز است که توسط گوگل توسعه یافته است.

اگرچه سی پی یو و چی پی یو تا حدی می توانند وظایف یادگیری ماشین و یادگیری عمیق را انجام دهند اما این وظایف برای جی پی یو و بدتر از آن برای سی پی یو بسیار سنگین است، اما تی پی یو همه چیز را به سطح دیگری می برد. تی پی یو معماری زیر سیستم حافظه را با ابعاد داده ایی، به واحد داده N*N مدیریت می کند. یعنی تی پی یو می تواند تا 128000 عملیات را در هر چرخه مدیریت کند که بسیار بیش از چیزی است که سی پی یو یا حتی جی پی یو قادر به انجام آن هستند.

🆔 @software_engineers_channel