Data Experts
1.45K subscribers
213 photos
61 videos
38 files
171 links
متخصصین داده - مطالب علم داده و نرم‌افزارها و آموزش‌های این حوزه
Admin :
@javad_vahdat

YouTube:
https://www.youtube.com/@dataexperts
Download Telegram
⬛️⬛️⬛️ الگوريتم ماهی‌های مصنوعی
@data_experts
الگوريتم دسته ماهی هاي مصنوعی (AFSA) يك مدل محاسباتی تكاملی است كه مبتنی بر الگوريتم های هوش جمعی و بر گرفته شده از طبيعت مي باشد.عملكرد اين الگوريتم بر اساس جستجوی تصادفی است.
اساس کار AFSA بر پایه‌ی توابعی است که از رفتارهاي اجتماعی دسته‌ی ماهی‌ها در طبیعت برگرفته شده‌اند. در دنیاي زیر آب، ماهی‌ها می‌توانند مناطقی را پیدا کنند که داراي غذاي بیشتري است، که این امر با جستجوي فردي یا گروهی ماهی‌ها محقق می‌شود. مطابق با این ویژگی، مدل ماهی مصنوعی با رفتارهاي حرکت آزادانه، جستجوي غذا، حرکت گروهی و دنباله‌روي ارائه شده است که به وسیله‌ی آنها فضاي مسئله جستجو می‌شود. ﻣﻔﻬﻮم ﺑﻬﻴﻨﻪﺳﺎزی ﺑﺪﻳﻦ ﺻﻮرت اﺳﺖ ﻛﻪ در ﺑﻴﻦ ﭘﺎراﻣﺘﺮﻫﺎی ﻳﻚ ﺗﺎﺑﻊ ﺑﻪ دﻧﺒﺎل ﻣﻘﺎدﻳﺮی ﺑﺎﺷﻴﻢ ﻛﻪ ﺗﺎﺑﻊ را ﻛﻤﻴﻨﻪ ﻳﺎ ﺑﻴﺸﻴﻨﻪ میﻧﻤﺎﻳﻨﺪ. ﻛﻠﻴﻪ ﻣﻘﺎدﻳﺮ ﻣﻨﺎﺳﺐ ﺟﻬﺖ اﻳﻦ اﻣﺮ را، راه ﺣﻠﻬﺎی ﻣﻤﻜﻦ و ﺑﻬﺘﺮﻳﻦ ﻣﻘﺪار از اﻳﻦ ﻣﻘﺎدﻳﺮ را راه ﺣﻞ ﺑﻬﻴﻨﻪ ﻣﻲﻧﺎﻣﻨﺪ.
اﻟﮕﻮرﻳﺘﻢﻫﺎی ﺑﻬﻴﻨﻪﺳﺎزی ﻫﺮ دو ﻧﻮع ﻣﺴﺎﺋﻞ ﺑﻴﺸﻴﻨﻪﺳﺎزی و ﻛﻤﻴﻨﻪﺳﺎزی را ﭘﻮﺷﺶ ﻣﻲدﻫﻨﺪ. ﺑﻬﻴﻨﻪﺳﺎزی ﻛﺎرﺑﺮدﻫﺎی زﻳﺎدی دارد از ﺟﻤﻠﻪ در ﺗﺨﺼﻴﺺ ﻣﻨﺎﺑﻊ، زﻣﺎنﺑﻨﺪیﻫﺎ، ﺗﺼﻤﻴﻢﮔﻴﺮیﻫﺎ و … . روﺷﻬﺎی ﻣﺨﺘﻠﻔﻲ ﺑﺮای ﺑﻬﻴﻨﻪﺳﺎزی وﺟﻮد دارد. ﻳﺎﻓﺘﻦ راه ﺣﻞ ﺑﺮای ﻣﺴﺎﺋﻠﻲ که از نوع NP می باشند ﺑﺴﻴﺎر ﻣﺸﻜﻞ اﺳﺖ. اﻟﮕﻮرﻳﺘﻢﻫﺎﻳﻲ از ﺟﻤﻠﻪ اﻟﮕﻮرﻳﺘﻢﻫﺎی ﻫﻮشﺟﻤﻌﻲ ﺗﺎ ﺣﺪی اﻳﻦ ﻣﺸﻜﻞ را ﺣﻞ ﻧﻤﻮده اﻧﺪ. ﺗﻮﺳﻂ اﻳﻦ ﻧﻮع اﻟﮕﻮرﻳﺘﻢﻫﺎ راهﺣﻞﻫﺎﻳﻲ ﭘﻴﺪا ﻣﻲﺷﻮﻧﺪ ﻛﻪ ﺗﻘﺮﻳﺒﺄ ﺑﻪ ﺟﻮاب ﻧﺰدﻳﻜﻨﺪ. ﻫﻮش ﺟﻤﻌﻲ ﻧﻮﻋﻲ روش ﻫﻮش ﻣﺼﻨﻮﻋﻲ اﺳﺖ ﻛﻪ ﻣﺒﺘﻨﻲ ﺑﺮ رﻓﺘﺎرﻫﺎی ﺟﻤﻌﻲ در ﺳﺎﻣﺎﻧﻪﻫﺎی ﻧﺎﻣﺘﻤﺮﻛﺰ و ﺧﻮدﺳﺎﻣﺎﻧﺪه ﺑﻨﻴﺎن ﺷﺪه اﺳﺖ. اﻳﻦ ﺳﺎﻣﺎﻧﻪﻫﺎ ﻣﻌﻤﻮﻻً از ﺟﻤﻌﻴﺘﻲ از ﻋﺎﻣﻞﻫﺎی ﺳﺎده ﺗﺸﻜﻴﻞ ﺷﺪه اﻧﺪ ﻛﻪ ﺑﻄﻮر ﻣﺤﻠﻲ ﺑﺎ ﻳﻜﺪﻳﮕﺮ و ﺑﺎ ﻣﺤﻴﻂ ﺧﻮد در ﺗﻌﺎﻣﻞ ﻫﺴﺘﻨﺪ. ﺑﺎ وﺟﻮد اﻳﻨﻜﻪ ﻣﻌﻤﻮﻻً ﻫﻴﭻ ﻛﻨﺘﺮل ﺗﻤﺮﻛﺰﻳﺎﻓﺘﻪ ای، ﭼﮕﻮﻧﮕﻲ رﻓﺘﺎر ﻋﺎﻣﻞﻫﺎ را ﺑﻪ آﻧﻬﺎ ﺗﺤﻤﻴﻞ ﻧﻤﻲﻛﻨﺪ، ﺗﻌﺎﻣﻼت ﻣﺤﻠﻲ آﻧﻬﺎ ﺑﻪ ﭘﻴﺪاﻳﺶ رﻓﺘﺎری ﻋﻤﻮﻣﻲ ﻣﻲاﻧﺠﺎﻣﺪ. ﻣﻮﻓﻖ ﺗﺮﻳﻦ روشﻫﺎی ﻫﻮش ﻣﺼﻨﻮعی ﺟﻤﻌﻲ ﻛﻪ ﺗﺎﻛﻨﻮن ﺑﻮﺟﻮد آﻣﺪه اﻧﺪ، روش ﺑﻬﻴﻨﻪﺳﺎزی ﮔﺮوه ﻣﻮرﭼﻪﻫﺎ، روش ﺑﻬﻴﻨﻪﺳﺎزی دﺳﺘﺔ ذرات و روش ﺑﻬﻴﻨﻪﺳﺎزی ﮔﺮوه ﻣﺎﻫﻲﻫﺎ ﻛﺎرﺑﺮد اﻳﻦ اﻟﮕﻮرﻳﺘﻢﻫﺎ در اﻧﻮاع زﻣﻴﻨﻪﻫﺎی ﺗﺤﻘﻴﻘﺎت ﻋﻠﻤﻲ ﻧﺸﺎن دﻫﻨﺪه ﻋﻤﻠﻲ ﺑﻮدن و وﻳﮋﮔﻲﻫﺎی ﻣﻄﻠﻮب آﻧﻬﺎ اﺳﺖ. از ﺟﻤﻠﻪ وﻳﮋﮔﻲﻫﺎی اﻳﻦ اﻟﮕﻮرﻳﺘﻢﻫﺎ ﻣﻲﺗﻮان ﺑﻪ ﻣﻘﻴﺎسﭘﺬﻳﺮی، ﺗﺤﻤﻞﭘﺬﻳﺮی ﺧﻄﺎ، ﺳﺎزﮔﺎری، ﺳﺮﻋﺖ، اﺳﺘﻘﻼل داﺧﻠﻲ، ﻣﻮازی ﺑﻮدن و … اﺷﺎره ﻛﺮد. ﻛﺎرﺑﺮد ﻋﻤﺪة اﻳﻦ اﻟﮕﻮرﻳﺘﻢﻫﺎ در ﺣﻞ ﻣﺴﺎﺋﻞ ﺑﻬﻴﻨﻪﺳﺎزی ﻣﻲﺑﺎﺷﺪ.
الگوریتم دسته ﻣﺎﻫﻲﻫﺎی ﻣﺼﻨﻮﻋﻲ (AFSA (Artificial Fish Swarm Algorithm گونه ای از اﻟﮕﻮرﻳﺘﻢﻫﺎی برگرفته شده از طبیعت و اﻟﮕﻮرﻳﺘﻢﻫﺎی ﻫﻮش ﺟﻤﻌﻲ ﻣﻲﺑﺎﺷﺪ که توسط دکتر Li Xiao Lei در سال ۲۰۰۲ ارائه شده است. اﻳﻦ اﻟﮕﻮرﻳﺘﻢ ﻳﻚ ﺗﻜﻨﻴﻚ ﺟﺪﻳﺪ مبتنی ﺑﺮ رﻓﺘﺎرﻫﺎی ﺟﻤﻌﻲ اﺳﺖ ﻛﻪ از رﻓﺘﺎرﻫﺎی اﺟﺘﻤﺎﻋﻲ دسته ﻣﺎهیﻫﺎ در ﻃﺒﻴﻌﺖ اﻟﻬﺎم ﮔﺮﻓﺘﻪ ﺷﺪه اﺳﺖ. این اﻟﮕﻮرﻳﺘﻢ دارای ﺗﻮاﻧﺎیی ﺑﺎﻻیی در ﮔﺬﺷﺘﻦ از ﺑﻬﻴﻨﻪﻫﺎی ﻣﺤﻠﻲ و دﺳﺘﻴﺎﺑﻲ ﺑﻪ ﺑﻬﻴﻨﺔ ﺳﺮاﺳﺮی ﻣﻲﺑﺎﺷﺪ. ﻫﻤﭽﻨﻴﻦ دارای وﻳﮋگیﻫﺎی ﺳﺮﻋﺖ ﻫﻤﮕﺮاﻳﻲ ﺑﺎﻻ، ﻏﻴﺮﺣﺴﺎس ﺑﻮدن ﺑﻪ ﻣﻘﺎدﻳﺮ اوﻟﻴﻪ، اﻧﻌﻄﺎفﭘﺬﻳﺮی و ﺗﺤﻤﻞﭘﺬﻳﺮی ﺧﻄﺎی ﺑﺎﻻیی اﺳﺖ. اﻳﻦ اﻟﮕﻮرﻳﺘﻢ در ﻛﺎرﺑﺮدﻫﺎی ﺑﻬﻴﻨﻪﺳﺎزی از ﺟﻤﻠﻪ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮﻫﺎ، ﺑﻬﻴﻨﻪﺳﺎزی ﺗﺮکیبی، ﻳﺎدﮔﻴﺮی ﺷﺒﻜﻪﻫﺎی عصبی ﭘﻴﺸﺮو و … ﺑﻪ ﻛﺎر رﻓﺘﻪ اﺳﺖ. در دﻧﻴﺎی زﻳﺮ آب، ﻣﺎﻫﻲﻫﺎ ﻣﻲﺗﻮاﻧﻨﺪ ﻣﻨﺎطقی را ﭘﻴﺪا ﻛﻨﻨﺪ ﻛﻪ دارای ﻏﺬای ﺑﻴﺸﺘﺮی اﺳﺖ، ﻛﻪ اﻳﻦ اﻣﺮ ﺑﺎ ﺟﺴﺘﺠﻮی ﻓﺮدی ﻳﺎ ﮔﺮوهی ﻣﺎهی‌ها ﻣﺤﻘﻖ میﺷﻮد. ﺑﻨﺎﺑﺮاﻳﻦ در دﻧﻴﺎی زﻳﺮ آب، ﻣﻌﻤﻮﻻً در ﺟﺎﻳﻲ ﺗﻌﺪاد ﻣﺎﻫﻲ ﺑﻴﺸﺘﺮی وﺟﻮد دارد ﻛﻪ دارای ﻏﺬای ﺑﻴﺸﺘﺮی اﺳﺖ. ﻣﻄﺎﺑﻖ ﺑﺎ اﻳﻦ وﻳﮋگی، ﻣﺪل ماهی مصنوعی (AF) با چند رفتار از جمله رفتارهای حرکت آزادانه (AF Move)، جستجوی غذا (AF Prey)، حرکت گروهی (AF Swarm) و دﻧﺒﺎﻟﻪروی (AF Follow) ارائه شده است. یک AF ﻣﻮﺟﻮدﻳﺖ ﺳﺎﺧﺘﮕﻲ از ﻣﺎﻫﻲ واﻗﻌﻲ ﻣﻲﺑﺎﺷﺪ ﻛﻪ در ﺗﺤﻠﻴﻞ و ﺗﻔﺴﻴﺮ ﻣﺴﺎﺋﻞ از آن اﺳﺘﻔﺎده ﺷﺪه اﺳﺖ. محیطی که AF در آن زﻧﺪﮔﻲ ﻣﻲﻛﻨﺪ اﺳﺎﺳﺎً فضای راه حل و حوزه های AF های دیگر است. درجه ﺗﺮاﻛﻢ ﻏﺬا در ﻣﻨﻄﻘﺔ آبی ﺗﺎﺑﻊ ﻫﺪف AFSA می باشد. و وضعیت AF ﻣﻨﻔﺮد ﻣﺘﻐﻴﺮ ﺑﻬﻴﻨﻪﺳﺎزی اﺳﺖ و ﺷﺎﻣﻞ رﻓﺘﺎرﻫﺎی ﺣﺮﻛﺖ آزاداﻧﻪ، ﺣﺮﻛﺖ ﺟﻤﻌﻲ، رﻓﺘﺎر ﺟﺴﺘﺠﻮی ﻏﺬا و رﻓﺘﺎر دﻧﺒﺎﻟﻪروی اﺳﺖ ﻛﻪ ﺑﺎ اﻳﻦ راهﻫﺎ ﻣﺎ ﻣﻲﺗﻮاﻧﻴﻢ راهﺣﻞ را ﻛﺎوش و ﺟﺴﺘﺠﻮ ﻛﻨﻴﻢ. در ﻃﻮل ﻓﺮآﻳﻨﺪ ﺑﻬﻴﻨﻪﺳﺎزی AFSA، اﻃﻼﻋﺎت ﻓﺮدی و محیطی، ﻛﺎﻣﻼً ﺟﻬﺖ ﺟﺴﺘﺠﻮ ﺗﺎ رﺳﻴﺪن ﺑﻪ ﺗﻮازن اﺳﺘﻔﺎده ﻣﻲﺷﻮﻧﺪ. در ﻧﻬﺎﻳﺖ، AF ﺑﻪ ﻣﻜﺎﻧﻲ میرﺳﺪ ﻛﻪ درﺟﺔ ﺗﺮاﻛﻢ و ﻏﻠﻈﺖ ﻏﺬا در آﻧﺠﺎ ﺑﻴﺸﺘﺮﻳﻦ (بهینه ﺳﺮاﺳﺮی) ﺑﺎﺷﺪ. AF ﻣﻔﺎﻫﻴﻢ ﺧﺎرجی را از ﻃﺮﻳﻖ ﺑﻴﻨﺎیی درک میﻛﻨﺪ.
@data_experts
نکنیک های کاهش بعد
@Dataexpert
Forwarded from |R| Experts (|בםב)
لینک دانلود #دوره
Udemy Applied Machine Learning in R

سر فصل ها :
- شروع شدن
- مسائل کلیدی در یادگیری ماشین
- اعتبار سنجی متقابل
- رگرسیون کمترین مربعات معمولی
- بهترین رگرسیون زیرین
- رگرسیون مجازات شده
- رگرسیون حداقل مربعات جزئی
- رگرسیون منطقی
- تحلیل تشخیصی
- تخمین Bayes نایاب
- K نزدیک ترین همسایه
- پشتیبانی از ماشین بردار
- تصمیم گیری درختان (CART)
- Primer در شبکه های عصبی
- تجزیه و تحلیل مولفه اصلی
- آنالیز خوشه ای
- تمرین
- دانلود لینک ها

منبع: p30download.com

جهت دانلود بر روی لینک های زیر کلیک کنید

بخش اول
بخش دوم
بخش سوم

╭──•═✾®✾═•──╮
••• @R_Experts •••
╰──•═✾®✾═•──╯
چگونه تحلیل گر داده شویم
@Data_Experts

تحلیلگر داده، با دستکاری داده‌ها زندگی می‌کند. در دورانی که شرکت‌ها به‌طور فزاینده به مجموع‌های داده یا همان دیتاست‌ها (Data set) وابسته می‌شدند، مهارت در تحلیل داده‌ها تبدیل به یک توانایی مهم در این شرکت‌ها و یکی از پر تقاضاترین مشاغل شد

طبق گزارش سایت Indeed.com، میانگین درآمد یک تحلیل‌گر داده در ایالات متحده، سالیانه نزدیک به ۶۵ هزار دلار است؛ درحالی که میانگین درآمد متخصص علوم داده بیش از سالی ۱۲۰ هزار دلار برآورد می‌شود.

ادامه را در لینک زیر از سایت زومیت بخوانید
https://www.zoomit.ir/2019/8/30/339685/how-to-become-data-analyst/


@Data_Experts
Media is too big
VIEW IN TELEGRAM
@Data_Experts

==» #Apply_Family

در این ویدیو توابع اپلای و نحوه کار آنها با مثال های متنوع توضیح داده شده است. لازم به توضیح هست که توابع اپلای به طور ساده توابعی هستند که معمولا به جای استفاده از حلقه ها در برنامه نویسی برای سهولت در انجام و در بعضا نیز سرعت اجرای حلقه در این حالت بیشتر از حالت عادی هست.
از آموزش لذت ببرید 😊 و یک متخصص داده شوید.
@Data_Experts
This media is not supported in your browser
VIEW IN TELEGRAM
سخنرانی ارتور بنجامین
در مورد اینکه افراد رو در چه حوزه ای باید تربیت کرد!
ریاضیات یا احتمالات !!

@Data_Experts
Planning Your First Data Analysis Project?

📊 اولین پروژه آنالیز داده خود را برنامه ریزی کنید !!

📝یک چارچوب علمی برای انجام پروژه‌های تحلیل داده

یک پروژه ساختارمند می‌تواند مسیر طولانی رسیدن به اهداف پروژه در یک قالب خوب و اصلاح شده را ساده‌تر نماید. نگرش کشف داده محور از مجموعه داده عظیم در بعضی اوقات می‌تواند غافلگیرکننده باشد و از نظر ساختار علمی این پروژه تجزیه و تحلیل داده می تواند به سمت تجزیه و تحلیل کارآمد و بهبود هرچه بهتر تصمیم‌گیری جوامع کمک کند.

بر همین اساس، در این مقاله یک راهنما برای مشخص کردن چارچوب با این ۹ مرحله مهم و اهداف در نظر گرفته شده برای ساختار عملی پروژه‌ها براساس تصمیم‌گیری داده-محور در نظر گرفته‌ایم
با ما همراه باشید و یک متخصص علم داده شوید

@Data_Experts
...

1️⃣ ⬅️ نمای کلی و انگیزه انجام کار ⬇️
این یکی از مراحل مهم در هر پروژه‌ای هست که نیازمند بارش مغزی می‌باشد. در این قسمت شما دلایل و چرایی انجام پروژه خود را براساس اهدافتان مشخص می‌کنید. و در نهایت ایده روشنی از چارچوب تحقیقات در رابطه با پروژه خود و و به‌طور موثر اهداف نهایی شما براساس دیدگاه داده-محور را برجسته می‌کند.

2️⃣ ⬅️ هدف پروژه ⬇️
در این مرحله کاملا واضح و شفاف اهداف پروژه خود را تعریف کنید. با استفاده از این در اینده می‌توانید پاسخ‌های مطالعات اولیه خود را بر اساس منابع داده در درسترس، فرمول بندی کنید.

3️⃣ ⬅️ منابع داده ⬇️
این مرحله به فهم شما از منابع داده مورد استفاده در پروژه خود براساس جنبه‌های مختلف آن کمک می‌کند. این یک دیدگاه کلی در مورد شرایط داده‌های خام جمع آوری شده، اندازه‌ آنها و بهتر از همه اطلاعاتی در مورد تعداد متغیر‌های و ویژگی‌های داده در اختیار می‌گذارد

4️⃣ ⬅️ کارهای مرتبط ⬇️
این مرحله یک پیش ضمینه مناسب در مورد کارهای مرتبط انجام شده در حوزه کاری شما را مشخص می‌کند. هدف آن ارائه یک نمای کلی از پژوهش‌هایی که در حوزه کاری شما انجام شده و در راستای برجسته کردن تجزیه و تحلیل داده‌های پروژه شما کمک های مهم را انجام می‌دهد. در این سناریو شما میتوانید پژوهش‌هایی که با منابع داده شما انجام شده را شناسایی کنید و تفاوت پروژه شما با سایرین را برجسته تر به نمایش بگذارید

5️⃣ ⬅️ سوالات تحقیقات اولیه ⬇️
این مرحله سوالات پژوهش فرموله شده در مراحل اولیه تحقیق که براساس یک درک اولیه از داده‌ها انجام شده را بدون تجزیه و تحلیل داده‌های اکتشافی بیان می‌کند.

6️⃣ ⬅️ کشمکش داده‌ها ⬇️
کشمکش داده‌ها شامل مراحل مختلفی هست که داده‌ها را از فرمت خام به اصلاح شده تبدیل می‌کند، که برای تحلیل داده‌ها مناسب و دقیق است. مراحل مختلف شامل،
🔘 بررسی مجموعه داده‌های ورودی: این مرحله شامل مصورسازی مجموعه داده‌های ورودی برای تولید آماره‌ها و خلاصه سازی‌های موثر است.
🔘اصلاح مجموعه داده‌ها و انجام پردازش: این مرحله شامل اصلاح مجموعه داده‌های ورودی برای از بین بردن داده‌های گمشده، سطر‌های تکراری،‌ بازنویسی ستون‌ها و مرتب سازی دوباره و غیره. و در اخر اماده کردن مجموعه داده‌های اصلاح شده در قالب یک فایل برای انجام تحلیل‌های آینده.
🔘اکتشافات از روی داده اصلاح شده: این مرحله شامل مصورسازی مجموعه داده‌های اصلاح شده برای تولید آماره‌ها و انجام تحلیل از طریق رسم نمودار‌های مختلف با متغیرهای گوناگون، آزمودن درستی ویژگی‌ها و غیره.
🔘آماده سازی داده ها: این مرحله داده‌ها را برای پاسخ به سوالات تحقیق از طریق حذف ویژگی‌های اضافه و یا اضافه کردن ویژگی خاصی به ستون‌ها آماده می‌کند.

7️⃣ ⬅️ تجزیه و تحلیل داده‌های اکتشافی ⬇️
تجزیه و تحلیل داده‌های اکتشافی،‌پردازش تجسم ویژگی‌های اصلی در داده‌ها قبل از انجام مدل‌بندی برای پیدا کردن الگو‌های و بررسی مفروضات اولیه ساخته شده براساس داده‌ها است. این مرحله بیشتر به بازسازی و فرموله کردن اولیه سوالات تحقیق کمک می‌کند.

8️⃣ ⬅️ سوالات نهایی تحقیقات ⬇️
تجزیه و تحلیل داده های اکتشافی امکان بررسی سوالات اولیه تحقیق فرمول بندی شده را فراهم می‌آورد. مرحله تجزیه و تحلیل داده‌های اکتشافی کمک می‌کند تا درک صحیحی از داده‌ در رابطه با ویژگی‌های پروژه داشته باشیم. از این رو این مرحله منجر به اصلاح، حذف و یا اضافه کردن سوالات تحقیق جدید می‌شود. پس در نهایت این مرحله باید بتواند مجموعه سوالات نهایی تحقیق را که در مسیر پروژه پاسخ داده‌شده‌است را فرمول بندی کند.

9️⃣ ⬅️ تجزیه و تحلیل داده ها و مدل سازی ⬇️
این مرحله مهمی در تجزیه و تحلیل داده‌ها است، که برای پاسخ به سوالات فرمول بندی شده تحقیق از الگوریتم‌های پیچیده و مدل سازی استفاده می‌کنیم. تاثیر بسیار بیشتری در جوامع با دیدگاه داده-محور که به طور موثر مخاطبان زیادی هم دارد ایجاد میکند. و بسیار خوب هست تا پنج مرحله اطلاعاتی را بیان کنیم که ،‌ انتخاب الگوریتم— چرایی انتخاب الگوریتم — تجزیه تحلیل و مدل سازی — مشاهدات و کاربردها




@Data_Experts
چگونه تبدیل به متخصص داده کاوی شویم؟!
✌️Data Experts✌️
https://dataexperts.ir/?p=238

@Data_Experts
سایت یودمی دوره آموزش پایتون خود را با عنوان The Complete Python 3 Course: Beginner to Advanced! به مدت محدود رایگان کرده است، هر چه سریعتر ثبت نام کنید و به دوستان خود نیز اطلاع دهید.

جهت ثبت نام روی " لینک ثبت نام " کلیک کنید. توجه داشته باشید که از فیلتر شکن استفاده کنید.

@Data_Experts
هم اکنون پخش زنده کانال از طریق لینک زیر در دسترس هست
Live from Data experts studio

👇👇
aparat.com/javadvahdat/live
Data Experts
هم اکنون پخش زنده کانال از طریق لینک زیر در دسترس هست Live from Data experts studio 👇👇 aparat.com/javadvahdat/live
این پخش به صورت آزمایشی در حال اجرا می باشد
و در چند روز اینده در ساعات از پیش تعیین شده اموزش های رایگان مطالب حوزه دیتا ساینس را از این طریق به شما دوستان خواهیم آموخت
پس با ما همراه باشید و متخصص علم داده شوید 👍💪

@Data_Experts
#ویدیو #آپارات

چگونه تبدیل به تحلیلگر داده شویم ؟!!

ویدیوهای ما را در کانال Data Experts در آپارات مشاهده کنید
👇👇👇👇👇⁧ ‏
کلیک کنید
👆👆👆👆👆⁧ ‏

@DataExperts
کارگاه آنالیز داده و برنامه نویسی با R
برای مراجعه به سایت 👈اینجا👉کلیک کنید
گشتاور در آمار (Moment) یک اندازه کمی یا شاخص برای مشخص کردن شکل تابع احتمال یا توزیع متغیر تصادفی است. از این شاخص در یاضیات بخصوص آمار و همچنین در مکانیک استفاده می‌شود. اگر این تابع براساس ویژگی‌های فیزیکی یک جسم نوشته شده باشد، آنگاه گشتاور صفرم بیانگر همان جرم است. همچنین گشتاور اول تقسیم بر جرم کلی، مرکز ثقل را بیان می‌کند. از طرفی گشتاور دوم متناسب با اینرسی (Inertia) یک جسم خواهد بود.

ادامه را در دیتا اکسپرت بخوانید
📎📎 کلیک کنید⬅️⬅️⬅️

@Data_Experts
چگونه تبدیل به یک متخصص علم داده شویم؟!
طبق آماری که CNN منتشر کرده، داده کاوی یکی از ده شغل پردرآمد دنیاست. داده کاوی یا Data Mining یکی از کارهایی هست که شرکت‌‌ها به خصوص شرکت‌های بزرگ نیاز زیادی بهش دارند.
ادامه را در دیتااکسپرت بخوانید
⬅️⬅️کلیک‎ کنید 📎📎

@Data_Experts
علم داده (Data Science)، دانشی میان‌رشته‌ای پیرامون استخراج دانش و آگاهی از مجموعه‌ای داده و اطلاعات است. علم داده از ترکیب مباحث مختلفی به وجود آمده و بر مبانی و روش‌های موجود در حوزه‌های مختلف علمی بنا شده‌است. تعدادی از این حوزه‌ها عبارتند از: ریاضیات، آمار، مهندسی داده، بازشناخت الگو و… هدف این علم، استخراج مفهوم از داده و تولید محصولات داده‌محور است.

ادامه را در دیتااکسپرت بخوانید
⬅️⬅️📎📎کلیک کنید📎📎

با ما باشید و متخصص علم داده شوید
🌐 dataexperts.ir
🔰 @Data_Experts