Forwarded from Data Science Python and R
lbdl.pdf
5 MB
جزوه یادگیری عمیق
تقریبا شبیه جزوه های شب امتحان آخر ترمه دانشجویی که درس نخونده ولی یه چیزایی رو باید بخاطر بسپره که حداقل ناپلئونی پاس کنه!
🟢 این کتاب در مورد یادگیری عمیق (deep learning) است و شامل مطالب زیر می شود:
- مقدمه ای بر یادگیری ماشین و انواع آن مثل رگرسیون، طبقه بندی و مدلسازی توزیع
- توضیحی در مورد محاسبات کارآمد با استفاده از GPUها و تنسورها
- آموزش مدلها با استفاده از تابع زیان، مدلهای پیشبین، گرادیاننزولی و انتشار به عقب
- معرفی اجزای اصلی مدلها مثل لایههای خطی، توابع فعالسازی، لایههای همسانسازی و اتصالات فراگذر
- توضیح معماریهای مختلف مثل شبکههای عصبی پیچشی و مدلهای مبتنی بر توجه
- بررسی کاربردهایی مثل طبقهبندی تصویر، تشخیص اشیا، بخشبندی سمانتیک، ترجمه ماشینی و تولید متن
- توضیح روشهایی برای ساخت مدلهای بزرگمقیاس و قدرت آنها در حل مسائل مختلف
به طور کلی این کتاب مروری مفید بر مبانی و مفاهیم کلیدی یادگیری عمیق ارائه میدهد.
#جزوه #یادگیری_عمیق
🆔 @data_science_python_and_r
تقریبا شبیه جزوه های شب امتحان آخر ترمه دانشجویی که درس نخونده ولی یه چیزایی رو باید بخاطر بسپره که حداقل ناپلئونی پاس کنه!
🟢 این کتاب در مورد یادگیری عمیق (deep learning) است و شامل مطالب زیر می شود:
- مقدمه ای بر یادگیری ماشین و انواع آن مثل رگرسیون، طبقه بندی و مدلسازی توزیع
- توضیحی در مورد محاسبات کارآمد با استفاده از GPUها و تنسورها
- آموزش مدلها با استفاده از تابع زیان، مدلهای پیشبین، گرادیاننزولی و انتشار به عقب
- معرفی اجزای اصلی مدلها مثل لایههای خطی، توابع فعالسازی، لایههای همسانسازی و اتصالات فراگذر
- توضیح معماریهای مختلف مثل شبکههای عصبی پیچشی و مدلهای مبتنی بر توجه
- بررسی کاربردهایی مثل طبقهبندی تصویر، تشخیص اشیا، بخشبندی سمانتیک، ترجمه ماشینی و تولید متن
- توضیح روشهایی برای ساخت مدلهای بزرگمقیاس و قدرت آنها در حل مسائل مختلف
به طور کلی این کتاب مروری مفید بر مبانی و مفاهیم کلیدی یادگیری عمیق ارائه میدهد.
#جزوه #یادگیری_عمیق
🆔 @data_science_python_and_r
🔶#کارآموزی هوش تجاری کارخانه عالیس
شرح شغل و وظایف
مهارت های فنی:
آشنایی با Power BI و مدل سازی داده ها
اشنایی با زبان M و DAX
آشنایی با کویری نویسی در محیط دیتابیس های رابطه ای به خصوص SQL Server
آشنایی با مفاهیم انبار داده (DataWarehouse)
اشنایی با شاخص های کلیدی عملکرد (KPI)
اشنایی با مفاهیم و فرآیندهای مالی، بازرگانی، تولیدی، منابع انسانی و ... جهت درک هر چه بیشتر داشبوردهای درخواستی
مهارت های امتیازی:
آشنایی با محیط SSAS و SSIS مزیت محسوب می شود
اشنایی با زبان برنامه نویسی پایتون مزیت محسوب می شود
🌐لینک آگهی: لینک
🆔@dsfum
شرح شغل و وظایف
مهارت های فنی:
آشنایی با Power BI و مدل سازی داده ها
اشنایی با زبان M و DAX
آشنایی با کویری نویسی در محیط دیتابیس های رابطه ای به خصوص SQL Server
آشنایی با مفاهیم انبار داده (DataWarehouse)
اشنایی با شاخص های کلیدی عملکرد (KPI)
اشنایی با مفاهیم و فرآیندهای مالی، بازرگانی، تولیدی، منابع انسانی و ... جهت درک هر چه بیشتر داشبوردهای درخواستی
مهارت های امتیازی:
آشنایی با محیط SSAS و SSIS مزیت محسوب می شود
اشنایی با زبان برنامه نویسی پایتون مزیت محسوب می شود
🌐لینک آگهی: لینک
🆔@dsfum
Forwarded from پایتون مالی
@PyFinance- Iran-AI.pdf
12.1 MB
شاخص هوشمصنوعی ایران ۱۴۰۳
این گزارش با الهام از تجربیات بینالمللی در شاخصهای هوش مصنوعی، تلاش میکند چارچوبی جامع برای درک وضعیت ایران در این حوزه ارائه دهد و امکان برنامهریزی استراتژیک و سیاستگذاریهای کوتاهمدت، میانمدت و بلندمدت مبتنی بـر شواهد را فراهم کرده و به اجرای مؤثر سیاستها کمک کند.
➖➖➖➖➖➖
🔖 هوشمصنوعی در صنعت مالی
✅ @pyfinance
این گزارش با الهام از تجربیات بینالمللی در شاخصهای هوش مصنوعی، تلاش میکند چارچوبی جامع برای درک وضعیت ایران در این حوزه ارائه دهد و امکان برنامهریزی استراتژیک و سیاستگذاریهای کوتاهمدت، میانمدت و بلندمدت مبتنی بـر شواهد را فراهم کرده و به اجرای مؤثر سیاستها کمک کند.
➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Data world with Mina (Mina Ra)
در دنیای همیشه در حال تکامل داده ها، درک گزینه های ذخیرهسازی شما بسیار مهم است. بیایید تفاوت های بین Data Warehouse ها، Data Lakes و مفهوم نوظهور Data Lakehouse ها را بشکنیم:
🔺انبار داده datawareHouse 🏢:
✔️ایده آل برای داده های ساخت یافته
✅طراحی شده برای پرس و جو با کارایی بالا.
برای هوش تجاری و گزارش دهی مناسب است. بعنوان هسته اصلی یک سیستم هوش تجاری BI به شمار میآید. به عبارت دیگر انبار داده یک مخزن داده مرکزی از دادههای تجمیع شده است که از سیستمها و منابع مختلف سازمان جمعآوری شده است .
🔺دریاچه داده (data lake)
دریاچه داده یک مخزن ذخیره سازی مرکزی است که کلان دادهها را از منابع مختلف در فرمت خام و دست نخورده ذخیره میکند. Data lake میتواند دادههای ساختار یافته، نیمه ساختار یافته یا بدون ساختار را ذخیره کند
✅اغلب برای داده های بزرگ و تجزیه و تحلیل پیشرفته استفاده می شود.
دریاچه داده بر اساس اصولی به نام خواندن با ساختار (schema-on-read) کار میکند.
این بدان معناست که هیچ طرح (schema) از پیش تعیین شدهای وجود ندارد که دادهها قبل از ذخیره سازی به آن نیاز داشته باشند.
فقط زمانی که دادهها در حین پردازش خوانده میشوند، تجزیه و تحلیل میشوند و در صورت لزوم داخل یک طرح (schema) تطبیق داده میشوند.
این ویژگی زمان مصرف شده روی تعریف کردن طرح (schema) را به حداقل میرساند و باعث میشود که دادهها به همان شکلی که هستند در هر فرمتی ذخیره شوند.
🔺تفاوت دریاچه داده با انبار داده:
طرح یا اسکیمای یک انبار داده قبل از ذخیره سازی تعریف و ساختار یافته میشود (طرح و اسکیما هنگام نوشتن دادهها اعمال میشود). ✔️در مقابل یک دریاچه داده، هیچ طرح و برنامهی از پیش تعیین شدهای ندارد تا به آن اجازه دهد که دادهها را در فرمت اصلی خود ذخیره کند. بنابراین، در انبار داده اکثرا آماده سازی دادهها معمولاً قبل از پردازش اتفاق میافتد ولی در Data Lakes هنگامی که دادهها واقعاً مورد استفاده قرار بگیرند، آماده سازی میشوند.
از آنجا که دادهها قبل از ذخیره سازی به شکل ساده شده سازماندهی نشدند، یک دریاچه داده اغلب نیاز به یک متخصص با درک کامل انواع مختلف دادهها و روابط آنها دارد تا بتواند آنها را بخواند. در عوض یک انبار داده به دلیل طرح و اسکیمای مستند خود و به دلیل این که به خوبی تعریف شده، هم برای کاربران فناوری و حتی افراد غیر فناوری نیز قابل دسترسی است. حتی یک عضو جدید در تیم میتواند به سرعت از انبار استفاده کند.
معماری دریاچه داده: آمازون وب سرویس (AWS)، هادوپ (Hadoop)، آزور (Azure)
Data Lakehouse دیتا لیک هاوس🔺
🚀
دیتا لیک هاوس نوع جدیدی از معماری داده است که یک دریاچه داده را با یک انبار داده ترکیب می کند تا کاستی های هر یک را به طور جداگانه برطرف کند.
یک ذخیره سازی از داده های غیر ساختار یافته و ساختار یافته است که از فناوری های cloud-native مانند Hadoop، Spark و Kafka استفاده می کند.
این معماری به سازمان ها امکان می دهد داده های خود را از هر منبعی ذخیره، مدیریت و تحلیل کنند.
دیتا لیک هاوس مزایای زیر را نسبت به data lake و data warehouse دارد:
🔶انعطاف پذیری: data lakehouse می تواند داده های غیر ساختار یافته، ساختار یافته و نیمه ساختار یافته را ذخیره کند. این انعطاف پذیری به سازمان ها امکان می دهد طیف گسترده ای از داده ها را از هر منبعی جمع آوری و تجزیه و تحلیل کنند.
🔶هزینه: data lakehouse می تواند هزینه های ذخیره سازی و پردازش داده ها را کاهش دهد. این به دلیل استفاده از فناوری های cloud-native است که هزینه های کلی را کاهش می دهند.
🔶سرعت: data lakehouse می تواند داده ها را سریعتر از data warehouse پردازش کند. این به دلیل استفاده از فناوری های cloud-native است که می توانند حجم زیادی از داده ها را به طور همزمان پردازش کنند.
✅ می تواند برای هوش مصنوعی و یادگیری ماشینی استفاده شود. این می تواند به سازمان ها کمک کند تا مدل های یادگیری ماشینی را ایجاد و آموزش دهند.
🔺انبار داده datawareHouse 🏢:
✔️ایده آل برای داده های ساخت یافته
✅طراحی شده برای پرس و جو با کارایی بالا.
برای هوش تجاری و گزارش دهی مناسب است. بعنوان هسته اصلی یک سیستم هوش تجاری BI به شمار میآید. به عبارت دیگر انبار داده یک مخزن داده مرکزی از دادههای تجمیع شده است که از سیستمها و منابع مختلف سازمان جمعآوری شده است .
🔺دریاچه داده (data lake)
دریاچه داده یک مخزن ذخیره سازی مرکزی است که کلان دادهها را از منابع مختلف در فرمت خام و دست نخورده ذخیره میکند. Data lake میتواند دادههای ساختار یافته، نیمه ساختار یافته یا بدون ساختار را ذخیره کند
✅اغلب برای داده های بزرگ و تجزیه و تحلیل پیشرفته استفاده می شود.
دریاچه داده بر اساس اصولی به نام خواندن با ساختار (schema-on-read) کار میکند.
این بدان معناست که هیچ طرح (schema) از پیش تعیین شدهای وجود ندارد که دادهها قبل از ذخیره سازی به آن نیاز داشته باشند.
فقط زمانی که دادهها در حین پردازش خوانده میشوند، تجزیه و تحلیل میشوند و در صورت لزوم داخل یک طرح (schema) تطبیق داده میشوند.
این ویژگی زمان مصرف شده روی تعریف کردن طرح (schema) را به حداقل میرساند و باعث میشود که دادهها به همان شکلی که هستند در هر فرمتی ذخیره شوند.
🔺تفاوت دریاچه داده با انبار داده:
طرح یا اسکیمای یک انبار داده قبل از ذخیره سازی تعریف و ساختار یافته میشود (طرح و اسکیما هنگام نوشتن دادهها اعمال میشود). ✔️در مقابل یک دریاچه داده، هیچ طرح و برنامهی از پیش تعیین شدهای ندارد تا به آن اجازه دهد که دادهها را در فرمت اصلی خود ذخیره کند. بنابراین، در انبار داده اکثرا آماده سازی دادهها معمولاً قبل از پردازش اتفاق میافتد ولی در Data Lakes هنگامی که دادهها واقعاً مورد استفاده قرار بگیرند، آماده سازی میشوند.
از آنجا که دادهها قبل از ذخیره سازی به شکل ساده شده سازماندهی نشدند، یک دریاچه داده اغلب نیاز به یک متخصص با درک کامل انواع مختلف دادهها و روابط آنها دارد تا بتواند آنها را بخواند. در عوض یک انبار داده به دلیل طرح و اسکیمای مستند خود و به دلیل این که به خوبی تعریف شده، هم برای کاربران فناوری و حتی افراد غیر فناوری نیز قابل دسترسی است. حتی یک عضو جدید در تیم میتواند به سرعت از انبار استفاده کند.
معماری دریاچه داده: آمازون وب سرویس (AWS)، هادوپ (Hadoop)، آزور (Azure)
Data Lakehouse دیتا لیک هاوس🔺
🚀
دیتا لیک هاوس نوع جدیدی از معماری داده است که یک دریاچه داده را با یک انبار داده ترکیب می کند تا کاستی های هر یک را به طور جداگانه برطرف کند.
یک ذخیره سازی از داده های غیر ساختار یافته و ساختار یافته است که از فناوری های cloud-native مانند Hadoop، Spark و Kafka استفاده می کند.
این معماری به سازمان ها امکان می دهد داده های خود را از هر منبعی ذخیره، مدیریت و تحلیل کنند.
دیتا لیک هاوس مزایای زیر را نسبت به data lake و data warehouse دارد:
🔶انعطاف پذیری: data lakehouse می تواند داده های غیر ساختار یافته، ساختار یافته و نیمه ساختار یافته را ذخیره کند. این انعطاف پذیری به سازمان ها امکان می دهد طیف گسترده ای از داده ها را از هر منبعی جمع آوری و تجزیه و تحلیل کنند.
🔶هزینه: data lakehouse می تواند هزینه های ذخیره سازی و پردازش داده ها را کاهش دهد. این به دلیل استفاده از فناوری های cloud-native است که هزینه های کلی را کاهش می دهند.
🔶سرعت: data lakehouse می تواند داده ها را سریعتر از data warehouse پردازش کند. این به دلیل استفاده از فناوری های cloud-native است که می توانند حجم زیادی از داده ها را به طور همزمان پردازش کنند.
✅ می تواند برای هوش مصنوعی و یادگیری ماشینی استفاده شود. این می تواند به سازمان ها کمک کند تا مدل های یادگیری ماشینی را ایجاد و آموزش دهند.
👍1
ایرانداک برگزار می کند
همایش چارچوب ملی تضمین کیفیت آمار چالش ها و راهکارهای پیاده سازی
چهارشنبه ۱۲ دی ساعت ۱۱ تا ۱۳
حضوری و مجازی
لینک مجازی:
https://meeting.irandoc.ac.ir/lecture
همایش چارچوب ملی تضمین کیفیت آمار چالش ها و راهکارهای پیاده سازی
چهارشنبه ۱۲ دی ساعت ۱۱ تا ۱۳
حضوری و مجازی
لینک مجازی:
https://meeting.irandoc.ac.ir/lecture
👍1
Forwarded from DeepMind AI Expert (Farzad)
کتاب جدیدی که منتشر شده جالبیش در انتشار نوت بوکهاش به زبان R و پایتون هستش که میتونه توسط پژوهشگران #آمار و علوم کامپیوتر مورد استفاده قرار گیرد.
▪️ Applied Causal Inference Powered by ML and AI
#کتاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Applied Causal Inference Powered by ML and AI
#کتاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
🔶#استخدام کارشناس هوش تجاری شرکت یو تراوز
توانمندیهای تخصصی همکار آیندهی ما:
مسلط به ابزار مصورسازی Power BI
مسلط به SQL
مسلط به پروسه ETL
آشنا به حداقل یکی از نرم افزارهای برنامهنویس در این حوزه نظیر Python
آشنا به مفاهیم، تکنیک ها و پیادهسازی الگوریتمهای دادهکاوی و علم داده
شرح وظایف همکار آینده ما:
آماده سازی و توسعه زیر ساخت ها
ایجاد گزارشات بیزینسی در سطح سازمان
دارا بودن قدرت تحلیل داده و پیاده سازی داشبوردها
کمک به هم تیمی ها به منظور افزایش کیفیت و کمیت کار
🌐لینک آگهی: لینک
🆔@dsfum
توانمندیهای تخصصی همکار آیندهی ما:
مسلط به ابزار مصورسازی Power BI
مسلط به SQL
مسلط به پروسه ETL
آشنا به حداقل یکی از نرم افزارهای برنامهنویس در این حوزه نظیر Python
آشنا به مفاهیم، تکنیک ها و پیادهسازی الگوریتمهای دادهکاوی و علم داده
شرح وظایف همکار آینده ما:
آماده سازی و توسعه زیر ساخت ها
ایجاد گزارشات بیزینسی در سطح سازمان
دارا بودن قدرت تحلیل داده و پیاده سازی داشبوردها
کمک به هم تیمی ها به منظور افزایش کیفیت و کمیت کار
🌐لینک آگهی: لینک
🆔@dsfum
🔶#استخدام دانشمند داده(بازارهای مالی) شرکت آلفا نیرو
وظایف و مسئولیتها:
جمعآوری، پاکسازی و تحلیل دادههای مالی
تست و اعتبارسنجی الگوریتمهای معاملاتی و ارائه گزارش نتایج.
همکاری نزدیک با تیمهای معاملاتی و توسعه نرمافزار برای پیادهسازی الزامات:
مدرک کارشناسی یا کارشناسی ارشد در علوم داده، آمار، ریاضیات یا رشتههای مرتبط.
تجربه عملی در کار با دادههای مالی و ابزارهای تحلیلی مانند Python، R، SQL.
مهارت در گزارشنویسی و ارائه یافتهها به زبان ساده و شفاف.
🌐لینک آگهی: لینک
🆔@dsfum
وظایف و مسئولیتها:
جمعآوری، پاکسازی و تحلیل دادههای مالی
تست و اعتبارسنجی الگوریتمهای معاملاتی و ارائه گزارش نتایج.
همکاری نزدیک با تیمهای معاملاتی و توسعه نرمافزار برای پیادهسازی الزامات:
مدرک کارشناسی یا کارشناسی ارشد در علوم داده، آمار، ریاضیات یا رشتههای مرتبط.
تجربه عملی در کار با دادههای مالی و ابزارهای تحلیلی مانند Python، R، SQL.
مهارت در گزارشنویسی و ارائه یافتهها به زبان ساده و شفاف.
🌐لینک آگهی: لینک
🆔@dsfum
Forwarded from Intellimage ( intelligent image processing )
🆕️ استفاده از روشهای مدرن تصویربرداری در بررسی ساختار تومور
✅ ساختارها و زیستگاههای تومور با استفاده از روشهای مدرن تصویربرداری و آنالیز فضایی مورد بررسی قرار گرفته است. محققان "میکرومنطقههای توموری" را به عنوان خوشههای متمایز سلولهای سرطانی که توسط اجزای استرومایی جدا شدهاند، تعریف کردند. ویژگیهای این میکرومنطقهها شامل:
- اندازه و چگالی متفاوت در انواع سرطان، با بزرگترین میکرومنطقهها در نمونههای متاستاتیک
- تقسیمبندی به "زیرکلونهای فضایی" با تغییرات ژنتیکی مشترک
- فعالیت متابولیکی افزایشیافته در مرکز و ارائه آنتیژن بیشتر در حاشیههای میکرومنطقهها
- نفوذ متغیر سلولهای T و حضور غالب ماکروفاژها در مرزهای تومور
✅ همچنین با بازسازی ساختارهای سهبعدی تومور و آنالیز همسایگیهای سلولی، نشانگرهای خستگی ایمنی در اطراف زیرکلونهای تومور شناسایی شد. این یافتهها به درک چگونگی تکامل فضایی تومور در تعامل با محیط میکروسکوپی کمک میکند.
🔎📄paper
🆔️ telegram channel:
https://t.iss.one/Intellimage
#image_processing
#article
✅ ساختارها و زیستگاههای تومور با استفاده از روشهای مدرن تصویربرداری و آنالیز فضایی مورد بررسی قرار گرفته است. محققان "میکرومنطقههای توموری" را به عنوان خوشههای متمایز سلولهای سرطانی که توسط اجزای استرومایی جدا شدهاند، تعریف کردند. ویژگیهای این میکرومنطقهها شامل:
- اندازه و چگالی متفاوت در انواع سرطان، با بزرگترین میکرومنطقهها در نمونههای متاستاتیک
- تقسیمبندی به "زیرکلونهای فضایی" با تغییرات ژنتیکی مشترک
- فعالیت متابولیکی افزایشیافته در مرکز و ارائه آنتیژن بیشتر در حاشیههای میکرومنطقهها
- نفوذ متغیر سلولهای T و حضور غالب ماکروفاژها در مرزهای تومور
✅ همچنین با بازسازی ساختارهای سهبعدی تومور و آنالیز همسایگیهای سلولی، نشانگرهای خستگی ایمنی در اطراف زیرکلونهای تومور شناسایی شد. این یافتهها به درک چگونگی تکامل فضایی تومور در تعامل با محیط میکروسکوپی کمک میکند.
🔎📄paper
🆔️ telegram channel:
https://t.iss.one/Intellimage
#image_processing
#article
👍1
🔶#استخدام تحلیل گر داده داتین
شرح وظایف:
تحلیل و بررسی دیتاها و ایجاد مستندات لازم
توانایی بالا در تحلیل داده
بررسی نیازمندی ها از سمت مشتری و تحلیل های لازم روی دیتا و به موازات آن ایجاد مستندات لازم
آشنایی با ابزار های ایجاد دیتا مدل
تعامل و ارتباط با دیگر اعضا تیم در فرآیند تولید و توسعه محصول با کیفیت
بررسی عمیق صورت مسئله و تحلیل کسبوکار
بصریسازی دادهها
طراحی سناریو و اسکریپتهای تست و صحت سنجی دادهها
یادگیری و درک سرویسهای تولیدی با توجه به سند تحلیل و طراحی مربوطه
طراحی و مستندسازی تست کیس و سناریوهای تست
انجام Manual سناریوهای تست و گزارش نتایج
مستندسازی نتایج تست و ثبت Issueها
🌐لینک آگهی: لینک
🆔@dsfum
شرح وظایف:
تحلیل و بررسی دیتاها و ایجاد مستندات لازم
توانایی بالا در تحلیل داده
بررسی نیازمندی ها از سمت مشتری و تحلیل های لازم روی دیتا و به موازات آن ایجاد مستندات لازم
آشنایی با ابزار های ایجاد دیتا مدل
تعامل و ارتباط با دیگر اعضا تیم در فرآیند تولید و توسعه محصول با کیفیت
بررسی عمیق صورت مسئله و تحلیل کسبوکار
بصریسازی دادهها
طراحی سناریو و اسکریپتهای تست و صحت سنجی دادهها
یادگیری و درک سرویسهای تولیدی با توجه به سند تحلیل و طراحی مربوطه
طراحی و مستندسازی تست کیس و سناریوهای تست
انجام Manual سناریوهای تست و گزارش نتایج
مستندسازی نتایج تست و ثبت Issueها
🌐لینک آگهی: لینک
🆔@dsfum
👍2
🔶#استخدام برنامه نویس هوش مصنوعی
مهارتهای الزامی:
تسلط به زبان برنامهنویسی پایتون
آشنایی با پردازش زبان طبیعی (NLP) یا Computer Vision (تسلط به یکی از این دو الزامی است)
آشنایی با تحولات جدید مانند مدلهای زبانی بزرگ (LLM) و Generative AI
مهارتهای ترجیحی:
آشنایی با کتابخانههای مرتبط مانند PyTorch، TensorFlow، NumPy، Pandas
آشنایی با تکنیکهای Crawling
آشنایی با تایپها و کتابخونه Pydantic
توانایی کار با مدلهای Transformer
مسلط به Regex و استفاده مؤثر از آن
تجربه در تحقیق و مقایسه ابزارها (R&D)
مهارتهای مدیریت زمان و کار تیمی
آشنایی با توسعه چابک و چارچوبهای Kanban و Scrum
آشنایی با مفاهیم توسعه نرمافزارهای تحت وب (اختیاری)
🌐لینک آگهی: لینک
🆔@dsfum
مهارتهای الزامی:
تسلط به زبان برنامهنویسی پایتون
آشنایی با پردازش زبان طبیعی (NLP) یا Computer Vision (تسلط به یکی از این دو الزامی است)
آشنایی با تحولات جدید مانند مدلهای زبانی بزرگ (LLM) و Generative AI
مهارتهای ترجیحی:
آشنایی با کتابخانههای مرتبط مانند PyTorch، TensorFlow، NumPy، Pandas
آشنایی با تکنیکهای Crawling
آشنایی با تایپها و کتابخونه Pydantic
توانایی کار با مدلهای Transformer
مسلط به Regex و استفاده مؤثر از آن
تجربه در تحقیق و مقایسه ابزارها (R&D)
مهارتهای مدیریت زمان و کار تیمی
آشنایی با توسعه چابک و چارچوبهای Kanban و Scrum
آشنایی با مفاهیم توسعه نرمافزارهای تحت وب (اختیاری)
🌐لینک آگهی: لینک
🆔@dsfum
👍1
🔶وبینار انجمن آمار ایران
موضوع این ماه: مدل های زبان بزرگ بهینه
سخنران: دکتر وحید پرتوی نیا محقق مرکز تحقیقاتی کشتی نوح زیر مجموعه هواوی
چهارشنبه ساعت ۱۸
vroom.ut.ac.ir/irstat
موضوع این ماه: مدل های زبان بزرگ بهینه
سخنران: دکتر وحید پرتوی نیا محقق مرکز تحقیقاتی کشتی نوح زیر مجموعه هواوی
چهارشنبه ساعت ۱۸
vroom.ut.ac.ir/irstat
👍2
پنل تخصصی حکمرانی بودجه ریزی هوشمند اولین کنفرانس ملی حکمرانی هوشمند از سوی موسسه عالی آموزش و پژوهش مدیریت و برنامه ریزی برگزار می شود. 📆 زمان: روز شنبه مورخ ۶ بهمن ماه ساعت ۹ صبح الی ۱۲
🏛️مکان: سالن شهید مطهری (طبقه چهارم).
✅ بصورت مجازی و حضوری
✅ لینک ورود به نشست مجازی:
https://imps.ac.ir/meeting
✅ اولین کنفرانس ملی حکمرانی هوشمند مورخ ۷ اسفندماه ۱۴۰۳ در دانشگاه آزاد اسلامی واحد تهران مرکزی برگزار می شود.
#اخبار_علمی
#اولین_کنفرانس_ملی_حکمرانی_هوشمند
🏛️مکان: سالن شهید مطهری (طبقه چهارم).
✅ بصورت مجازی و حضوری
✅ لینک ورود به نشست مجازی:
https://imps.ac.ir/meeting
✅ اولین کنفرانس ملی حکمرانی هوشمند مورخ ۷ اسفندماه ۱۴۰۳ در دانشگاه آزاد اسلامی واحد تهران مرکزی برگزار می شود.
#اخبار_علمی
#اولین_کنفرانس_ملی_حکمرانی_هوشمند
👍4
Forwarded from Machine Learning | یادگیری ماشین
⭕️ 10 تا از بهترین پروژه های ML + دیتاست
👨🏻💻 بهترین راه برای یادگیری هر فناوری، انجام پروژه هاست. اینطوری میتونید تمام مفاهیم نظری که یاد گرفتین رو، پیاده سازی کنین. از همه مهمتر، شرکتها الان تو مصاحبههای فنی خیلی روی پروژههایی که انجام دادین و در پرتفولیوتون قرار دادین تمرکز میکنن.
✅ من اینجا 10 تا از بهترین پروژه های یادگیری ماشین رو به همراه دیتاست پروژه قرار دادم که میتونه به ایجاد یه پرتفولیوی قوی تو علوم داده بهتون کمک کنه.
1️⃣ پروژه House Price Prediction
📦 دیتاست پروژه: Link
2️⃣ پروژه Customer Churn Prediction
📦 دیتاست پروژه: Link
3️⃣ پروژه Heart Disease Prediction
📦 دیتاست پروژه: Link
4️⃣ پروژه Customer Segmentation
📦 دیتاست پروژه: Link
5️⃣ پروژه Phishing Detection
📦 دیتاست پروژه: Link
6️⃣ پروژه TMDB Box Office Prediction
📦 دیتاست پروژه: Link
7️⃣ پروژه Human Activity Recognition with Smartphones
📦 دیتاست پروژه: Link
8️⃣ پروژه Census Income Prediction
📦 دیتاست پروژه: Link
9️⃣ پروژه NYC Taxi Trip Duration
📦 دیتاست پروژه: Link
🔟 پروژه Migration Prediction
📦 دیتاست پروژه: Link
#️⃣ #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
📎 @MachineLearning_ir
👨🏻💻 بهترین راه برای یادگیری هر فناوری، انجام پروژه هاست. اینطوری میتونید تمام مفاهیم نظری که یاد گرفتین رو، پیاده سازی کنین. از همه مهمتر، شرکتها الان تو مصاحبههای فنی خیلی روی پروژههایی که انجام دادین و در پرتفولیوتون قرار دادین تمرکز میکنن.
✅ من اینجا 10 تا از بهترین پروژه های یادگیری ماشین رو به همراه دیتاست پروژه قرار دادم که میتونه به ایجاد یه پرتفولیوی قوی تو علوم داده بهتون کمک کنه.
1️⃣ پروژه House Price Prediction
📦 دیتاست پروژه: Link
2️⃣ پروژه Customer Churn Prediction
📦 دیتاست پروژه: Link
3️⃣ پروژه Heart Disease Prediction
📦 دیتاست پروژه: Link
4️⃣ پروژه Customer Segmentation
📦 دیتاست پروژه: Link
5️⃣ پروژه Phishing Detection
📦 دیتاست پروژه: Link
6️⃣ پروژه TMDB Box Office Prediction
📦 دیتاست پروژه: Link
7️⃣ پروژه Human Activity Recognition with Smartphones
📦 دیتاست پروژه: Link
8️⃣ پروژه Census Income Prediction
📦 دیتاست پروژه: Link
9️⃣ پروژه NYC Taxi Trip Duration
📦 دیتاست پروژه: Link
🔟 پروژه Migration Prediction
📦 دیتاست پروژه: Link
#️⃣ #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
📎 @MachineLearning_ir
Forwarded from انجمن آمار ایران (ISS)
4_5832568134883613071.pdf
1 MB
انجمن آمار ایران منتشر کرد:
چاپ سری دوم مجموعه مسابقات دانشجویی آمار ایران (سالهای ۱۳۹۱ تا ۱۴۰۲)
انجمن آمار ایران، دومین مجموعهٔ مسابقات دانشجویی آمار کشور برای سالهای ۱۳۹۱ تا ۱۴۰۲ را به صورت الکترونیکی منتشر کرد. در این مجموعه، سؤالهای نظری و کاربردی، پاسخ به سؤالهای نظری و نتایج مسابقه که از دورهٔ سیزدهم تا بیست و سوم برگزار شده است، ارائه شده است. هر فصل کتاب مربوط به یک دوره از این مسابقه است که در چهار بخش تنظیم شده است. در بخش اول سؤالهای نظری، در بخش دوم سؤالهای کاربردی، در بخش سوم پاسخ به سؤالهای نظری و در بخش چهارم اعضای کمیتۀ علمی، تیم¬های شرکت کننده و نتایج انفرادی و تیمی هر مسابقه (افراد و تیمهای برتر) ارائه شده است.
این کتاب برای علاقه¬مندان به شرکت در مسابقهٔ دانشجویی آمار و افرادی که مایل هستند که مجموعه سؤالات و پاسخ آن¬ها و یا نتایج این مسابقات از دورۀ سیزدهم تا بیست و سوم را به صورت یکجا در اختیار داشته باشند، مفید است.
چاپ سری دوم مجموعه مسابقات دانشجویی آمار ایران (سالهای ۱۳۹۱ تا ۱۴۰۲)
انجمن آمار ایران، دومین مجموعهٔ مسابقات دانشجویی آمار کشور برای سالهای ۱۳۹۱ تا ۱۴۰۲ را به صورت الکترونیکی منتشر کرد. در این مجموعه، سؤالهای نظری و کاربردی، پاسخ به سؤالهای نظری و نتایج مسابقه که از دورهٔ سیزدهم تا بیست و سوم برگزار شده است، ارائه شده است. هر فصل کتاب مربوط به یک دوره از این مسابقه است که در چهار بخش تنظیم شده است. در بخش اول سؤالهای نظری، در بخش دوم سؤالهای کاربردی، در بخش سوم پاسخ به سؤالهای نظری و در بخش چهارم اعضای کمیتۀ علمی، تیم¬های شرکت کننده و نتایج انفرادی و تیمی هر مسابقه (افراد و تیمهای برتر) ارائه شده است.
این کتاب برای علاقه¬مندان به شرکت در مسابقهٔ دانشجویی آمار و افرادی که مایل هستند که مجموعه سؤالات و پاسخ آن¬ها و یا نتایج این مسابقات از دورۀ سیزدهم تا بیست و سوم را به صورت یکجا در اختیار داشته باشند، مفید است.
Forwarded from Data Science | علم داده
👨🏻💻 انتشارات O'Reilly Media یکی از معتبرترین ناشران در حوزه برنامهنویسی، داده کاوی و AI، اومده 10 تا از کتابهای حوزه علوم داده رو به رایگان در اختیار علاقه مندان این حوزه قرار داده.
✔️ برای استفاده از نسخه آنلاین و PDF این کتابها میتونید از لینکهای زیر استفاده کنین:👇
0⃣ کتاب Python Data Science Handbook
┌ Online
└ PDF
1⃣ کتاب Python for Data Analysis
┌ Online
└ PDF
🔢 کتاب Fundamentals of Data Vis
┌ Online
└ PDF
🔢 کتاب R for Data Science
┌ Online
└ PDF
🔢 کتاب Deep Learning for Coders
┌ Online
└ PDF
🔢 کتاب DS at the Command Line
┌ Online
└ PDF
🔢 کتاب Hands-On Data Visualization
┌ Online
└ PDF
🔢 کتاب Think Stats
┌ Online
└ PDF
🔢 کتاب Think Bayes
┌ Online
└ PDF
🔢 کتاب Kafka, The Definitive Guide
┌ Online
└ PDF
🌐 #علم_داده #DataScience
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
📊 دانشمند داده شوید :
📊 @DataScience_ir
📱 پیج اینستاگرام:
📊 @DataScience_fa
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
┌ Online
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🔶#استخدام کارشناس هوش تجاری خبرفوری
تحصیلات
کارشناسی یا کارشناسی ارشد مهندس کامپیوتر، علوم داده، آمار، مدیریت فناوری اطلاعات و مهندسی صنایع
تجربه کاری
حداقل 2سال تجربه کار سازمانی در سازمان های متوسط و بزرگ
وظایف
· گردآوری، بهروز رسانی، پردازش دادهها و اطلاعات برای تصمیم گیری
· دارای توانایی ارائه گزارشات تحلیلی به منظور تدوین استراتژی
· تسلط کافی بر نرم افزارهای آفیس از جمله اکسل و نرم افزار Power Bi و...
· آشنایی با زبان های برنامه نویسی SQL و Python
· تجربه کار با پایگاههای داده SQL و...
· توانایی تحلیل داده و ارائه گزارش های تحلیلی
· آشنایی با حوزههای ERP و سیستم های مدیریت منابع سازمانی
· همکاری در تدوین مستندات، رویه ها و فرآیندهای واحد و ارائه راهکارهای تحلیلگرانه در جهت بهبود فرایند واحدها
· ساخت داشبوردهای مورد نیاز
· عارضهیابی و رفع مشکلات داشبوردها و گزارشات موجود
· تعریف KPI متناسب با فعالیت سازمان
🌐لینک آگهی: لینک
🆔@dsfum
تحصیلات
کارشناسی یا کارشناسی ارشد مهندس کامپیوتر، علوم داده، آمار، مدیریت فناوری اطلاعات و مهندسی صنایع
تجربه کاری
حداقل 2سال تجربه کار سازمانی در سازمان های متوسط و بزرگ
وظایف
· گردآوری، بهروز رسانی، پردازش دادهها و اطلاعات برای تصمیم گیری
· دارای توانایی ارائه گزارشات تحلیلی به منظور تدوین استراتژی
· تسلط کافی بر نرم افزارهای آفیس از جمله اکسل و نرم افزار Power Bi و...
· آشنایی با زبان های برنامه نویسی SQL و Python
· تجربه کار با پایگاههای داده SQL و...
· توانایی تحلیل داده و ارائه گزارش های تحلیلی
· آشنایی با حوزههای ERP و سیستم های مدیریت منابع سازمانی
· همکاری در تدوین مستندات، رویه ها و فرآیندهای واحد و ارائه راهکارهای تحلیلگرانه در جهت بهبود فرایند واحدها
· ساخت داشبوردهای مورد نیاز
· عارضهیابی و رفع مشکلات داشبوردها و گزارشات موجود
· تعریف KPI متناسب با فعالیت سازمان
🌐لینک آگهی: لینک
🆔@dsfum
Forwarded from Machine Learning | یادگیری ماشین
👨🏻💻 همیشه برام سوال بود که چطور میتونم از تئوریها فراتر برم، و یادگیری ماشین رو به صورت عملی یاد بگیرم.
┌
└
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM