کارگروه علم داده
430 subscribers
458 photos
14 videos
119 files
431 links
ارتباط با ادمین:
@Smn_statistics
Download Telegram
🔶#استخدام متخصص هوش مصنوعی هلدینگ خبر فوری

لینک آگهی: لینک

🆔@dsfum
دانشمند داده.pdf
1.3 MB
🔶دانشمند داده کیست؟

منبع: آماتک

🆔@dsfum
جامع‌ترین سیستم ارزیابی مدل‌های زبانی فارسی متولد شد

🔹 متخصصان مرکز تحقیقات هوش مصنوعی پارت و آزمایشگاه پردازش زبان طبیعی دانشگاه صنعتی امیرکبیر با سرپرستی یکی از اساتید برجسته هوش مصنوعی کشور، سرکار خانم دکتر سعیده ممتازی، جامع‌‎ترین و قدرتمندترین سیستم ارزیابی مدل‌های زبانی فارسی (Open Persian LLM Leaderboard) را توسعه دادند، تا زیست‌بوم هوش مصنوعی کشور از این پس به سنجه‌ای دقیق و یکپارچه‌ برای ارزیابی LLMهای فارسی مجهز شود.

🔹 این سیستم ارزیابی شامل بیش از 40 هزار نمونه است که بخشی از آنها از چندین بنچمارک معتبر جهانی به فارسی برگردانده شده و بخشی دیگر در داخل کشور از پایه تهیه و برچسب‌زنی شده‌اند. این تعداد نمونه‌، همواره در حال افزایش و به‌روزرسانی است تا ضریب دقت در ارزیابی‌ها هموار بهبود یابد. با این توضیحات، مدل ارائه شده، در کنار برترین بنچمارک‌های جهانی قرار می‌گیرد.

🔹 بخش کوچکی از دادگان این سیستم ارزیابی (بنچمارک) هم اکنون به صورت متن باز در دسترس عموم قرار گرفته است.

🔗 برای ارزیابی مدل زبانی خود و دیگران کافی است کلیک کنید.

🆔 @Partdpai
Forwarded from DeepMind AI Expert (Farzad 🦅)
دکتر Jeremy Howard یک آموزش جامع برای مبتدیان NLP تهیه کرده که یکی از بهترینها هستش علاقمندید به این فیلد دنبال ‌کنید

🔸 NLP for absolute beginners

#مبتدی #پردازش_زبان_طبیعی #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
Forwarded from انجمن علمی آمار دانشگاه اصفهان (-بیتا رسوفی)
■ معاونت حمل و نقل و ترافیک شهرداری اصفهان به مناسبت «روز هوای پاک» برگزار می‌کند:
مسابقه‌ی تحلیل آماری و داده‌کاوی بر روی داده های ۶ سال کیفیت هوای اصفهان☁️

🏆- همراه با جوایز نفیس

💡- محور‌های ویژه‌ی این دوره از مسابقات:

-بررسی الگوی تغییرات ساعتی آلاینده‌ی ازن متناسب با تغییرات دما و تشعشع در بازا‌ی زمانی ۵ ساله

-بررسی تغییرات ازن متناسب با الگوی وزش باد در شهرستان اصفهان طی ۵ سال

-بررسی تاثیر غلظت اکسید‌های نیتروژن در افزایش و کاهش غلظت ازن

-بررسی تغییرات ۵ ساله‌ی آلاینده ذرات معلق و ارتباط آن با داده‌های هواشناسی (سرعت و جهت باد)


- آخرین مهلت ارسال آثار:

۵ دی ماه ۱۴۰۳

📫- نحوه‌ی ارسال آثار:

۱| 📧 | ارسال به آدرسِ ایمیل:
[email protected]

۲| 👣 | مراجعه به مرکز پالایش کیفیت هوا واقع در خیابان کاوه، پل ۲۵ آبان، ضلع شرقی، ساختمان مترو، طبقه‌ی ۲

📎- کسب اطلاعات بیشتر و دریافت داده‌ها:

031 344 78850
031 344 78856



📊| انجمن‌ علمی آمار دانشگاه اصفهان
Forwarded from پردیس‌‌فام
برنامه های هفته پژوهش دانشکده علوم ریاضی

🆔@fumpardis
🔶پیچیدگی زمانی الگوریتم های معروف یادگیری ماشین

🆔@dsfum
🟡 آزمایش آنلاین مبتنی بر هوش مصنوعی برای ارزیابی شدت بیماری پارکینسون نتایج امیدوارکننده‌ای نشون داد!

یک ابزار هوش مصنوعی جدید می‌تونه به افراد مبتلا به بیماری پارکینسون کمک کنه تا در عرض چند دقیقه، از راه دور، شدت علائم خودشون رو ارزیابی کنن.
در این ارزیابی، آزمون بر اساس ۱۰ ضربه انگشت انجام می‌شه و نتایج به سرعت در دسترس قرار می‌گیره. هرچند نورولوژیست‌های متخصص کمی بهتر از مدل هوش مصنوعی عمل کردن، اما مدل هوش مصنوعی نسبت به پزشکان عمومی که وضعیت و علائم بیماران مبتلا به پارکینسون رو با استفاده از یک ابزار اندازه‌گیری خاص ارزیابی می کنن، عملکرد بهتری از خودش نشون داد.

#Artificial_Intelligence

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
⭕️ دانلود رایگان کتاب Doing Data Science in R


👨🏻‍💻
کتاب "Doing Data Science in R" با مفهومی جذاب و مبتنی بر داده‌ها، به تجزیه و تحلیل آماری داده‌های واقعی با استفاده از ابزارهای مدرن می‌پردازه و اطلاعات گسترده‌ای رو ارائه میده.

💬 مارک اندروز نویسنده این کتاب، راهنمای مرحله به مرحله‌ای رو برای استفاده از ابزارها و روش‌های آماری در تجزیه و تحلیل داده ارائه می‌کنه و ابتدا اصول علوم داده و زبان R رو معرفی می‌کنه و سپس به مباحث پیشرفته‌تری مثل مدل‌های چند سطحی و مدل‌سازی احتمالی با استفاده از Stan می‌پردازه، تا به تدریج دانش و مهارت‌تون ارتقا پیدا کنه.👌🏼

🔖 لینک دسترسی به کتاب + منابع :

🏷 Doing Data Science in R
📘
WEB
🗄
Data Files
🗃
GitHub-Repos


#️⃣ #علم_داده #DataScience

📊 دانشمند داده شوید :
📎
@DataScience_ir
🔶#استخدام کارشناس هوش تجاری شرکت سامانه هوشمند ماداکتو(فعال در زمینه اتوماسیون اداری)

شرح موقعیت شغلی


 تجزیه‌وتحلیل داده‌های فروش، موجودی، عملکرد شعب و دیگر شاخص‌های کلیدی برای ارائه پیشنهادات جهت بهبود عملکرد.

 طراحی و توسعه داشبوردهای پویا و گزارش‌های تحلیلی با استفاده از ابزارهایی مانند Power BI و SSRS.

شناسایی روندها، الگوها و انحرافات موجود در داده‌ها.

همکاری نزدیک با تیم‌های مختلف از جمله فروش، مالی و منابع انسانی برای شناسایی نیازهای اطلاعاتی و بهینه‌سازی فرآیندهای گزارش‌دهی.

اطمینان از دقت و صحت داده‌ها و انجام فرآیندهای ETL جهت انتقال و پاک‌سازی داده‌ها.


شرایط احراز:

 مدرک تحصیلی در رشته‌های مهندسی صنایع، مهندسی کامپیوتر، ریاضی یا آمار.

 مسلط به Power BI و Excel.

 توانایی حل مسئله و تحلیل وضعیت‌های پیچیده.

 مهارت در ارتباطات و تعامل با هم‌تیمی‌ها

🌐لینک آگهی: لینک

🆔@dsfum
⭕️ 10 ایده برتر پروژه‌های یادگیری ماشین 2023
✍🏼 ناتاشا سلواراج / دانشمند داده

🔷 شرکت در پروژه‌های یادگیری ماشین به شما این امکان را می‌دهد تا دانشی که از دوره‌های آنلاین به دست آورده‌اید را بر روی مجموعه داده‌های واقعی پیاده سازی کنید و نتیجه کار خود را در رزومه‌تان به نمایش بگذارید.

🔶 در این مقاله، 10 ایده‌ی فوق العاده پروژه‌ های یادگیری ماشین را برای مبتدی‌ها ارائه کرده‌ام. برای هر ایده نیز، لینکی برای دیتاست و راه‌حلی که توسط یک دانشمند داده حرفه ای ارائه شده است، را قرار داده ام. به این ترتیب، اگر جایی به مشکل برخوردید، می توانید به سورس کد مراجعه کنید تا نحوه ادامه کار را کامل متوجه شوید.


1️⃣ پیش‌بینی بقاء تایتانیک

🏷 Titanic Survival Prediction
◼️ Dataset
◻️ Sample solution


2️⃣ طبقه‌بندی گل‌های آیریس

🏷 Iris Flower Classification
◼️ Dataset
◻️ Sample solution


3️⃣ پیش بینی قیمت مسکن

🏷 House Price Prediction
◼️ Dataset
◻️ Sample solution


4️⃣ مطالعه قلب فرامینگهام

🏷 The Framingham Heart Study
◼️ Dataset
◻️ Sample solution


5️⃣ پیش بینی امید به زندگی

🏷 Life Expectancy Prediction
◼️ Dataset
◻️ Sample solution


6️⃣ تشخیص اسپم

🏷 Spam Detection
◼️ Dataset
◻️ Sample solution


7️⃣ تشخیص سرطان سینه

🏷 Breast Cancer Detection
◼️ Dataset
◻️ Sample solution


8️⃣ تقسیم بندی مشتریان مرکز خرید

🏷 Mall Customer Segmentation
◼️ Dataset
◻️ Sample solution


9️⃣ آنالیز احساسات بر روی نقدهای فیلم

🏷 Sentiment Analysis on Movie Reviews
◼️ Dataset
◻️ Sample solution


🔟 پیش‌بینی دیابت قبیله پیما هندی

🏷 Pima Indian Diabetes Prediction
◼️ Dataset
◻️ Sample solution


#️⃣ #یادگیری_ماشین #MachineLearning

💡 مهندس ML شوید :
📎
@MachineLearning_ir
Forwarded from کانال آقای صنایع (اميـررضـا تجـلى)
Google Clouds - MLOps.pdf
8.2 MB
راهنمای بی‌نظیر گوگل‌کلاود پیرامون MLOps - نسخه ۲۰۲۱ به قلم تیمی از مهندسان یادگیری ماشین گوگل!

⬅️ دیگر فایل‌های MLOps

⬅️ آموزش‌های MLOps

☯️ @Mr_IE | آقای صنایع 🚥
🔶#استخدام مهندس داده شرکت بادصبا

مسئولیت های شما در این موقعیت شغلی به شرح زیر است:

طراحی، پیاده‌سازی ، توسعه و نگهداری پایپلاین‌های مقیاس‌پذیر داده و فرآیندهای ETL/ELT را انجام خواهید داد .
معماری‌های داده را برای پشتیبانی از تحلیل‌های پیشرفته و جریان‌های کاری یادگیری ماشین ارزیابی ، توسعه و بهبود و بهینه می‌کنید .
با دانشمندان داده و تحلیل‌گران همکاری می‌کنید تا دسترسی به داده‌ها و کیفیت آن‌ها تضمین شود .
بهترین شیوه‌ها برای امنیت داده، انطباق و حاکمیت داده‌ها را پیاده‌سازی می‌کنید .
در جریان تکنولوژی‌های نوظهوری چون هوش مصنوعی قرار گرفته و پیشنهاد‌هایی برای بهبود زیر ساخت های داده‌ی مورد نیاز محصولات داده محور ما ارائه می‌دهید. 
مدیریت موثر سیستم‌های داده در مقیاس بزرگ با استفاده از پایگاه‌های داده SQL و NoSQL 
توسعه و بهینه‌سازی معماری‌های داده و فریم ورک های هوش تجاری (BI) 
بهره‌گیری از فناوری‌های Data Warehousing برای پشتیبانی از ذخیره‌سازی و پردازش داده‌ها در مقیاس وسیع

🌐لینک آگهی: لینک

🆔@dsfum
lbdl.pdf
5 MB
جزوه یادگیری عمیق

تقریبا شبیه جزوه های شب امتحان آخر ترمه دانشجویی که درس نخونده ولی یه چیزایی رو باید بخاطر بسپره که حداقل ناپلئونی پاس کنه!

🟢 این کتاب در مورد یادگیری عمیق (deep learning) است و شامل مطالب زیر می شود:
- مقدمه ای بر یادگیری ماشین و انواع آن مثل رگرسیون، طبقه بندی و مدلسازی توزیع
- توضیحی در مورد محاسبات کارآمد با استفاده از GPUها و تنسورها
- آموزش مدل‌ها با استفاده از تابع زیان، مدل‌های پیش‌بین، گرادیان‌نزولی و انتشار به عقب
- معرفی اجزای اصلی مدل‌ها مثل لایه‌های خطی، توابع فعال‌سازی، لایه‌های همسان‌سازی و اتصالات فراگذر
- توضیح معماری‌های مختلف مثل شبکه‌های عصبی پیچشی و مدل‌های مبتنی بر توجه
- بررسی کاربردهایی مثل طبقه‌بندی تصویر، تشخیص اشیا، بخش‌بندی سمانتیک، ترجمه ماشینی و تولید متن
- توضیح روش‌هایی برای ساخت مدل‌های بزرگ‌مقیاس و قدرت آن‌ها در حل مسائل مختلف

به طور کلی این کتاب مروری مفید بر مبانی و مفاهیم کلیدی یادگیری عمیق ارائه می‌دهد.

#جزوه #یادگیری_عمیق

🆔 @data_science_python_and_r
🔶#کارآموزی هوش تجاری کارخانه عالیس

شرح شغل و وظایف
مهارت های فنی:
آشنایی با Power BI و مدل سازی داده ها
اشنایی با زبان M و DAX
آشنایی با کویری نویسی در محیط دیتابیس های رابطه ای به خصوص SQL Server
آشنایی با مفاهیم انبار داده (DataWarehouse)
اشنایی با شاخص های کلیدی عملکرد (KPI)
اشنایی با مفاهیم و فرآیندهای مالی، بازرگانی، تولیدی، منابع انسانی و ... جهت درک هر چه بیشتر داشبوردهای درخواستی
مهارت های امتیازی:
آشنایی با محیط SSAS و SSIS مزیت محسوب می شود
اشنایی با زبان برنامه نویسی پایتون مزیت محسوب می شود

🌐لینک آگهی: لینک

🆔@dsfum
Forwarded from پایتون مالی
@PyFinance- Iran-AI.pdf
12.1 MB
شاخص هوشمصنوعی ایران ۱۴۰۳

این گزارش با الهام از تجربیات بین‌المللی در شاخص‌های هوش مصنوعی، تلاش می‌کند چارچوبی جامع برای درک وضعیت ایران در این حوزه ارائه دهد و امکان برنامه‌ریزی استراتژیک و سیاست‌گذاری‌های کوتاه‌مدت، میان‌مدت و بلندمدت مبتنی بـر شواهد را فراهم کرده و به اجرای مؤثر سیاست‌ها کمک کند.


🔖 هوش‌مصنوعی در صنعت مالی
@pyfinance
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Data world with Mina (Mina Ra)
در دنیای همیشه در حال تکامل داده ها، درک گزینه های ذخیرهسازی شما بسیار مهم است. بیایید تفاوت های بین Data Warehouse ها، Data Lakes و مفهوم نوظهور Data Lakehouse ها را بشکنیم:



🔺انبار داده datawareHouse 🏢:

✔️ایده آل برای داده های ساخت یافته
طراحی شده برای پرس و جو با کارایی بالا.
برای هوش تجاری و گزارش دهی مناسب است. بعنوان هسته اصلی یک سیستم هوش تجاری BI به شمار می‌آید. به عبارت دیگر انبار داده یک مخزن داده مرکزی از داده‌های تجمیع شده است که از سیستم‌ها و منابع مختلف سازمان جمع‌آوری شده است .
 
🔺دریاچه داده (data lake)
دریاچه داده یک مخزن ذخیره سازی مرکزی است که کلان داده‌ها را از منابع مختلف در فرمت خام و دست نخورده ذخیره می‌کند. Data lake می‌تواند داده‌های ساختار یافته، نیمه ساختار یافته یا بدون ساختار را ذخیره کند
اغلب برای داده های بزرگ و تجزیه و تحلیل پیشرفته استفاده می شود.

دریاچه داده بر اساس اصولی به نام خواندن با ساختار (schema-on-read) کار می‌کند.

این بدان معناست که هیچ طرح (schema) از پیش تعیین شده‌ای وجود ندارد که داده‌ها قبل از ذخیره سازی به آن نیاز داشته باشند.

فقط زمانی که داده‌ها در حین پردازش خوانده می‌شوند، تجزیه و تحلیل می‌شوند و در صورت لزوم داخل یک طرح (schema) تطبیق داده می‌شوند.

این ویژگی زمان مصرف شده روی تعریف کردن طرح (schema) را به حداقل می‌رساند و باعث می‌شود که داده‌ها به همان شکلی که هستند در هر فرمتی ذخیره شوند.

🔺تفاوت دریاچه داده با انبار داده:

طرح یا اسکیمای یک انبار داده قبل از ذخیره سازی تعریف و ساختار یافته می‌شود (طرح و اسکیما هنگام نوشتن داده‌ها اعمال می‌شود). ✔️در مقابل یک دریاچه داده، هیچ طرح و برنامه‌‌ی از پیش تعیین شده‌ای ندارد تا به آن اجازه دهد که داده‌ها را در فرمت اصلی خود ذخیره کند. بنابراین، در انبار داده اکثرا آماده سازی داده‌ها معمولاً قبل از پردازش اتفاق می‌افتد ولی در Data Lakes هنگامی که داده‌ها واقعاً مورد استفاده قرار بگیرند، آماده سازی می‌شوند.

از آنجا که داده‌ها قبل از ذخیره سازی به شکل ساده شده سازماندهی نشدند، یک دریاچه داده اغلب نیاز به یک متخصص با درک کامل انواع مختلف داده‌ها و روابط آن‌ها دارد تا بتواند آن‌ها را بخواند. در عوض یک انبار داده به دلیل طرح و اسکیمای مستند خود و به دلیل این که به خوبی تعریف شده، هم برای کاربران فناوری و حتی افراد غیر فناوری نیز قابل دسترسی است. حتی یک عضو جدید در تیم می‌تواند به سرعت از انبار استفاده کند.

معماری دریاچه داده: آمازون وب سرویس (AWS)، هادوپ (Hadoop)، آزور (Azure)

Data Lakehouse دیتا لیک هاوس🔺
🚀
دیتا لیک هاوس نوع جدیدی از معماری داده است که یک دریاچه داده را با یک انبار داده ترکیب می کند تا کاستی های هر یک را به طور جداگانه برطرف کند.

یک ذخیره سازی از داده های غیر ساختار یافته و ساختار یافته است که از فناوری های cloud-native مانند Hadoop، Spark و Kafka استفاده می کند.

این معماری به سازمان ها امکان می دهد داده های خود را از هر منبعی ذخیره، مدیریت و تحلیل کنند.
دیتا لیک هاوس مزایای زیر را نسبت به data lake و data warehouse دارد:

🔶انعطاف پذیری: data lakehouse می تواند داده های غیر ساختار یافته، ساختار یافته و نیمه ساختار یافته را ذخیره کند. این انعطاف پذیری به سازمان ها امکان می دهد طیف گسترده ای از داده ها را از هر منبعی جمع آوری و تجزیه و تحلیل کنند.

🔶هزینه: data lakehouse می تواند هزینه های ذخیره سازی و پردازش داده ها را کاهش دهد. این به دلیل استفاده از فناوری های cloud-native است که هزینه های کلی را کاهش می دهند.

🔶سرعت: data lakehouse می تواند داده ها را سریعتر از data warehouse پردازش کند. این به دلیل استفاده از فناوری های cloud-native است که می توانند حجم زیادی از داده ها را به طور همزمان پردازش کنند.

می تواند برای هوش مصنوعی و یادگیری ماشینی استفاده شود. این می تواند به سازمان ها کمک کند تا مدل های یادگیری ماشینی را ایجاد و آموزش دهند.
👍1
ایرانداک برگزار می کند

همایش چارچوب ملی تضمین کیفیت آمار چالش ها و راهکارهای پیاده سازی

چهارشنبه ۱۲ دی ساعت ۱۱ تا ۱۳
حضوری و مجازی

لینک مجازی:
https://meeting.irandoc.ac.ir/lecture
👍1
Forwarded from DeepMind AI Expert (Farzad)
کتاب جدیدی که منتشر شده جالبیش در انتشار نوت بوکهاش به زبان R و پایتون هستش که میتونه توسط پژوهشگران #آمار و علوم کامپیوتر مورد استفاده قرار گیرد.

▪️ Applied Causal Inference Powered by ML and AI

#کتاب #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍1
🔶#استخدام کارشناس هوش تجاری شرکت یو تراوز

توانمندی‌های تخصصی همکار آینده‌ی ما:


مسلط به ابزار مصورسازی Power BI
مسلط به SQL
مسلط به پروسه ETL
آشنا به حداقل یکی از نرم افزارهای برنامه‌نویس در این حوزه نظیر Python
آشنا به مفاهیم، تکنیک ها و پیاده‌سازی الگوریتم‌های داده‌کاوی و علم داده

شرح وظایف همکار آینده ما:

آماده سازی و توسعه زیر ساخت ها
ایجاد گزارشات بیزینسی در سطح سازمان
دارا بودن قدرت تحلیل داده و پیاده سازی داشبوردها
کمک به هم تیمی ها به منظور افزایش کیفیت و کمیت کار

🌐لینک آگهی: لینک
🆔@dsfum
🔶مدل های پرطرفدار یادگیری ماشین

🆔@dsfum
👍1