هوش مصنوعی - مدارس میان‌رشته‌ای
2.33K subscribers
124 photos
25 videos
57 files
180 links
کانال هوش مصنوعی مجموعه علمی و پژوهشی مدارس میان‌ رشته‌ای

تبادل و تبلیغ:
@ShadmaniL
لینک کانال اصلی :
@IDSchools
مدیریت:
@m_solh
Download Telegram
"فهم، فرآیند تطبیق یک مدل ذهنی با دنیاست."

👤Marvin Minsky

👤این دانشمند در ۹ آگوست ۱۹۲۷ در شهر نیویورک متولد شد. در سال ۱۹۵۰ تحصیلات کارشناسی خود را در رشته ریاضیات در دانشگاه هاروارد به پایان رساند و سپس در سال ۱۹۵۴ موفق به اخذ مدرک دکترای ریاضی از دانشگاه پرینستون شد. زمینه تحصیلی بین رشته‌ای او، بستر کارهای پیشگامانه‌اش در تقاطع هوش مصنوعی، علوم شناختی و علوم اعصاب را بنا نهاد.

چرا Marvin Minsky یک افسانه است:
🔴راه را برای سیستم‌های پیشرفته هوش مصنوعی هموار کرد. کتاب او به نام "Perceptrons" (چاپ ۱۹۶۹ با همکاری Seymour Papert) تأثیر عمیقی بر حوزه شبکه‌های عصبی گذاشت. کارهای او زیربنای احیای شبکه‌های عصبی در دهه ۱۹۸۰ و موفقیت‌های بعدی آن‌ها در کاربردهای مختلف هوش مصنوعی را بنا نهاد. همچنین، تحقیقات ایشون بر پردازش نمادین و بازنمایی دانش مبتنی بر فریم متمرکز بود. او استفاده از ساختارهای نمادین به نام «فریم» را برای نمایش دانش و استدلال در سیستم‌های هوش مصنوعی بررسی کرد. فریم‌ها چارچوبی قدرتمند برای سازماندهی و دستکاری اطلاعات پیچیده فراهم می‌کردند و به سیستم‌های هوش مصنوعی امکان استدلال و تصمیم‌گیری هوشمندانه را می‌دادند.
🔴آزمایشگاه هوش مصنوعی MIT را تأسیس کرد که به محلی برای تحقیقات پیشگامانه هوش مصنوعی تبدیل شد.
🔴در کتاب برجسته خود با عنوان «The Society of Mind» که در سال ۱۹۸۵ منتشر شد، نظریه جامعی در مورد چگونگی تشکیل ذهن از مجموعه‌ای گسترده از فرآیندهای ذهنی در حال تعامل ارائه کرد. او پیشنهاد داد که هوش از برهم‌کنش‌های پیچیده بین این فرآیندها ناشی می‌شود و این موضوع بازتاب‌دهنده پردازش موازی است که در سیستم‌های هوش مصنوعی مشاهده می‌شود.
🔴او همچنین بر اهمیت همسو کردن هوش مصنوعی با ارزش‌های انسانی، رسیدگی به خطرات بالقوه و اطمینان از اینکه این فناوری به نفع همه بشریت است، تأکید می‌کرد.

#چهره‌های_برجسته
✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩 به گروه گفتگوی تعاملی ما بپیوندید!

🥳علاوه بر مطالب عالی هوش مصنوعی که در اینجا پیدا می‌کنید، از راه‌اندازی گروه بحث و گفتگوی تعاملی بسیار هیجان‌زده هستیم! این فرصتی است برای شما تا:

با سایر علاقه‌مندان به هوش مصنوعی ارتباط برقرار کنید: ایده‌ها را به اشتراک بگذارید، سوال بپرسید و از جامعه‌ای پرشور در مورد هوش مصنوعی کمک بگیرید.

در بحث‌ها شرکت کنید: عمیق‌تر به مفاهیمی که در اینجا یاد می‌گیرید بپردازید، موضوعات جدید را کاوش کنید و در مورد آخرین پیشرفت‌ها بحث کنید.

پاسخ سوالات خود را دریافت کنید: روی یک مفهوم گیر کرده‌اید؟ سوالی در مورد کاربردهای هوش مصنوعی دارید؟ گروه ما برای کمک به شما اینجاست!

لینک گروه تعاملی

✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
هوش مصنوعی - مدارس میان‌رشته‌ای pinned «🤩 به گروه گفتگوی تعاملی ما بپیوندید! 🥳علاوه بر مطالب عالی هوش مصنوعی که در اینجا پیدا می‌کنید، از راه‌اندازی گروه بحث و گفتگوی تعاملی بسیار هیجان‌زده هستیم! این فرصتی است برای شما تا: با سایر علاقه‌مندان به هوش مصنوعی ارتباط برقرار کنید: ایده‌ها را به…»
📱کانال یوتیوب Google Cloud : AI Adventures دنیای یادگیری ماشین را به روشی سرگرم‌کننده و آموزشی برای شما باز می‌کند. در این کانال، با ماهیت، علم و ابزارهای یادگیری ماشین آشنا می‌شوید. فرقی نمی‌کند تازه‌کار باشید یا در این زمینه تجربه داشته باشید، این ویدیوها به شما کمک می‌کنند تا در سفر یادگیری علم داده خود، گام‌های بلندی بردارید.

🟩این کانال موضوعات مختلفی را پوشش می‌دهد، از جمله:

🔴اصول اولیه یادگیری ماشین
🔴هفت مرحله‌ی کلیدی در یادگیری ماشین کاربردی
🔴ابزارهایی مانند TensorFlow
🔴نحوه‌ی استفاده از Google Cloud Platform برای یادگیری ماشین
🔴به کارگیری هوش مصنوعی در دنیای واقعی، مثل مد و فشن
🔴و بسیاری موارد دیگر...
⬅️برای شروع سفر خود در دنیای هوش مصنوعی، می‌توانید لیست پخش ماجراجویی‌های هوش مصنوعی را در کانال Google Cloud Tech مشاهده کنید.

🤩 آیا برای شروع ماجراجویی خود آماده‌اید؟

#کافه_یوتوب

✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
هوش مصنوعی - مدارس میان‌رشته‌ای pinned «وبینار بعدی در مورد چه موضوعی برگزار شود ؟»
🟩چالش بنیادی در یادگیری ماشین، کشمکش بین Optimization و Generalization است. Optimization به فرآیند تنظیم مدل برای دستیابی به بهترین عملکرد ممکن روی داده‌های آموزشی اشاره دارد، در حالی که Generalization به چگونگی عملکرد مدل آموزش‌دیده روی داده‌هایی که هرگز ندیده است، اشاره می‌کند. بدیهی است که هدف نهایی دستیابی به Generalization خوب است، اما شما مستقیماً کنترلی روی آن ندارید؛ تنها کاری که می‌توانید انجام دهید، تطبیق مدل با داده‌های آموزشی است. اگر این کار را بیش از حد خوب انجام دهید، پدیده Overfitting رخ می‌دهد و Generalization لطمه می‌خورد.

حالا چه عواملی باعث Overfitting می‌شوند؟ چگونه می‌توانیم به Generalization خوب دست پیدا کنیم؟

⬅️در ابتدای آموزش شبکه، Optimization و Generalization با هم همبستگی دارند: هرچه loss روی داده‌های آموزشی پایین‌تر باشد، loss روی داده‌های تست نیز پایین‌تر است. در این حالت گفته می‌شود مدل شما دچار Underfitting است: هنوز جای پیشرفت وجود دارد؛ شبکه هنوز تمام الگوهای مرتبط موجود در داده‌های آموزشی را یاد نگرفته است. اما پس از تعداد معینی تکرار فرایند آموزش روی داده‌های آموزشی، تعمیم‌پذیری دیگر بهبود نمی‌یابد، معیارهای اعتبارسنجی ثابت می‌مانند و سپس شروع به کاهش می‌کنند، دراین حالت مدل در حال شروع به Overfitting است. یعنی شروع به یادگیری الگوهایی می‌کند که خاص داده‌های آموزشی هستند اما در مواجهه با داده‌های جدید ویژگی‌های گمراه‌کننده یا نامرتبط را یاد می‌گیرند.


📖 برگی از کتاب "Deep Learning with Python" اثر François Cholle
#گنجینه_کتاب

✈️@IDS_AI_ML
✈️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 آمار ثبت‌نام کنندگان وبینار برگزارشده‌ با عنوان Federated Learning و معرفی پلتفرم FeatureCloud

🔣 پست مربوط به وبینار
✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
👀 استفاده از Reinforcement Learning در ربات های شرکت Boston Dynamics
✈️@IDS_AI_ML
✈️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
🟡 یادگیری تقویتی (Reinforcement Learning) نوعی از یادگیری ماشین است که در آن یک عامل با تعامل با محیط به هدفی مشخص می‌رسد. برخلاف یادگیری نظارت‌شده، RL بر یادگیری از نتایج اقدامات از طریق آزمون و خطا و توازن بین اکتشاف (آزمایش چیزهای جدید) و بهره‌برداری (استفاده از اطلاعات موجود) تمرکز دارد.

⬅️مفاهیم کلیدی:
🟡عامل: یادگیرنده یا تصمیم‌گیرنده.
🟡محیط: سیستم خارجی که عامل با آن تعامل دارد.
🟡اقدامات: انتخاب‌های عامل.
🟡پاداش‌ها: بازخورد محیط بر اساس اقدامات.
🟡سیاست: استراتژی عامل برای تعیین اقدامات.

◀️مثال عملی:
یکی از مثال‌ها، بازی تیک‌تاک‌تو است که در آن عامل با بازی کردن علیه خودش یاد می‌گیرد. هر بار که عامل یک بازی را می‌برد، تقویت می‌شود و به تدریج استراتژی‌های بهتری را یاد می‌گیرد تا احتمال بردش را افزایش دهد.

چرا RL؟
تصمیم‌گیری پویا: قابلیت تطبیق در محیط‌های متغیر.
کاربردهای وسیع: از رباتیک تا بازی‌ها و مالی.

✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
😮 معرفی کتاب Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville

🔣این کتاب به گونه‌ای ساختار یافته است که شما را از مبانی تا مفاهیم پیشرفته یادگیری عمیق همراهی کند، شامل:

مبحث Introduction to Machine Learning and Deep Learning: اصول پایه و جایگاه یادگیری عمیق در یادگیری ماشین را درک کنید.
مبحث Deep Feedforward Networks: معماری و آموزش شبکه‌های عصبی پیشخور، بلوک‌های سازنده یادگیری عمیق را بیاموزید.
مبحث Regularization Techniques: روش‌هایی برای بهبود عملکرد مدل‌های یادگیری عمیق کشف کنید.
مبحث Optimization Algorithms: الگوریتم‌هایی که آموزش شبکه‌های عمیق را هدایت می‌کنند، از گرادیان نزولی تا تکنیک‌های پیشرفته‌تر را بررسی کنید.
مبحث Convolutional Networks: شبکه‌هایی که دید کامپیوتری و پردازش تصویر را متحول کرده‌اند، کشف کنید.
مبحث Sequence Modeling: چگونگی مدیریت داده‌های ترتیبی توسط شبکه‌های بازگشتی را درک کنید، که برای وظایفی مانند مدل‌سازی زبان و پیش‌بینی سری‌های زمانی حیاتی هستند.
مبحث Practical Methodology: بهترین روش‌ها برای پیاده‌سازی و تنظیم سیستم‌های یادگیری عمیق در کاربردهای دنیای واقعی را به دست آورید.
مبحث Generative Models: درباره مدل‌هایی که قادر به تولید داده‌های جدید هستند بیاموزید، که منجر به نوآوری‌هایی در هوش مصنوعی خلاق و یادگیری بدون نظارت می‌شود.
⬅️ درباره نویسندگان
🟡آقای Ian Goodfellow: به خاطر کار پیشگامانه‌اش در شبکه‌های مولد رقابتی (GANs) شناخته می‌شود و یکی از شخصیت‌های برجسته در جامعه هوش مصنوعی است.

🟡آقای Yoshua Bengio: برنده جایزه تورینگ، یوشوا نقش بزرگی در توسعه یادگیری عمیق ایفا کرده است.

🟡آقای Aaron Courville : به عنوان یک محقق برجسته، آرون بر یادگیری بدون نظارت و مدل‌های مولد عمیق تمرکز دارد.


✈️@IDS_AI_ML
✈️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
Adaptive_Computation_and_Machine_Learning_series_Bengio,_Yoshua.pdf
16 MB
📎Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville

✈️@IDS_AI_ML
✈️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
🔣چندین منبع عالی برای یادگیری تقویتی (Reinforcement Learning - RL) وجود دارد که در اینجا آورده شده است:

📚کتب:

◀️کتاب An Invitation to Deep Reinforcement Learning by Bernhard Jaeger and Andreas Geiger : یک کتاب درسی کلاسیک و پرکاربرد است که مفاهیم و الگوریتم های هسته RL را پوشش می دهد

◀️کتاب Reinforcement Learning by Csaba Szepesvári : کتاب درسی جامع دیگری است که دیدگاه نظری تری ارائه می دهد لینک کتاب سپسیواری.

📝مقالات :

◀️مقاله An Invitation to Deep Reinforcement Learning by Bernhard Jaeger and Andreas Geiger مقدمه ای مدرن برای RL ارائه می دهد، به ویژه با تمرکز بر ارتباط با یادگیری عمیق (DL) . این مقاله انتخاب خوبی است اگر با DL آشنا هستید و می خواهید نحوه استفاده از آن در RL را درک کنید.


🌐 منابع آنلاین:

◀️سایت Spinning Up در OpenAI Gym لیستی از دروس کلیدی در زمینه Deep RL را ارائه می دهد که بر اساس حوزه طبقه بندی شده اند . این یک منبع عالی برای کاوش در پیشرفت های خاص در Deep RL است.


✉️@IDS_AI_ML
✉️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠هوش مصنوعی (AI) به ابزاری قدرتمند در زمینه‌های مختلفی از مراقبت‌های بهداشتی و مالی گرفته تا خودروهای خودران و سرگرمی تبدیل شده است. با این حال، با پیچیده‌تر شدن مدل‌های هوش مصنوعی، به ویژه مدل‌های یادگیری عمیق، یک سوال اساسی مطرح می‌شود: آیا می‌توانیم بفهمیم که این مدل‌ها چگونه به تصمیمات خود می‌رسند؟ اینجاست که مفهوم تفسیرپذیری در هوش مصنوعی مطرح می‌شود.

🔽در اینجا نگاهی به برخی از مقالات اخیر که تفسیرپذیری در هوش مصنوعی را بررسی می‌کنند، می‌اندازیم:


مقاله Explainable and interpretable artificial intelligence in medicine: a systematic bibliometric review (2024)
این مطالعه بر حوزه هوش مصنوعی پزشکی تمرکز دارد و بر نیاز به قابلیت تفسیر در تصمیمات مهم مانند تشخیص و درمان تاکید می‌کند. این مقاله همچنین به توضیح تکنیک‌های مختلف قابلیت تفسیر که در این حوزه استفاده می‌شود، می‌پردازد .


مقاله (2023) Interpreting Black-Box Models: A Review on Explainable Artificial Intelligence
این مقاله یک نمای کلی عالی از زمینه هوش مصنوعی قابل توضیح ارائه می‌دهد و اهداف، چالش‌ها و روش‌های فعلی برای تفسیرپذیری راشرح می‌دهد. این مقاله بر اهمیت طراحی کاربرمحور در ایجاد توضیحاتی که برای انسان قابل درک است، تأکید می‌کند.


مقاله Explainable AI: A Review of Machine Learning Interpretability Methods (2023)
این مقاله به روش‌های مختلف تفسیرپذیری که در یادگیری ماشین استفاده می‌شود، می‌پردازد و آن‌ها را بر اساس رویکردشان طبقه‌بندی می‌کند.


مقاله Interpretability of Machine Learning: Recent Advances and Future Prospects (2023)
این مقاله پیشرفت‌های اخیر در تفسیرپذیری را بررسی می‌کند و در مورد روش‌های قابل درک کردن مدل‌های پیچیده یادگیری عمیق بحث می‌کند . این مقاله بر لزوم دستیابی به عملکرد بالا و در عین حال حفظ قابلیت تفسیر در مدل‌های هوش مصنوعی تاکید می‌کند.


✈️@IDS_AI_ML
✈️@IDSchools
Please open Telegram to view this post
VIEW IN TELEGRAM