ArtificialIntelligenceArticles
2.96K subscribers
1.64K photos
9 videos
5 files
3.86K links
for who have a passion for -
1. #ArtificialIntelligence
2. Machine Learning
3. Deep Learning
4. #DataScience
5. #Neuroscience

6. #ResearchPapers

7. Related Courses and Ebooks
Download Telegram
‍ (https://axnegar.fahares.com/axnegar/CPvv0ipERfEIUK/4998552.jpg)

#هوش_مصنوعی
#مغز
#آگاهی
#علوم_شناختی

🔵Ned Block: Why AI Approaches to Cognition Won’t Work for Consciousness


In this Talk at Google, Ned Block talks about how current AI approaches to cognition won’t work for creating consciousness.


https://youtu.be/6lHHxcxurhQ
Video: #DeepLearning and the Future of #ArtificialIntelligence(AI) | Facebook AI Director Yann LeCun https://youtu.be/wbcYG9wOvRc
‍ (https://axnegar.fahares.com/axnegar/ih0K1kfBDK1bqr/4998593.jpg)

#هوش_مصنوعی
#آموزش
#یادگیری_عمیق


🔵Learning Artificial Intelligence(AI) and Tensorflow Without a PhD by Google's Martin Görner

Published on Jun 19, 2017
Google has recently open-sourced its framework for machine learning and neural networks called Tensorflow. With this new tool, deep machine learning transitions from an area of research into mainstream software engineering. In this session, we will teach you how to choose the right neural network for your problem and how to make it behave. Familiarity with differential equations is no longer required. Instead, a couple of lines ofTensorflow Python, and a bag of "tricks of the trade" will do the job. No previous Python knowledge required.

This university session will cover the basics of deep learning, without any assumptions about the level of the participants. Machine learning beginners are welcome. We will cover: - fully connected neural networks - convolutional neural networks - regularization techniques: dropout, learning rate decay, batch normalization - recurrent neural networks - natural language analysis, word embedding - transfer learning - image analysis - image generation - and many examples.

Martin Görner is passionate about science, technology, coding, algorithms and everything in between. He graduated from Mines Paris Tech, enjoyed his first engineering years in the computer architecture group of ST Microlectronics and then spent the next 11 years shaping the nascent eBook market, starting with the Mobipocket startup, which later became the software part of the Amazon Kindle and its mobile variants. He joined Google Developer Relations in 2011 and now focuses on parallel processing and machine learning.

https://www.youtube.com/watch?v=wDxDhvLLNuE
"Towards Understanding Generalization of Deep Learning: Perspective of Loss Landscapes": cuz loss function & minima https://arxiv.org/abs/1706.10239
DeepMind’s Relational Reasoning Networks - Demystified. https://buff.ly/2sybylc #BigData #DeepLearning #MachineLearning #DataScience #AI
"wrapper AI" replaces portions of analyzed images with white noise to help assess original https://www.newscientist.com/article/2139396-peering-inside-an-ais-brain-will-help-us-trust-its-decisions
ArtificialIntelligenceArticles
"wrapper AI" replaces portions of analyzed images with white noise to help assess original https://www.newscientist.com/article/2139396-peering-inside-an-ais-brain-will-help-us-trust-its-decisions
مقاله ی مطلب بالایی

🔵Latent Attention Networks

Christopher Grimm, Dilip Arumugam, Siddharth Karamcheti, David Abel, Lawson L.S. Wong, Michael L. Littman
(Submitted on 2 Jun 2017)
Deep neural networks are able to solve tasks across a variety of domains and modalities of data. Despite many empirical successes, we lack the ability to clearly understand and interpret the learned internal mechanisms that contribute to such effective behaviors or, more critically, failure modes. In this work, we present a general method for visualizing an arbitrary neural network's inner mechanisms and their power and limitations. Our dataset-centric method produces visualizations of how a trained network attends to components of its inputs.


https://arxiv.org/abs/1706.00536
#هوش_مصنوعی
#مقاله
#شبکه_عصبی_عمیق
#روان_شناسی_شناختی


🔵Interpreting Deep Neural Networks using Cognitive Psychology

Deep neural networks have learnt to do an amazing array of tasks - from recognising and reasoning about objects in images to playing Atari and Go at super-human levels. As these tasks and network architectures become more complex, the solutions that neural networks learn become more difficult to understand.
This is known as the ‘black-box’ problem, and it is becoming increasingly important as neural networks are used in more and more real world applications.

https://deepmind.com/blog/cognitive-psychology/


مقاله
https://arxiv.org/abs/1706.08606
🔵تمام پروژه‌های ایلان ماسک

بیزینس‌ویک زیرشاخهٔ بلومبرگ یک صفحه وب با طراحی تعاملی ساخته که در آن می‌توانید پیشرفت تک تک پروژه‌های ایلان ماسک را دنبال کنید

https://www.bloomberg.com/features/elon-musk-goals/
Strengthening African Machine Learning. Sharing our vision for the Indaba. https://www.deeplearningindaba.com/blog/strengthening-african-machine-learning
Can Artificial Intelligence & Robots fight the Cybercrime Epidemic? https://bit.ly/2uGtYgj #ai #ml #dl
Towards Understanding Generalization of Deep Learning: Perspective of Loss Landscapes: init + geom. of loss func: https://arxiv.org/abs/1706.10239
The Best of Big Data: New Articles Published This Month (June 2017) https://blog.sicara.com/06-2017-best-big-data-new-articles-this-month-5c3478872a61
Super-Resolution via Deep Learning
https://arxiv.org/pdf/1706.09077.pdf
Detecting Small Signs from Large Images
https://arxiv.org/pdf/1706.08574.pdf
ArtificialIntelligenceArticles
‍ (https://axnegar.fahares.com/axnegar/QUoPaGZ1AE8NQM/4990996.jpg) #هوش_مصنوعی #خبر #مقاله 🔵هوشمندتر شدن هوش مصنوعی با سیناپس مصنوعی یک تیم بین المللی از محققان، با استفاده از مدل شبکه عصبی، نوع جدیدی از سیناپس های مصنوعی را برای سیستم های هوش مصنوعی…
✍️چند روز پیش ترجمه ی این خبر را در کانال گذاشتیم امروز هم خبرگزاری ایسنا این خبر را ترجمه کرده است .

🌎نقش سیناپس مصنوعی در تحول هوش مصنوعی

همکاری دانشمندان عصب‌شناس و متخصصان هوش مصنوعی منجر به ساخت اولین نسل از سیناپس‌های مصنوعی دو منظوره برای فعالیت در مدل شبکه عصبی الکترونیک شد.
به گزارش خبرگزاری ایسنا، پردازش اطلاعات در شبکه عصبی مصنوعی باید با نحوه پردازش اطلاعات در مغز مطابقت داشته باشد. در این سیستم مصنوعی نورون‌های دیجیتال و سیناپس‌های مصنوعی در جایگاه نمونه طبیعی قرار می‌گیرند.

در این سیستم پیچیده سیناپس‌ها مانند دروازه‌ای برای انتقال سیگنال‌های حاوی اطلاعات از نورون‌ها عمل می‌کنند، البته حتی تصور نزدیک شدن به ظرفیت پردازش اطلاعاتی مغز با دانش فعلی غیرممکن است، چرا که در مغز انسان بالغ بر 100 هزار میلیارد سیناپس وجود دارد.

با وجود موفقیت‌های به دست آمده در زمینه هوش مصنوعی، متاسفانه به دلیل پیچیدگی سیناپس‌های مغزی در پستانداران، پیشرفت صنعت هوش مصنوعی هنوز با محدودیت‌هایی همراه است.

به عنوان مثال در مغز پستانداران دو نوع سیناپس با کارایی متفاوت وجود دارد. گروه اول سیناپس‌های مهارکننده و گروه دوم سیناپس‌های تحریک‌کننده هستند که به صورت همزمان فعالیت می‌کنند.

سیناپس‌های مصنوعی ساخته شده تا قبل از دستاورد جدید از مواد مورد استفاده در صنعت الکترونیک و در مقیاس نانو هستند که با محدودیت پردازش تنها یک سیگنال در لحظه مواجه‌ بودند.

دانشمندان چینی و آمریکایی در آخرین مطالعات خود موفق به ساخت سیناپس مصنوعی با قابلیت پردازش دو نوع سیگنال مشابه مغز انسان شدند.

سیناپس‌های جدید قادرند با دو ماهیت مجزا در یک قطعه فعالیت کنند. این قابلیت در گذشته بر روی تنها یک قطعه جامد سیناپس ممکن نبود اما به کمک فناوری جدید امکان تولید شبکه عصبی مشابه مغز میسر شده است.

سیناپس‌های تحریک کننده در مغز مسئول تحریک و آگاه ماندن مغز با توجه به شرایط هستند در حالی که سیناپس‌های مهار کننده فعالیت هیجانی مغز را کنترل و آرام می‌کنند.

سیناپس‌های مصنوعی جدید به طور شگفت‌انگیزی می‌توانند این قابلیت حیاتی در مغز را برای اولین‌بار در سیستم‌های رایانه‌ای اجرا کنند.

دانشمندان معتقدند که برای رسیدن به نسل بعدی هوش مصنوعی باید به طور دقیق الگوهای پردازش اطلاعات در مغز بررسی و به صورت جزئی تقلید شود.

فعالیت همزمان دو گروه سیناپس عصبی تحریک‌کننده و مهارکننده درست مشابه عملکرد سیستم گاز و ترمز در خودرو است. به عبارت دیگر برای عملکرد صحیح و کنترل شده مغز مصنوعی باید فعالیت دو گروه سیناپس به صورت همزمان اجرا شود.

منبع :خبرگزاری ایسنا


https://www.livescience.com/59671-artificial-synapses-could-lead-to-smarter-ai.html


مقاله اصلی
https://pubs.acs.org/doi/abs/10.1021/acsnano.7b03033
"Video Imagination from a Single Image with Transformation Generation": https://arxiv.org/abs/1706.04124 Code: https://github.com/gitpub327/VideoImagination