Glob (science news, новости науки)
1.46K subscribers
454 photos
6 videos
40 files
899 links
Избранные статьи, видео и подкасты о физике, биологии, космосе
@globchan

По всем вопросам писать @twentydraft

P.S.
Часть тегов честно сжижена отсюда vk.com/advanced_biologist
Download Telegram
Ученые из Нидерландов проанализировали результаты тестирования 281 095 школьников из 33 стран мира. Исследователи пришли к выводу: в школах, где большинство учеников — девочки, дети легче концентрировались на учебе и получали более высокие оценки по чтению. В первую очередь этот эффект влиял на успехи мальчиков.

Материалом для работы стали данные об участниках теста международной программы по оценке образовательных достижений учащихся (Programme for International Student Assessment, PISA). Он проводится каждые три года, в 2015 году в нем участвовали 72 страны. Тест проходят пятнадцатилетние школьники. В тест PISA входят задачи по математике, вопросы из области естественных наук и проверка способностей к чтению: грамотности и восприятия текстов. По итогам теста создается рейтинг стран-лидеров в каждом из трех направлений.


#человек #поведение #эксперимент #психология #дети #мозг #обучение
https://naked-science.ru/article/sci/uspehi-malchikov-v-uchebe-zavisyat-ot
Любопытные нейронные сетки и сумасшедшие оракулы

Идея обучения с подкреплением состоит в том, что интеллектуальный агент не обучается на готовых примерах правильных ответов, а получает вознаграждение за правильное поведение, когда даёт правильный ответ. Одной из проблем этого метода является создание системы наказаний и вознаграждений — нередко ИИ взламывает её, выдавая формально правильные, но абсурдные по сути решения. Например, в задаче типа "помести красный кубик над синим" трясёт стол пока синий кубик не упадёт на пол.

Следующим шагом в развитии обучения с подкреплением стала выработка любопытства у ИИ: агенту дают вознаграждение в случае, если он находит новую, не существующую ранее ситуацию. Однако у этого подхода обнаружился интересный недостаток: стоит ИИ найти источник случайного шума, как он мгновенно зависает на нём (совершенно не напоминает меня и Twitter, да): предсказать рандомный мусор невозможно, поэтому такое поведение поощряется любопытством агента. Учёные остроумно продемонстрировали это, поместив в виртуальный лабиринт с агентом экран со случайными видео с YouTube. Агент мгновенно залип на котиков и отказался от исследования окружающего мира.

Разработчики из OpenAI создали улучшенную методику обучения нейронных сетей с вознаграждением за «любопытство»: они включили в состав ИИ случайно сгенерированную нейросеть (этакого чокнутого оракула), и стали подавать на её вход данные с окружения. Агент же получал награды как за открытия в окружающем его мире, так и за обнаружение экзотических ответов от внутренней сетки-оракула. Таким в случае зависания на телевизоре награда от внутренней сети снижалась, и агенту приходилось срываться с места и искать новые интересности.

Используя этот подход, который получил название Random Network Distillation, учёные смогли обучить ИИ стабильно проходить 20-22 комнаты из 22 в игре Montezuma’s Revenge, которая считается одной из самых сложных игр для ИИ (как указывают авторы, более ранние попытки обрывались на 1-3 комнатах).

Хотите знать больше? Прочтите статью в блоге OpenAI )

#ML #информатика #обучение

https://blog.openai.com/reinforcement-learning-with-prediction-based-rewards/