От игр до беспилотников – как PBT ускоряет машинное обучение
Холдинг Alphabet объединил усилия специалистов двух своих подразделений для поиска более эффективного процесса тренировки нейросетей. Они адаптировали технику популяционного обучения (PBT, population-based training),разработанную в DeepMind для использования в беспилотных автомобилях Waymo.
Изначально PBT зарекомендовала себя как эволюционная стратегия, которая помогла одержать победу ботам DeepMind в компьютерных играх. С ней ускоряется выбор оптимальных алгоритмов и игровых объектов, чьи параметры лучше всего подходят для текущей задачи. Это происходит благодаря тому, что менее удачные варианты постоянно отсеиваются.
Алгоритмы управления автомобилями тоже приходится часто переобучать по мере того, как накапливается всё больше данных, а сервис развертывается в новых местах. Тот, кто научится делать это быстрее других, получит ощутимое конкурентное преимущество.
Сегодня десятки компаний стремятся продемонстрировать лучшие технологии для беспилотников на реальных дорогах, но пока у них не получается гибко перестраивать свои системы. Изменение параметров отнимает много человеко-часов и машинных ресурсов, поскольку нейросети затем долго проверяются в компьютерной симуляции.
Инженер инфраструктуры машинного обучения в Waymo Джойс Чен поясняет, что в настоящее время его команда использует PBT для улучшения корректировки кода глубоких нейронных сетей. Они применяются для обнаружения дорожной разметки, распознавания транспортных средств и пешеходов, а также для проверки точности автоматически помеченных данных, которые передаются в базу от других алгоритмов машинного обучения.
Компания Google (также входящая в холдинг Alphabet ) уже предлагает своим клиентам разные модели машинного обучения в рамках проекта Cloud Auto-ML . Решающим фактором его коммерческой успешности также станет более эффективная автоматизация обучения ИИ.
Источник: https://www.technologyreview.com/s/614004/deepmind-is-helping-waymo-evolve-better-self-driving-ai-algorithms/
Холдинг Alphabet объединил усилия специалистов двух своих подразделений для поиска более эффективного процесса тренировки нейросетей. Они адаптировали технику популяционного обучения (PBT, population-based training),разработанную в DeepMind для использования в беспилотных автомобилях Waymo.
Изначально PBT зарекомендовала себя как эволюционная стратегия, которая помогла одержать победу ботам DeepMind в компьютерных играх. С ней ускоряется выбор оптимальных алгоритмов и игровых объектов, чьи параметры лучше всего подходят для текущей задачи. Это происходит благодаря тому, что менее удачные варианты постоянно отсеиваются.
Алгоритмы управления автомобилями тоже приходится часто переобучать по мере того, как накапливается всё больше данных, а сервис развертывается в новых местах. Тот, кто научится делать это быстрее других, получит ощутимое конкурентное преимущество.
Сегодня десятки компаний стремятся продемонстрировать лучшие технологии для беспилотников на реальных дорогах, но пока у них не получается гибко перестраивать свои системы. Изменение параметров отнимает много человеко-часов и машинных ресурсов, поскольку нейросети затем долго проверяются в компьютерной симуляции.
Инженер инфраструктуры машинного обучения в Waymo Джойс Чен поясняет, что в настоящее время его команда использует PBT для улучшения корректировки кода глубоких нейронных сетей. Они применяются для обнаружения дорожной разметки, распознавания транспортных средств и пешеходов, а также для проверки точности автоматически помеченных данных, которые передаются в базу от других алгоритмов машинного обучения.
Компания Google (также входящая в холдинг Alphabet ) уже предлагает своим клиентам разные модели машинного обучения в рамках проекта Cloud Auto-ML . Решающим фактором его коммерческой успешности также станет более эффективная автоматизация обучения ИИ.
Источник: https://www.technologyreview.com/s/614004/deepmind-is-helping-waymo-evolve-better-self-driving-ai-algorithms/
MIT Technology Review
An algorithm that evolved Starcraft bots is also training self-driving cars
Waymo’s self-driving cars now have something in common with the brains that guide regular vehicles: their intelligence comes partly from the power of evolution. Engineers at Waymo, owned by Alphabet, teamed up with researchers at DeepMind, another Alphabet…
Theano #python
Theano — это препроцессор для Python для системы вычислений с многомерными массивами данных (тензорами). Библиотека сочетает в себе математические пакеты Mathematica и MATLAB. Theano поддерживается в следующих средах программирования: C/C++, PTX, CAL и AVX. Распространяется по лицензии BSD 3-clause.
Theano сочетает в себе аспекты системы компьютерной алгебры (CAS) с оптимизирующим компилятором. Он также может генерировать индивидуальный код C для многих математических операций. Эта комбинация полезна для задач, в которых сложные математические выражения приходиться оценивать неоднократно, а скорость этой оценки — важный параметр. Из важных особенностей Theano: тесная интеграция с NumPy, быстрая генерация кода на C и эффективное символьное дифференцирование.
Библиотека поддерживает методы линейной алгебры, возможность в режиме работы создавать новые операции с графами, многочисленные операции по преобразованию этих графов, работу с тензорами и разреженными матрицами. Theano применяет множество видов оптимизации графиков для различных целей: упрощения и стандартизации формы графа, уменьшение максимального объема памяти и увеличение скорости выполнения.
Для использования Theano потребуется git, nosetests, numpy, python и scipy.
GitHub: https://github.com/Theano/Theano/
Руководство по Theano: https://deeplearning.net/software/theano/tutorial/index.html
Установить Theano: https://deeplearning.net/software/theano/install.html
Документация API: https://deeplearning.net/software/theano/library/index.html
Глоссарий по Theano: https://deeplearning.net/software/theano/glossary.html
Theano — это препроцессор для Python для системы вычислений с многомерными массивами данных (тензорами). Библиотека сочетает в себе математические пакеты Mathematica и MATLAB. Theano поддерживается в следующих средах программирования: C/C++, PTX, CAL и AVX. Распространяется по лицензии BSD 3-clause.
Theano сочетает в себе аспекты системы компьютерной алгебры (CAS) с оптимизирующим компилятором. Он также может генерировать индивидуальный код C для многих математических операций. Эта комбинация полезна для задач, в которых сложные математические выражения приходиться оценивать неоднократно, а скорость этой оценки — важный параметр. Из важных особенностей Theano: тесная интеграция с NumPy, быстрая генерация кода на C и эффективное символьное дифференцирование.
Библиотека поддерживает методы линейной алгебры, возможность в режиме работы создавать новые операции с графами, многочисленные операции по преобразованию этих графов, работу с тензорами и разреженными матрицами. Theano применяет множество видов оптимизации графиков для различных целей: упрощения и стандартизации формы графа, уменьшение максимального объема памяти и увеличение скорости выполнения.
Для использования Theano потребуется git, nosetests, numpy, python и scipy.
GitHub: https://github.com/Theano/Theano/
Руководство по Theano: https://deeplearning.net/software/theano/tutorial/index.html
Установить Theano: https://deeplearning.net/software/theano/install.html
Документация API: https://deeplearning.net/software/theano/library/index.html
Глоссарий по Theano: https://deeplearning.net/software/theano/glossary.html
GitHub
GitHub - Theano/Theano: Theano was a Python library that allows you to define, optimize, and evaluate mathematical expressions…
Theano was a Python library that allows you to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently. It is being continued as PyTensor: www.github....
Робот-фотограф оцифрует ассортимент интернет-магазинов
Калифорнийская компания Square открыла в Бруклине роботизированную фотостудию. Её главным компонентом стал манипулятор с ИИ, стоимостью $20`000.
Заказчики отправляют в студию образцы продукции, где их фотографируют с трёх ракурсов. Люди вручную распаковывают и готовят к фотосъёмке товары, но после их установки перед объективом дальнейшие процессы происходят автоматически.
Система сама настраивает параметры освещения, а ИИ выбирает ракурс, учитывая особенности предметов. На манипуляторе закреплена камера от Nikon, которой фотографируемый предмет снимается с разных ракурсов.
Весь процесс занимает до двух недель с учётом очереди заказов и обратной пересылки. Это вдвое меньше обычного срока, который запрашивают студии.
За счёт роботизации Square предлагает фотографии гораздо ниже среднерыночной цены для Нью-Йорка: от $9,95 за обычные цифровые изображения до $29,95 за трёхмерные анимации. Однако такой выигрыш получается только на оптовых заказах от 20 единиц и более, для которых предусмотрена бесплатная обратная отправка.
«Мы всегда исследуем новые способы предоставлять услуги, – сказал Давид Русенко, генеральный директор подразделения электронной коммерции Square – Современная робототехника создаёт легкодоступную альтернативу традиционной фотографии».
Основные заказчики робостудии – владельцы онлайн-магазинов, размещающие фотографии товаров на площадках Amazon, Esty и Instagram.
Источник: https://squareup.com/us/en/press/photo-studio
Калифорнийская компания Square открыла в Бруклине роботизированную фотостудию. Её главным компонентом стал манипулятор с ИИ, стоимостью $20`000.
Заказчики отправляют в студию образцы продукции, где их фотографируют с трёх ракурсов. Люди вручную распаковывают и готовят к фотосъёмке товары, но после их установки перед объективом дальнейшие процессы происходят автоматически.
Система сама настраивает параметры освещения, а ИИ выбирает ракурс, учитывая особенности предметов. На манипуляторе закреплена камера от Nikon, которой фотографируемый предмет снимается с разных ракурсов.
Весь процесс занимает до двух недель с учётом очереди заказов и обратной пересылки. Это вдвое меньше обычного срока, который запрашивают студии.
За счёт роботизации Square предлагает фотографии гораздо ниже среднерыночной цены для Нью-Йорка: от $9,95 за обычные цифровые изображения до $29,95 за трёхмерные анимации. Однако такой выигрыш получается только на оптовых заказах от 20 единиц и более, для которых предусмотрена бесплатная обратная отправка.
«Мы всегда исследуем новые способы предоставлять услуги, – сказал Давид Русенко, генеральный директор подразделения электронной коммерции Square – Современная робототехника создаёт легкодоступную альтернативу традиционной фотографии».
Основные заказчики робостудии – владельцы онлайн-магазинов, размещающие фотографии товаров на площадках Amazon, Esty и Instagram.
Источник: https://squareup.com/us/en/press/photo-studio
Square
Square gives businesses their very own photo-shoot with launch of robotic Photo Studio
TrustZone – это технология создания безопасного режима исполнения программ, разработанная компанией ARM для процессоров Cortex-A и Cortex-M, которые сейчас почти везде.
В своей основе она содержит разделение процесса выполнения программ на два режима, доверенный и недоверенный, или Secure World и Normal World. Режимы эти относятся к одному и тому же процессорному ядру, но дают полностью раздельное выполнение программ, и Secure World изолирован от Normal World. В них выполняются разные программы, или операционные системы.
В типовом случае с Cortex-A, в Normal World может работать Android, iOS, или Linux, а в Secure World – специальная Secure OS, которая реализует, например, сервис Android Keystore.
TrustZone обеспечивает принципиально более высокий уровень безопасности, например, хранения ключей в Keystore, ведь благодаря изоляции двух миров программные уязвимости обычного Android практически не влияют на Secure World. Между мирами существует только узкий канал взаимодействия, построенный по принципу почтового ящика, или RPC, а подключиться к этому каналу в Normal World можно только из режима ядра. Это обеспечивает очень малую поверхность атаки.
На данный момент эта технология внедрена практически во всех смартфонах и планшетах, и в меньшей степени – в разных одноплатных компьютерах, которые используются и в робототехнике. Чаще всего там пока нет TrustZone. Но, например, в RPi 3 или Wandboard можно установить Open Source реализацию Secure OS – OP-TEE. А некоторые платы, построенные на Mediatek, Qualcomm и HiSilicon вполне могут содержать код TrustZone и без него не будут запускаться. Проверить это довольно легко – просто поищите ассемблерную команду SMC в исходниках кода поддержки Linux под этот процессор.
А еще – в прошлом году технология стала доступной на микроконтроллерах Cortex-M восьмого поколения, что по мнению многих экспертов открывает новый уровень безопасности для носимой электроники и IoT.
Материал подготовлен русскоязычным каналом про TrustZone: @tz_ru.
В своей основе она содержит разделение процесса выполнения программ на два режима, доверенный и недоверенный, или Secure World и Normal World. Режимы эти относятся к одному и тому же процессорному ядру, но дают полностью раздельное выполнение программ, и Secure World изолирован от Normal World. В них выполняются разные программы, или операционные системы.
В типовом случае с Cortex-A, в Normal World может работать Android, iOS, или Linux, а в Secure World – специальная Secure OS, которая реализует, например, сервис Android Keystore.
TrustZone обеспечивает принципиально более высокий уровень безопасности, например, хранения ключей в Keystore, ведь благодаря изоляции двух миров программные уязвимости обычного Android практически не влияют на Secure World. Между мирами существует только узкий канал взаимодействия, построенный по принципу почтового ящика, или RPC, а подключиться к этому каналу в Normal World можно только из режима ядра. Это обеспечивает очень малую поверхность атаки.
На данный момент эта технология внедрена практически во всех смартфонах и планшетах, и в меньшей степени – в разных одноплатных компьютерах, которые используются и в робототехнике. Чаще всего там пока нет TrustZone. Но, например, в RPi 3 или Wandboard можно установить Open Source реализацию Secure OS – OP-TEE. А некоторые платы, построенные на Mediatek, Qualcomm и HiSilicon вполне могут содержать код TrustZone и без него не будут запускаться. Проверить это довольно легко – просто поищите ассемблерную команду SMC в исходниках кода поддержки Linux под этот процессор.
А еще – в прошлом году технология стала доступной на микроконтроллерах Cortex-M восьмого поколения, что по мнению многих экспертов открывает новый уровень безопасности для носимой электроники и IoT.
Материал подготовлен русскоязычным каналом про TrustZone: @tz_ru.
Юристы помогают искусственному интеллекту запатентовать изобретения
Доктор права Райан Эбботт из Университета Суррей в Манор Парк (Великобритания) подал две патентные заявки на изобретения, сделанные системой искусственного интеллекта DABUS. Эта «машина открытий» сгенерировала чертежи двух устройств и их текстовое описание.
Первый патент описывает универсальный контейнер с элементами фрактальной геометрии. На его стенках чередуются выемки и выступающие элементы, которые облегчают извлечение густых напитков и еды. Проще говоря, так на стенках остаётся меньше йогурта и соуса.
Вдобавок, дизайн упаковки оптимизирует её логистические операции: составленные вместе контейнеры плотно прилегают друг к другу, за счёт чего занимают меньше места и слабее деформируются.
Второй патент описывает поисково-спасательный маячок. В отличие от обычного стробоскопа, режим которого реализован в большинстве фонариков, это сигнал с более сложной модуляцией. Управляемый источник света генерирует уникальную последовательность импульсов. Её можно засечь при помощи фильтра помех даже в условиях сильной засветки и обилия мерцающих огней вокруг.
Патентное бюро Великобритании приняло обе заявки на рассмотрение. Его представитель пояснил, что предоставленные документы прошли предварительную проверку: они описывают изобретения, которые содержат элемент новизны и могут применяться в промышленности.
Основная проблема заключается в том, кого считать изобретателем. Это отнюдь не праздный вопрос, поскольку по текущему законодательству изобретатель – это физическое лицо, или группа лиц. Такая формулировка была принята для того, чтобы противостоять корпоративному давлению, и статус ИИ в ней не определён.
Сложность в том, что разработчик ИИ не становится автоматически автором его работ. Более того, за неправомерное присвоение изобретения грозит штраф и тюремный срок. Пока юристы из команды Райана Эбботта сходятся во мнении, что изобретателем следует указать DABUS, так как прямого запрета на такое действие в законах нет. Владелец ИИ при этом может быть указан как правопреемник.
Источник: https://artificialinventor.com/?page_id=22
Доктор права Райан Эбботт из Университета Суррей в Манор Парк (Великобритания) подал две патентные заявки на изобретения, сделанные системой искусственного интеллекта DABUS. Эта «машина открытий» сгенерировала чертежи двух устройств и их текстовое описание.
Первый патент описывает универсальный контейнер с элементами фрактальной геометрии. На его стенках чередуются выемки и выступающие элементы, которые облегчают извлечение густых напитков и еды. Проще говоря, так на стенках остаётся меньше йогурта и соуса.
Вдобавок, дизайн упаковки оптимизирует её логистические операции: составленные вместе контейнеры плотно прилегают друг к другу, за счёт чего занимают меньше места и слабее деформируются.
Второй патент описывает поисково-спасательный маячок. В отличие от обычного стробоскопа, режим которого реализован в большинстве фонариков, это сигнал с более сложной модуляцией. Управляемый источник света генерирует уникальную последовательность импульсов. Её можно засечь при помощи фильтра помех даже в условиях сильной засветки и обилия мерцающих огней вокруг.
Патентное бюро Великобритании приняло обе заявки на рассмотрение. Его представитель пояснил, что предоставленные документы прошли предварительную проверку: они описывают изобретения, которые содержат элемент новизны и могут применяться в промышленности.
Основная проблема заключается в том, кого считать изобретателем. Это отнюдь не праздный вопрос, поскольку по текущему законодательству изобретатель – это физическое лицо, или группа лиц. Такая формулировка была принята для того, чтобы противостоять корпоративному давлению, и статус ИИ в ней не определён.
Сложность в том, что разработчик ИИ не становится автоматически автором его работ. Более того, за неправомерное присвоение изобретения грозит штраф и тюремный срок. Пока юристы из команды Райана Эбботта сходятся во мнении, что изобретателем следует указать DABUS, так как прямого запрета на такое действие в законах нет. Владелец ИИ при этом может быть указан как правопреемник.
Источник: https://artificialinventor.com/?page_id=22
Гибкий сенсорный модуль для людей и роботов
Исследователи из Хьюстонского университета сообщили о создании сверхтонкого человеко-машинного интерфейса. В отличие от множества подобных прототипов, он имеет толщину всего в доли миллиметра и практически неощутим для пользователя.
При создании носимых гаджетов сейчас активно применяются компоненты гибкой электроники. Их основные недостатки – сравнительно большая толщина и масса, из-за чего они становятся неудобными при длительном использовании.
Группа исследователей под руководством доцента кафедры машиностроения Хьюстонского университета Куньцзяна Ю создала универсальный носимый модуль, содержащий датчики температуры, УФ-излучения и сжатия/растяжения.
Вместе с управляющей схемой они сделаны из оксида индия и цинка. Металлооксидные логические элементы и токопроводящие дорожки нанесены на полимерную подложку, в которой используются переходы фазового состояния золь-гель.
В процессе изготовления применяется умеренный нагрев до 300 °С, что упрощает промышленное производство. Помимо носимых гаджетов, гибкий модуль можно использовать при создании электронной кожи для роботов. С его помощью легче изготовить манипуляторы, оснащённые датчиками любого типа.
«Мы создали ультратонкий и растягивающийся HMI (человеко-машинный интерфейс, – прим. ред.). Он надевается на кожу человека для сбора множества физических показателей, а также на манипуляторы робота для обеспечения интеллектуальной обратной связи», – пояснил Куньцзян Ю.
https://www.youtube.com/watch?time_continue=3&v=kC5gtHH33Lw
Источник: https://www.uh.edu/
Исследователи из Хьюстонского университета сообщили о создании сверхтонкого человеко-машинного интерфейса. В отличие от множества подобных прототипов, он имеет толщину всего в доли миллиметра и практически неощутим для пользователя.
При создании носимых гаджетов сейчас активно применяются компоненты гибкой электроники. Их основные недостатки – сравнительно большая толщина и масса, из-за чего они становятся неудобными при длительном использовании.
Группа исследователей под руководством доцента кафедры машиностроения Хьюстонского университета Куньцзяна Ю создала универсальный носимый модуль, содержащий датчики температуры, УФ-излучения и сжатия/растяжения.
Вместе с управляющей схемой они сделаны из оксида индия и цинка. Металлооксидные логические элементы и токопроводящие дорожки нанесены на полимерную подложку, в которой используются переходы фазового состояния золь-гель.
В процессе изготовления применяется умеренный нагрев до 300 °С, что упрощает промышленное производство. Помимо носимых гаджетов, гибкий модуль можно использовать при создании электронной кожи для роботов. С его помощью легче изготовить манипуляторы, оснащённые датчиками любого типа.
«Мы создали ультратонкий и растягивающийся HMI (человеко-машинный интерфейс, – прим. ред.). Он надевается на кожу человека для сбора множества физических показателей, а также на манипуляторы робота для обеспечения интеллектуальной обратной связи», – пояснил Куньцзян Ю.
https://www.youtube.com/watch?time_continue=3&v=kC5gtHH33Lw
Источник: https://www.uh.edu/
YouTube
Soft Wearable Multifunctional Human-Machine Interfaces (HMIs)
#работа #вакансия
Москва. Робостанция. ВДНХ.
Для ремонта и обслуживания сервисных и промышленных роботов разыскиваются инженеры-робототехники, опытные и начинающие.
Зп в зависимости от знаний и навыков.
Ищим тех, кто:
- владеет паяльником
- знаком с микроэлектроникой и схематехникой
- может собрать и разобрать компьютер с закрытыми глазами
-Обожает менять жесткие диски и переустанавливать программы
- Разбирается в механике
- Понимает основы проводных и беспроводных цифровых сетей
А также:
- имеет техническое образование, возможно неоконченное
- Знает среду Arduino
- Знание языков программирования будет плюсом
- Знание основ микроэлектроники, понимание схем, разработка схем будет плюсом
Обязанности:
- Ремонт и обслуживание роботов
- Программирование сервисных и промышленных роботов (Fanuc, Kuka, Universal)
- Поиск решений, модернизация роботов
- Создание новых роботов
- Тестирование роботов
- Доработка уже существующих роботов
Ссылка на вакансию:
https://hh.ru/vacancy/32655197
Москва. Робостанция. ВДНХ.
Для ремонта и обслуживания сервисных и промышленных роботов разыскиваются инженеры-робототехники, опытные и начинающие.
Зп в зависимости от знаний и навыков.
Ищим тех, кто:
- владеет паяльником
- знаком с микроэлектроникой и схематехникой
- может собрать и разобрать компьютер с закрытыми глазами
-Обожает менять жесткие диски и переустанавливать программы
- Разбирается в механике
- Понимает основы проводных и беспроводных цифровых сетей
А также:
- имеет техническое образование, возможно неоконченное
- Знает среду Arduino
- Знание языков программирования будет плюсом
- Знание основ микроэлектроники, понимание схем, разработка схем будет плюсом
Обязанности:
- Ремонт и обслуживание роботов
- Программирование сервисных и промышленных роботов (Fanuc, Kuka, Universal)
- Поиск решений, модернизация роботов
- Создание новых роботов
- Тестирование роботов
- Доработка уже существующих роботов
Ссылка на вакансию:
https://hh.ru/vacancy/32655197
hh.ru
Вакансия Инженер-робототехник в Москве, работа в компании Корпорация Роботов (вакансия в архиве)
Зарплата: от 50000 руб.. Москва. Требуемый опыт: 1–3 года. Частичная занятость. Дата публикации: 24.07.2019.
CCV #c
Библиотека написана на C и позиционирует себя как компактная и лёгкая альтернатива OpenCV. Поэтому из неё изъяты все несущественные функции. Китайский программист Лю Лю начал работу над CCV ещё в 2010 году. Он был разочарован библиотеками компьютерного зрения, которыми пользовался сам. Поэтому решил сделать свою, с упором на простоту, минимализм и организованность кода.
CCV легко адаптируется в новой среде, ориентированной на мобильные устройства. Он работает на Mac OSX, Linux, FreeBSD, Windows, iPhone, iPad, Android и Raspberry Pi. Фактически на всем, что имеет надлежащий компилятор C, можно запустить CCV.
В библиотеки реализованы современные и полезные алгоритмы компьютерного зрения: BBF (быстрое распознавания неподвижных объектов), DPM (распознавание более сложных объектов), SWT (распознавание текста), SIFT (обнаружение набора точек). CCV предназначена не для экспериментов с разными алгоритмами, а для практического использования в конкретных приложениях.
Разработчик считает, что готовых алгоритмов для компьютерного зрения — много, а вот программ для их реализации не хватает. Поэтому и предлгает свое решение: CCV.
GitHub: https://github.com/liuliu/ccv
Сайт проекта: https://libccv.org/
Скачать CCV: https://github.com/liuliu/ccv/zipball/stable
Документация CCV: https://libccv.org/doc/
Туториал по CCV: https://libccv.org/tutorial/
Библиотека написана на C и позиционирует себя как компактная и лёгкая альтернатива OpenCV. Поэтому из неё изъяты все несущественные функции. Китайский программист Лю Лю начал работу над CCV ещё в 2010 году. Он был разочарован библиотеками компьютерного зрения, которыми пользовался сам. Поэтому решил сделать свою, с упором на простоту, минимализм и организованность кода.
CCV легко адаптируется в новой среде, ориентированной на мобильные устройства. Он работает на Mac OSX, Linux, FreeBSD, Windows, iPhone, iPad, Android и Raspberry Pi. Фактически на всем, что имеет надлежащий компилятор C, можно запустить CCV.
В библиотеки реализованы современные и полезные алгоритмы компьютерного зрения: BBF (быстрое распознавания неподвижных объектов), DPM (распознавание более сложных объектов), SWT (распознавание текста), SIFT (обнаружение набора точек). CCV предназначена не для экспериментов с разными алгоритмами, а для практического использования в конкретных приложениях.
Разработчик считает, что готовых алгоритмов для компьютерного зрения — много, а вот программ для их реализации не хватает. Поэтому и предлгает свое решение: CCV.
GitHub: https://github.com/liuliu/ccv
Сайт проекта: https://libccv.org/
Скачать CCV: https://github.com/liuliu/ccv/zipball/stable
Документация CCV: https://libccv.org/doc/
Туториал по CCV: https://libccv.org/tutorial/
GitHub
GitHub - liuliu/ccv: C-based/Cached/Core Computer Vision Library, A Modern Computer Vision Library
C-based/Cached/Core Computer Vision Library, A Modern Computer Vision Library - liuliu/ccv
Колёсные дроны Amazon Prime доставили первые заказы
6 августа в Южной Калифорнии сервис Amazon Prime начал использование шестиколёсных дронов для обычной и приоритетной доставки товаров. Заказы уже получили жители города Ирвайн (округ Ориндж), где расположены офисы Blizzard, Broadcom, Verizon и других крупных компаний.
Amazon решила начать коммерческую эксплуатацию дронов после их длительного тестирования в Сиэтле. В отчёте указывается, что за шесть месяцев пилотного проекта дроны были испытаны в автономном режиме при разных погодных условиях. Они успешно справились с многочисленными препятствиями в жилых кварталах и ни разу не представляли угрозу для других участников движения.
Точное количество задействованных на сегодня ботов не указывается. В официальном заявлении лишь отмечается, что они будут использоваться только днём в будние дни. Отправить заказ дроном или обычным способом – решается случайным образом.
На первых порах каждого дрона будет сопровождать прикреплённый к нему сотрудник Amazon, который будет одновременно заниматься охраной дронов, сбором статистики инцидентов и продвижением сервисов компании. В его задачу также входит оценка лояльности покупателей и детальное описание их реакции на появление дрона.
Источник: https://blog.aboutamazon.com/transportation/whats-next-for-amazon-scout
6 августа в Южной Калифорнии сервис Amazon Prime начал использование шестиколёсных дронов для обычной и приоритетной доставки товаров. Заказы уже получили жители города Ирвайн (округ Ориндж), где расположены офисы Blizzard, Broadcom, Verizon и других крупных компаний.
Amazon решила начать коммерческую эксплуатацию дронов после их длительного тестирования в Сиэтле. В отчёте указывается, что за шесть месяцев пилотного проекта дроны были испытаны в автономном режиме при разных погодных условиях. Они успешно справились с многочисленными препятствиями в жилых кварталах и ни разу не представляли угрозу для других участников движения.
Точное количество задействованных на сегодня ботов не указывается. В официальном заявлении лишь отмечается, что они будут использоваться только днём в будние дни. Отправить заказ дроном или обычным способом – решается случайным образом.
На первых порах каждого дрона будет сопровождать прикреплённый к нему сотрудник Amazon, который будет одновременно заниматься охраной дронов, сбором статистики инцидентов и продвижением сервисов компании. В его задачу также входит оценка лояльности покупателей и детальное описание их реакции на появление дрона.
Источник: https://blog.aboutamazon.com/transportation/whats-next-for-amazon-scout
US About Amazon
What's next for Amazon Scout?
Thousands of smiles into its journey, Amazon Scout rolls further into the future.
Роботы-полицейские в Китае
С 7 августа в городе Ханьдань китайской провинции Хэбэй полицейские стали использовать трёх роботов. Несмотря на разное назначение, их объединяет единая система искусственного интеллекта и подключение к общей базе данных.
Первый робот выполняет патрулирование. Он выглядит как электрический гольфкар, на крышу которого установили камеру, стилизованную под голову. Патрульный сканирует номера машин, определяя в транспортном потоке автомобили, числящиеся в угоне. Также он распознаёт лица людей и фиксирует нарушения ПДД пешеходами.
Второй робот выезжает на ДТП. Его дизайн напоминает четырёхколёсную тележку, из которой поднимается штатив с камерами кругового обзора и светодиодной сигнализацией. Он выполняет функции регулировщика и служит для устранения пробок. Заодно робот фиксирует новые нарушения, пока полицейские оформляют протокол.
Третий робот выполнен в гуманоидном стиле. Он находится в Бюро по управлению транспортными средствами, где предоставляет посетителям справочные услуги.
Все три робота созданы в рамках национальной программы «Большие данные», ставшей приоритетной в 13-ом пятилетнем плане Китая. Посмотреть на детища китайской пятилетки можно в ролике ниже.
https://youtu.be/F87JfOe2uNI
С 7 августа в городе Ханьдань китайской провинции Хэбэй полицейские стали использовать трёх роботов. Несмотря на разное назначение, их объединяет единая система искусственного интеллекта и подключение к общей базе данных.
Первый робот выполняет патрулирование. Он выглядит как электрический гольфкар, на крышу которого установили камеру, стилизованную под голову. Патрульный сканирует номера машин, определяя в транспортном потоке автомобили, числящиеся в угоне. Также он распознаёт лица людей и фиксирует нарушения ПДД пешеходами.
Второй робот выезжает на ДТП. Его дизайн напоминает четырёхколёсную тележку, из которой поднимается штатив с камерами кругового обзора и светодиодной сигнализацией. Он выполняет функции регулировщика и служит для устранения пробок. Заодно робот фиксирует новые нарушения, пока полицейские оформляют протокол.
Третий робот выполнен в гуманоидном стиле. Он находится в Бюро по управлению транспортными средствами, где предоставляет посетителям справочные услуги.
Все три робота созданы в рамках национальной программы «Большие данные», ставшей приоритетной в 13-ом пятилетнем плане Китая. Посмотреть на детища китайской пятилетки можно в ролике ниже.
https://youtu.be/F87JfOe2uNI
YouTube
sldifjhsl3nfs lfsdirj309jfskdjf
ИИ детектирует загадочные сигналы из космоса в реальном времени
https://yellrobot.com/using-ai-to-detect-mysterious-radio-signals-from-deep-space/
С XX века радиотелескопы регистрируют множество разных сигналов из космоса. Одни связаны с известными процессами эволюции звёзд, другие оказываются помехами оборудования, а третьи пока имеют непонятное происхождение.
Одними из таких странных сигналов являются быстрые радиовсплески (FRBs). Они имеют низкую энтропию, что косвенным образом может указывать на их искусственное происхождение (но, скорее всего, их порождает какой-то неизвестный нам естественный процесс).
Проблема в том, что быстрые радиовсплески длятся доли секунды, из-за чего их очень сложно детектировать при рутинном анализе данных. Первое обнаружение произошло в 2007 году, когда изучали архивные данные наблюдений за 2001 год. Спустя 6 лет оставалось только гадать, что могло быть источником всплеска.
Ваэль Фара (Wael Farah) канд. физ.-мат. наук Технологического университета Суинберн в Мельбурне, разработал автоматизированную систему обнаружения FRBs с использованием машинного обучения.
Это первая система, которая обнаруживает FRB в режиме реального времени. Текущий анализ в корне отличается от ретроспективного. У астрономов появляется возможность сразу направить телескопы разного типа на участок неба, откуда был зарегистрирован FRB, и получить дополнительную информацию.
Новая система уже помогла обнаружить пять FRB. Об этом недавно вышла статья в журнале Королевского астрономического общества – https://academic.oup.com/mnras/article-abstract/488/3/2989/5528327?redirectedFrom=fulltext.
https://yellrobot.com/using-ai-to-detect-mysterious-radio-signals-from-deep-space/
С XX века радиотелескопы регистрируют множество разных сигналов из космоса. Одни связаны с известными процессами эволюции звёзд, другие оказываются помехами оборудования, а третьи пока имеют непонятное происхождение.
Одними из таких странных сигналов являются быстрые радиовсплески (FRBs). Они имеют низкую энтропию, что косвенным образом может указывать на их искусственное происхождение (но, скорее всего, их порождает какой-то неизвестный нам естественный процесс).
Проблема в том, что быстрые радиовсплески длятся доли секунды, из-за чего их очень сложно детектировать при рутинном анализе данных. Первое обнаружение произошло в 2007 году, когда изучали архивные данные наблюдений за 2001 год. Спустя 6 лет оставалось только гадать, что могло быть источником всплеска.
Ваэль Фара (Wael Farah) канд. физ.-мат. наук Технологического университета Суинберн в Мельбурне, разработал автоматизированную систему обнаружения FRBs с использованием машинного обучения.
Это первая система, которая обнаруживает FRB в режиме реального времени. Текущий анализ в корне отличается от ретроспективного. У астрономов появляется возможность сразу направить телескопы разного типа на участок неба, откуда был зарегистрирован FRB, и получить дополнительную информацию.
Новая система уже помогла обнаружить пять FRB. Об этом недавно вышла статья в журнале Королевского астрономического общества – https://academic.oup.com/mnras/article-abstract/488/3/2989/5528327?redirectedFrom=fulltext.
Robot News
Using AI to Detect Mysterious Radio Signals From Deep Space - Robot News
Using AI, Wael Farah has developed an automated FRBs detection system that can detect mysterious radio signals that come from outer space in real-time.
LibrePlot
Программный комплекс для урпавления мультикоптером и другими RC-моделями. Исходный код LibrePilot выпущен под лицензией GPLv3, утвержденной OSI. Проект основан на исходном коде OpenPilot. Когда команда OpenPilot прекратила поддержку полётных контроллеров CC3D, часть разработчиков не согласилась с этим решением и запустили свой программный комплекс. Практически - это просто следующая версия OpenPilot, которая не остановилась в развитии.
LibrePlot направлен на разработку программного и аппаратного обеспечения для различных приложений. Программа подойдет для настройки управления и стабилизации транспортных и беспилотных средств. Одна из основных целей проекта — обеспечение открытой и совместной среды. Это делает его отличной базой для разработки инновационных идей.
Программный комплекс предлагает мастер настройки передатчика, протоколы множественного ввода и вывода, алгоритмы объединения датчиков, различные режимы полета, несколько протоколов телеметрии. LibrePlot также поможет настроить автономный полет, автоматически взлет, автоматическую посадку и возвращение на базу.
GitHub: https://github.com/librepilot/LibrePilot
Руководство для пользователей: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128774/User+Manual
Руководство для разработчиков: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128776/Developer+Manual
Поддерживаемое оборудование: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/31588369/Supported+Hardware
Скачать LibrePlot: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128780/Downloads
Настройка Wizard: https://multicopterwiki.ru/index.php/LibrePilot
Программный комплекс для урпавления мультикоптером и другими RC-моделями. Исходный код LibrePilot выпущен под лицензией GPLv3, утвержденной OSI. Проект основан на исходном коде OpenPilot. Когда команда OpenPilot прекратила поддержку полётных контроллеров CC3D, часть разработчиков не согласилась с этим решением и запустили свой программный комплекс. Практически - это просто следующая версия OpenPilot, которая не остановилась в развитии.
LibrePlot направлен на разработку программного и аппаратного обеспечения для различных приложений. Программа подойдет для настройки управления и стабилизации транспортных и беспилотных средств. Одна из основных целей проекта — обеспечение открытой и совместной среды. Это делает его отличной базой для разработки инновационных идей.
Программный комплекс предлагает мастер настройки передатчика, протоколы множественного ввода и вывода, алгоритмы объединения датчиков, различные режимы полета, несколько протоколов телеметрии. LibrePlot также поможет настроить автономный полет, автоматически взлет, автоматическую посадку и возвращение на базу.
GitHub: https://github.com/librepilot/LibrePilot
Руководство для пользователей: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128774/User+Manual
Руководство для разработчиков: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128776/Developer+Manual
Поддерживаемое оборудование: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/31588369/Supported+Hardware
Скачать LibrePlot: https://librepilot.atlassian.net/wiki/spaces/LPDOC/pages/4128780/Downloads
Настройка Wizard: https://multicopterwiki.ru/index.php/LibrePilot
Робот научился создавать инструменты
В лаборатории робототехнической автономии и интерактивного обучения Технологического института Джорджии (Атланта, США) создан роботизированный манипулятор MacGyver. Он умеет визуально оценивать некоторые свойства предметов и самостоятельно подбирать их сочетания для создания инструментов.
На протяжении эволюции человека было множество качественных скачков. Среди них выделяют важный этап – период, когда древние люди научились изготавливать орудия труда из подручных материалов. Раз уж мы создаём роботов по своему подобию, логично было бы наделить их таким навыком.
Используя машинное обучение, робот тренируется согласовывать форму объектов и их функциональные возможности.
Например, он знает как скрепить предметы, или использует для изготовления ложки предмет с вогнутой поверхностью, так как плоская не удержит жидкость. Это кажется элементарным для людей, но роботы пока не умеют делать инструменты, исходя из задачи.
Наиболее неожиданным решением «МакГайвера» стало изготовлние функционального аналога шлицевой отвёртки из монеты, зажатой плоскогубцами.
В настоящее время робот ограничивается только оценкой формы и способа крепления. Он пока не может сопоставлять прочность и массу объектов, что требуется для его использования в реальных сценариях.
Работа выполнена в подразделении RAIL (Robot Autonomy and Interactive Learning) под руководством доцента Сони Черновой на основе методики профессора Майка Стилмана.
Источник: https://www.roboticsproceedings.org/rss15/p09.pdf
В лаборатории робототехнической автономии и интерактивного обучения Технологического института Джорджии (Атланта, США) создан роботизированный манипулятор MacGyver. Он умеет визуально оценивать некоторые свойства предметов и самостоятельно подбирать их сочетания для создания инструментов.
На протяжении эволюции человека было множество качественных скачков. Среди них выделяют важный этап – период, когда древние люди научились изготавливать орудия труда из подручных материалов. Раз уж мы создаём роботов по своему подобию, логично было бы наделить их таким навыком.
Используя машинное обучение, робот тренируется согласовывать форму объектов и их функциональные возможности.
Например, он знает как скрепить предметы, или использует для изготовления ложки предмет с вогнутой поверхностью, так как плоская не удержит жидкость. Это кажется элементарным для людей, но роботы пока не умеют делать инструменты, исходя из задачи.
Наиболее неожиданным решением «МакГайвера» стало изготовлние функционального аналога шлицевой отвёртки из монеты, зажатой плоскогубцами.
В настоящее время робот ограничивается только оценкой формы и способа крепления. Он пока не может сопоставлять прочность и массу объектов, что требуется для его использования в реальных сценариях.
Работа выполнена в подразделении RAIL (Robot Autonomy and Interactive Learning) под руководством доцента Сони Черновой на основе методики профессора Майка Стилмана.
Источник: https://www.roboticsproceedings.org/rss15/p09.pdf
Astro – действительно умный робопёс
Что будет, если объединить Amazon Alexa с роботом Boston Dynamics? Такой гибрид виртуального ассистента и четвероногого робота опробовали в Лаборатории машинного восприятия и когнитивной робототехники Флоридского Атлантического университета (Бока-Ратон, США).
Вместе с исследователями из Научного колледжа Чарльза Э. Шмидта при том же университете они создали робота Astro. Он выглядит как большая игрушка массой 45 кг, но не спешите с выводами! Помимо внушительных размеров Astro обладает искусственным интеллектом.
Модуль ИИ состоит из набора плат Nvidia Jetson TX2 (содержат ГП архитектуры NVIDIA Pascal) с общей вычислительной мощностью в 4 TFLOPs. Он размещён внутри туловища, а сенсорный блок расположился в голове. Кстати, она была напечатана с помощью 3D-принтера и похожа на голову добермана. Среди датчиков есть пара камер, радар, электронный нос и направленный микрофон.
Уникальность Astro в том, что он не только выглядит, но и учится как собака. Его действительно можно дрессировать! Глубокая нейронная сеть (DNN) будет анализировать команды и выполнять их с каждым разом всё точнее.
Изначально робот распознаёт набор простых голосовых команд: «Сидеть!», «Лежать!», «Стоять!» – разумеется, все по-английски. В процессе он обучается другим командам, в том числе и сопровождаемым жестами.
Разработчики уверяют, что после длительной тренировки Astro сможет принести предмет определённой формы или цвета, научится узнавать десятки людей в лицо, а также координировать свои действия с дронами и другими роботами.
Помимо чисто исследовательских и развлекательных функций, для Astro предусмотрены и более социально важные сценарии применения, такие как поисково-спасательные миссии, обнаружение ядовитых газов, наркотических и взрывчатых веществ.
https://youtu.be/zZTiaj4PU_4
Что будет, если объединить Amazon Alexa с роботом Boston Dynamics? Такой гибрид виртуального ассистента и четвероногого робота опробовали в Лаборатории машинного восприятия и когнитивной робототехники Флоридского Атлантического университета (Бока-Ратон, США).
Вместе с исследователями из Научного колледжа Чарльза Э. Шмидта при том же университете они создали робота Astro. Он выглядит как большая игрушка массой 45 кг, но не спешите с выводами! Помимо внушительных размеров Astro обладает искусственным интеллектом.
Модуль ИИ состоит из набора плат Nvidia Jetson TX2 (содержат ГП архитектуры NVIDIA Pascal) с общей вычислительной мощностью в 4 TFLOPs. Он размещён внутри туловища, а сенсорный блок расположился в голове. Кстати, она была напечатана с помощью 3D-принтера и похожа на голову добермана. Среди датчиков есть пара камер, радар, электронный нос и направленный микрофон.
Уникальность Astro в том, что он не только выглядит, но и учится как собака. Его действительно можно дрессировать! Глубокая нейронная сеть (DNN) будет анализировать команды и выполнять их с каждым разом всё точнее.
Изначально робот распознаёт набор простых голосовых команд: «Сидеть!», «Лежать!», «Стоять!» – разумеется, все по-английски. В процессе он обучается другим командам, в том числе и сопровождаемым жестами.
Разработчики уверяют, что после длительной тренировки Astro сможет принести предмет определённой формы или цвета, научится узнавать десятки людей в лицо, а также координировать свои действия с дронами и другими роботами.
Помимо чисто исследовательских и развлекательных функций, для Astro предусмотрены и более социально важные сценарии применения, такие как поисково-спасательные миссии, обнаружение ядовитых газов, наркотических и взрывчатых веществ.
https://youtu.be/zZTiaj4PU_4
YouTube
Who’s a ‘Good Boy?’ Astro, FAU’s Smart Robodog That’s Who
Using deep learning and artificial intelligence (AI), scientists from Florida Atlantic University’s Machine Perception and Cognitive Robotics Laboratory (MPCR) in the Center for Complex Systems and Brain Sciences in FAU’s Charles E. Schmidt College of Science…
Segway-Ninebot выходит на рынок роботизированной доставки
16 августа в Пекине прошла выставка «Инновации в мобильности на базе ИИ», в рамках которой
компания Segway-Ninebot представила двух новых роботов.
Первый из них – Segway DeliveryBot X1, разработанный для автономной доставки между зданиями и обладающий продвинутой системой облачной навигации. Он распознаёт сигналы светофоров и дорожные знаки, определяет другие транспортные средства и пешеходов на своём пути.
Связь с управляющим сервером выполняется по 4G и Wi-Fi, но даже в случае кратковременной потери сигнала робот обычно способен завершить доставку. Правда, из соображений безопасности при выявлении любой неисправности в электромоторе у него срабатывают автоматические блокираторы колёс.
Габариты X1 составляют 1500x1300x800 мм. Полезный объём – 350 литров. Он заряжается за три часа и способен проехать на одном заряде до 100 км со скоростью до 20 км/ч. Робота можно использовать во время дождя благодаря влагозащите по стандарту IP67.
Испытания DeliveryBot X1 запланированы на январь 2020 года. В нём примут участие те клиенты компании, которые изъявили желание поучаствовать в эксперименте и оставить подробный отзыв о плюсах и минусах роботизированной доставки.
Второй робот – DeliveryBot S2, предназначен для использования внутри помещений. В отличие от многих аналогов, помимо камер кругового обзора он также оснащён лидаром, что минимизирует риск случайного столкновения. Робот функционирует от одной зарядки в течение всего рабочего дня, выполняя за это время до трёхсот заданий по доставке в пределах типичного офиса.
По замыслу X1 и S2 дополняют друг друга, обеспечивая «бесшовную» автоматизированную логистику. «Этот тандем автономных роботов-курьеров будет играть важную роль в развитии бизнеса через IoT» , – сказал Люк Гао, основатель и генеральный директор Segway-Ninebot.
Источник: https://www.segwayrobotics.com
16 августа в Пекине прошла выставка «Инновации в мобильности на базе ИИ», в рамках которой
компания Segway-Ninebot представила двух новых роботов.
Первый из них – Segway DeliveryBot X1, разработанный для автономной доставки между зданиями и обладающий продвинутой системой облачной навигации. Он распознаёт сигналы светофоров и дорожные знаки, определяет другие транспортные средства и пешеходов на своём пути.
Связь с управляющим сервером выполняется по 4G и Wi-Fi, но даже в случае кратковременной потери сигнала робот обычно способен завершить доставку. Правда, из соображений безопасности при выявлении любой неисправности в электромоторе у него срабатывают автоматические блокираторы колёс.
Габариты X1 составляют 1500x1300x800 мм. Полезный объём – 350 литров. Он заряжается за три часа и способен проехать на одном заряде до 100 км со скоростью до 20 км/ч. Робота можно использовать во время дождя благодаря влагозащите по стандарту IP67.
Испытания DeliveryBot X1 запланированы на январь 2020 года. В нём примут участие те клиенты компании, которые изъявили желание поучаствовать в эксперименте и оставить подробный отзыв о плюсах и минусах роботизированной доставки.
Второй робот – DeliveryBot S2, предназначен для использования внутри помещений. В отличие от многих аналогов, помимо камер кругового обзора он также оснащён лидаром, что минимизирует риск случайного столкновения. Робот функционирует от одной зарядки в течение всего рабочего дня, выполняя за это время до трёхсот заданий по доставке в пределах типичного офиса.
По замыслу X1 и S2 дополняют друг друга, обеспечивая «бесшовную» автоматизированную логистику. «Этот тандем автономных роботов-курьеров будет играть важную роль в развитии бизнеса через IoT» , – сказал Люк Гао, основатель и генеральный директор Segway-Ninebot.
Источник: https://www.segwayrobotics.com
This media is not supported in your browser
VIEW IN TELEGRAM
Медицина, как и все фундаментальные науки, переживает цифровую трансформацию. Уже сейчас мы можем записываться к врачам онлайн, консультироваться с ними через приложения и Telegram.
Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu
Подписывайтесь, у Ксюши нескучно!
Хотите заглянуть в будущее медицины? Подписывайтесь на канал @medicalksu! Автор канала Ксения работала в 5 медицинских стартапах и знает всё об их изнанке. Новости и авторские заметки об искусственном интеллекте, мобильных приложениях, биохакинге, чатботах и голосовых ассистентах для врачей. Всё это только для подписчиков канала @medicalksu
Подписывайтесь, у Ксюши нескучно!
Forwarded from Discovery: IT, технологии, бизнес
This media is not supported in your browser
VIEW IN TELEGRAM
Наглядная демонстрация работы пожарных роботов 🤖 Они спокойно могут выдерживать взрывы при тушении пожаров.
Discovery 🌎
Discovery 🌎
NNP-T - новый нейропроцессор от Intel
Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета.
NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение.
Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0.
Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду).
Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным.
По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев.
Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально.
Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры.
Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц.
В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений.
NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом.
Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs).
Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м.
Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs.
Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow.
До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года.
Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Компания Intel представила подробное описание нового нейропроцессора NNP-T (Nervana Neural Network Processor for Training) на симпозиуме Hot Chips 31, прошедшем 18 – 20 августа в кампусе Стэнфордского университета.
NNP-T выпускается в формате мезонинной карты OCP, популярном в центрах обработки данных. Микросхема работает на частоте 1,1 ГГц и потребляет от 150 до 250 Вт в конфигурациях с воздушным охлаждением, а в будущем возможно повышение производительности с переходом на водяное охлаждение.
Технически это однокристальная система, содержащая 24 тензорных ядра, 32 Гбайт памяти и 16 линий PCIe 4.0.
Четыре чипа по 8 Гбайт подключены через высокоскоростной интерфейс HBM2. Для внутренних соединений используются 64 линии SerDes с пропускной способностью по 28 ГБ/с (3,58 Тбит/с). Пиковая производительность составляет 119 TOPS (триллионов операций в секунду).
Эта система на кристалле ранее была известна под названием Spring Crest Deep Learning Accelerator. Она призвана ускорить процесс обучения искусственных нейронных сетей и сделать его более энергоэффективным.
По словам представителей Intel, сложность наборов данных для нейросетей удваивается примерно каждые пять месяцев.
Сейчас для обучения на них используют связку из серверных процессоров Xeon и графических ускорителей Nvidia, но в такой универсальной конфигурации ресурсы используются слишком нерационально.
Основная проблема в том, что данные постоянно перемещаются между графической и системной памятью, а промежуточные вычисления синхронизируются у вычислительных блоков разной архитектуры.
Минимизация перемещения данных – ключевой принцип Nervana. Тензорные ядра NNP-T используют механизм Convolution Engine, который позволяет считывать данные из памяти и сразу преобразовывать их с помощью сверточных фильтров перед операциями умножения матриц.
В них реализована оптимизация вычислений bFloat16, FP32 и BF16, поддержка набора инструкций AVX512 и внеочередное исполнение инструкций на конвейерах с улучшенной точностью прогнозирования ветвлений.
NNP-T легко масштабируется в систему из 8 процессоров и даже сеть из нескольких узлов, соединённых по скоростному каналу. Архитектура поддерживает масштабирование до 1024 узлов с восемью NNP-T в каждом.
Нейропроцессор выпускается по 16-нм процессу TSMC CLN16FF+. Он содержит 27 млрд. транзисторов, размещённых на подложке площадью 688 кв. мм. В ней находятся основные вычислительные блоки – 24 тензорных ядра (TPCs).
Матрица NNP-T окружена четырьмя стеками HBM2-2400 (2,4 ГБ/с) по 8 ГБ каждый, которые расположены поверх промежуточного слоя площадью 1200 кв. м.
Каждый TPC имеет четыре высокоскоростные шины, две из которых предназначены для памяти HBM2, а две другие поддерживают связь с другими TPCs.
Intel стремится упростить труд разработчиков, реализовав большую часть функций в библиотеке nGraph с открытым исходным кодом и предоставляя компилятор, объединяющий платформы Paddle Paddle, Pytorch и TensorFlow.
До конца текущего года Intel предоставит образцы NNP-T своим ключевым партнёрам. Скорее всего, это будут облачные провайдеры первого уровня. Для широкого рынка будет доступна уже обновлённая ревизия NNP-T, которая выйдет не ранее 2020 года.
Источник: https://www.anandtech.com/show/14757/hot-chips-live-blogs-intel-spring-crest-nnpt-on-16nm-tsmc
Anandtech
Hot Chips 31 Live Blogs: Intel Spring Crest NNP-T on 16nm TSMC
ИИ Google встаёт на защиту роботов
Принадлежащая Google платформа видеохостинга YouTube использует искусственный интеллект для модерации видеороликов. Недавно её ИИ заблокировал несколько видеозаписей с соревнований BattleBots и других боёв роботов как несоответствующие этическим нормам.
Формулировка причины автоматического запрета трансляции гласила: «Данные видеоматериалы содержат сцены преднамеренного причинения страданий животным, или их принуждение к бою».
После ряда жалоб от владельцев каналов бан был снят, но ситуация заставляет задуматься. В ней есть повод переосмыслить структуру человеко-машинных взаимодействий, причём вовсе не из жалости к роботам.
Возможно, заставлять сложные механизмы ломать друг друга – не самое этичное применение инженерному таланту, но конкретно этим роботам было всё равно. У принимавших участие в боях не было даже зачатков искусственного интеллекта – это просто машины на дистанционном управлении.
Вопрос в другом: не слишком ли много аспектов нашей жизни сегодня зависят от надёжности ИИ?
Представители YouTube называют случившееся ошибкой в автоматической классификации объектов. «У нас нет правил, запрещающих выкладывать сражения роботов», - пояснили они в ответных письмах.
Прожить пару дней без просмотра роликов на заблокированном канале можно без проблем (ущерб ощутят только их владельцы), а вот получить необоснованный отказ ИИ в других ситуациях куда неприятнее.
Разные системы искусственного интеллекта сегодня применяются везде, где требуется обработать массу типовых заявок. Помещение писем в спам, блокировка сайтов, получение кредита, оформление страховки и многое другое.
Все они используют единую модель работы, в которой человеку отводится роль наблюдателя. Он может внести изменения, но всегда делает это постфактум, поскольку физически не способен наблюдать за действиями ИИ в реальном времени.
Проблема в том, что разбирательства с участием людей начинаются уже после написания жалоб и занимают много времени. Вспомните об этом, когда беспристрастная система пометит ваш посадочный талон кодом SSSS (отобран для вторичного досмотра), или когда автопилот ошибочно распознает рисунок на стене как дорожную разметку.
Источник: https://www.cbr.com/youtube-reportedly-deleting-battlebot-videos-citing-animal-fighting-ban/
Принадлежащая Google платформа видеохостинга YouTube использует искусственный интеллект для модерации видеороликов. Недавно её ИИ заблокировал несколько видеозаписей с соревнований BattleBots и других боёв роботов как несоответствующие этическим нормам.
Формулировка причины автоматического запрета трансляции гласила: «Данные видеоматериалы содержат сцены преднамеренного причинения страданий животным, или их принуждение к бою».
После ряда жалоб от владельцев каналов бан был снят, но ситуация заставляет задуматься. В ней есть повод переосмыслить структуру человеко-машинных взаимодействий, причём вовсе не из жалости к роботам.
Возможно, заставлять сложные механизмы ломать друг друга – не самое этичное применение инженерному таланту, но конкретно этим роботам было всё равно. У принимавших участие в боях не было даже зачатков искусственного интеллекта – это просто машины на дистанционном управлении.
Вопрос в другом: не слишком ли много аспектов нашей жизни сегодня зависят от надёжности ИИ?
Представители YouTube называют случившееся ошибкой в автоматической классификации объектов. «У нас нет правил, запрещающих выкладывать сражения роботов», - пояснили они в ответных письмах.
Прожить пару дней без просмотра роликов на заблокированном канале можно без проблем (ущерб ощутят только их владельцы), а вот получить необоснованный отказ ИИ в других ситуациях куда неприятнее.
Разные системы искусственного интеллекта сегодня применяются везде, где требуется обработать массу типовых заявок. Помещение писем в спам, блокировка сайтов, получение кредита, оформление страховки и многое другое.
Все они используют единую модель работы, в которой человеку отводится роль наблюдателя. Он может внести изменения, но всегда делает это постфактум, поскольку физически не способен наблюдать за действиями ИИ в реальном времени.
Проблема в том, что разбирательства с участием людей начинаются уже после написания жалоб и занимают много времени. Вспомните об этом, когда беспристрастная система пометит ваш посадочный талон кодом SSSS (отобран для вторичного досмотра), или когда автопилот ошибочно распознает рисунок на стене как дорожную разметку.
Источник: https://www.cbr.com/youtube-reportedly-deleting-battlebot-videos-citing-animal-fighting-ban/
CBR.com
YouTube Reportedly Deleting Battlebot Videos Citing Animal Fighting Ban
YouTubers have reported that Google's video-sharing site has removed thousands of BattleBot videos, incorrectly citing animal abuse.
Лёгкий экзоскелет для ходьбы и бега
Исследователи из Института Висса при Гарвардском университете создали легкий универсальный экзоскелет. Он помогает людям ходить и бегать, затрачивая на передвижения меньше усилий. Как же он работает?
Наверняка вы видели кареточный мотор, который устанавливают на велосипеды, превращая их в электробайки. В отличие от мотор-колеса, он сам по себе не работает – лишь помогает тянуть цепь, экономя ваши усилия.
Похожий принцип используется и в новом экзоскелете – с той лишь разницей, что задача усиливать работу различных мышц гораздо сложнее. Бег и ходьба принципиально отличаются по своей биомеханике, соответственно должна меняться и работа электронного ассистента.
Для этого встроенный гироскоп и другие датчики сообщают процессору о характере колебания центра масс, амплитуде движений ног и частоте касаний опоры. Далее алгоритм определяет следующие типы передвижения: обычная ходьба, быстрая ходьба, бег и подъём по склону. Затем происходит подстройка, и в работу мотора вносятся динамические поправки.
Для каждого режима вычисляется период, когда левый и правый тазобедренный сустав испытывают максимальную нагрузку. В этот момент электромотор тянет накладку, обхватывающую ногу в верхней трети, за счёт чего усиливает движения разгибателей бедра.
Экзоскелет почти не стесняет движений, поскольку его основной блок расположен на спине в области поясницы - максимально близко к центру масс.
Прототип прошёл испытания с участием добровольцев – мужчин и женщин с разной степенью физической подготовки. По объёму потребляемого кислорода в тестах оценивалось количество энергии, затрачиваемой испытуемыми при выполнении одних и тех же заданий с экзоскелетом и без него.
Выводы говорят о том, что он действительно экономит усилия. Особенно заметна его помощь на затяжных подъёмах и ходьбе по пересечённой местности.
Однако, пока этот выигрыш очень скромный – от 4% при беге до 9,3% при ходьбе. Работу электромотора нивелирует необходимость носить на себе дополнительные 5 кг и неудобство его геометрии.
Основной блок слишком широкий, из-за чего его иногда его задевают локтями. Испытуемым приходилось шире расставлять руки, что приводило к изменениям походки.
Разработчики готовятся представить в следующем году новую версию экзоскелета – более лёгкую и компактную. Возможно, она найдёт применение в программах реабилитации после травм и повышения мобильности пожилых людей.
Работа выполнена совместно с исследователями из Школы инженерных и прикладных наук им. Джона А. Полсона (SEAS), а также Университета штата Небраска в Омахе.
Источник: https://science.sciencemag.org/content/365/6454/668
Исследователи из Института Висса при Гарвардском университете создали легкий универсальный экзоскелет. Он помогает людям ходить и бегать, затрачивая на передвижения меньше усилий. Как же он работает?
Наверняка вы видели кареточный мотор, который устанавливают на велосипеды, превращая их в электробайки. В отличие от мотор-колеса, он сам по себе не работает – лишь помогает тянуть цепь, экономя ваши усилия.
Похожий принцип используется и в новом экзоскелете – с той лишь разницей, что задача усиливать работу различных мышц гораздо сложнее. Бег и ходьба принципиально отличаются по своей биомеханике, соответственно должна меняться и работа электронного ассистента.
Для этого встроенный гироскоп и другие датчики сообщают процессору о характере колебания центра масс, амплитуде движений ног и частоте касаний опоры. Далее алгоритм определяет следующие типы передвижения: обычная ходьба, быстрая ходьба, бег и подъём по склону. Затем происходит подстройка, и в работу мотора вносятся динамические поправки.
Для каждого режима вычисляется период, когда левый и правый тазобедренный сустав испытывают максимальную нагрузку. В этот момент электромотор тянет накладку, обхватывающую ногу в верхней трети, за счёт чего усиливает движения разгибателей бедра.
Экзоскелет почти не стесняет движений, поскольку его основной блок расположен на спине в области поясницы - максимально близко к центру масс.
Прототип прошёл испытания с участием добровольцев – мужчин и женщин с разной степенью физической подготовки. По объёму потребляемого кислорода в тестах оценивалось количество энергии, затрачиваемой испытуемыми при выполнении одних и тех же заданий с экзоскелетом и без него.
Выводы говорят о том, что он действительно экономит усилия. Особенно заметна его помощь на затяжных подъёмах и ходьбе по пересечённой местности.
Однако, пока этот выигрыш очень скромный – от 4% при беге до 9,3% при ходьбе. Работу электромотора нивелирует необходимость носить на себе дополнительные 5 кг и неудобство его геометрии.
Основной блок слишком широкий, из-за чего его иногда его задевают локтями. Испытуемым приходилось шире расставлять руки, что приводило к изменениям походки.
Разработчики готовятся представить в следующем году новую версию экзоскелета – более лёгкую и компактную. Возможно, она найдёт применение в программах реабилитации после травм и повышения мобильности пожилых людей.
Работа выполнена совместно с исследователями из Школы инженерных и прикладных наук им. Джона А. Полсона (SEAS), а также Университета штата Небраска в Омахе.
Источник: https://science.sciencemag.org/content/365/6454/668
Science
Reducing the metabolic rate of walking and running with a versatile, portable exosuit
Walking and running require different gaits, with each type of motion putting a greater bias on different muscles and joints. Kim et al. developed a soft, fully portable, lightweight exosuit that is able to reduce the metabolic rate for both running and walking…