Forwarded from Наука и технологии
Forwarded from Наука и технологии
Робота Atlas научили планировать путь в развалинах и протискиваться в узкие проемы
https://clck.ru/Gx4TQ
https://clck.ru/Gx4TQ
Итальянские дроны стали уличными художниками
При помощи четырёх квадрокоптеров межуниверситетская команда исследователей под руководством профессора Карло Ратти создала живописное полотно площадью 168 квадратных метров. Оно выполнено в стиле уличного граффити на стене заброшенного автозавода у парка Аурелио Печчеи (Турин, Италия).
Основную техническую часть проекта выполняла компания Carlo Ratti Associati (CRA), специализирующаяся на архитектуре и дизайне. В 2015 году она представила вертикальный плоттер (hxxps://carloratti.com/project/ffd-vertical-plotter/) для печати векторных изображений и текста на больших стенах.
Его дальнейшим развитием стала система Paint By Drone (hxxps://youtu.be/3B5tsecnYmA), которая фактически заменила плоттер. Управлять отдельными дронами сложнее, чем единым набором картриджей, зато они более динамичны и не имеют ограничений на максимальный размер стены.
Центральная система управления дронами была разработана в Туринском политехническом университете. Сами дроны и планировщик путей на движке Unity3D создавались в Tsuru Robotics совместно с Interactive Lab. Два года исследователи повышали точность локального позиционирования, доведя её до ± 5 мм.
Справедливости ради отметим, что это не «первый в истории случай, когда дроны расписали вертикальную поверхность», как пишут в CRA. Первую публичную демонстрацию «воздушных художников» как раз устроила Tsuru Robotics в 2017 году на территории московского центра современного искусства «Винзавод» (hxxps://youtu.be/WyPawWJj-U8).
Коллаж на тему «Турин настоящего и будущего» создавался два дня – с 25 по 26 июня 2019 г. Суммарный пробег дронов составил 620 метров, а общее время в полёте – 12 часов. Ещё более двадцати ушло на их перезарядку и перезаправку – каждый дрон распылял краску из баллончика своего цвета.
Работа на стыке искусства и современных технологий проводилась в рамках проекта UFO (Urban Flying Opera). Он был запущен в январе 2018 года, и с тех пор каждый желающий мог прислать организаторам своё видение Турина.
Из 1200+ иллюстраций кураторы «Летящей городской оперы» отобрали сто работ, которые затем объединили в трёхцветный коллаж. В нём чёрный изображает основу города и его историю, красный – его публичные места и креативное начало, а зелёный – устремлённость в будущее.
Посередине рисунка находится крупная надпись LINK. Она символизирует объединяющую силу искусства и является отсылкой к центру технических исследований Fondazione LINKS (hxxps://linksfoundation.com/), который финансировал данный эксперимент совместно с фондом культурного развития Compagnia di San Paolo.
Источник: https://youtu.be/UPfzxERkv8o
При помощи четырёх квадрокоптеров межуниверситетская команда исследователей под руководством профессора Карло Ратти создала живописное полотно площадью 168 квадратных метров. Оно выполнено в стиле уличного граффити на стене заброшенного автозавода у парка Аурелио Печчеи (Турин, Италия).
Основную техническую часть проекта выполняла компания Carlo Ratti Associati (CRA), специализирующаяся на архитектуре и дизайне. В 2015 году она представила вертикальный плоттер (hxxps://carloratti.com/project/ffd-vertical-plotter/) для печати векторных изображений и текста на больших стенах.
Его дальнейшим развитием стала система Paint By Drone (hxxps://youtu.be/3B5tsecnYmA), которая фактически заменила плоттер. Управлять отдельными дронами сложнее, чем единым набором картриджей, зато они более динамичны и не имеют ограничений на максимальный размер стены.
Центральная система управления дронами была разработана в Туринском политехническом университете. Сами дроны и планировщик путей на движке Unity3D создавались в Tsuru Robotics совместно с Interactive Lab. Два года исследователи повышали точность локального позиционирования, доведя её до ± 5 мм.
Справедливости ради отметим, что это не «первый в истории случай, когда дроны расписали вертикальную поверхность», как пишут в CRA. Первую публичную демонстрацию «воздушных художников» как раз устроила Tsuru Robotics в 2017 году на территории московского центра современного искусства «Винзавод» (hxxps://youtu.be/WyPawWJj-U8).
Коллаж на тему «Турин настоящего и будущего» создавался два дня – с 25 по 26 июня 2019 г. Суммарный пробег дронов составил 620 метров, а общее время в полёте – 12 часов. Ещё более двадцати ушло на их перезарядку и перезаправку – каждый дрон распылял краску из баллончика своего цвета.
Работа на стыке искусства и современных технологий проводилась в рамках проекта UFO (Urban Flying Opera). Он был запущен в январе 2018 года, и с тех пор каждый желающий мог прислать организаторам своё видение Турина.
Из 1200+ иллюстраций кураторы «Летящей городской оперы» отобрали сто работ, которые затем объединили в трёхцветный коллаж. В нём чёрный изображает основу города и его историю, красный – его публичные места и креативное начало, а зелёный – устремлённость в будущее.
Посередине рисунка находится крупная надпись LINK. Она символизирует объединяющую силу искусства и является отсылкой к центру технических исследований Fondazione LINKS (hxxps://linksfoundation.com/), который финансировал данный эксперимент совместно с фондом культурного развития Compagnia di San Paolo.
Источник: https://youtu.be/UPfzxERkv8o
YouTube
UFO - Urban Flying Opera
UFO-Urban Flying Opera
Swarms of Painting Drones
A project promoted by Compagnia di San Paolo, ideated and curated by CRA-Carlo Ratti Associati, coordinated and produced by Fondazione LINKS, in collaboration with Tsuru Robotics
Video credits: Acting Out…
Swarms of Painting Drones
A project promoted by Compagnia di San Paolo, ideated and curated by CRA-Carlo Ratti Associati, coordinated and produced by Fondazione LINKS, in collaboration with Tsuru Robotics
Video credits: Acting Out…
OpenFace #python
Бесплатный опенсорс фреймворк для распознавания лиц, использующий глубокие нейронные сети. Реализован на Python и Torch.
GitHub: https://github.com/cmusatyalab/openface
API-документация: https://openface-api.readthedocs.io/en/latest/index.html
Бесплатный опенсорс фреймворк для распознавания лиц, использующий глубокие нейронные сети. Реализован на Python и Torch.
GitHub: https://github.com/cmusatyalab/openface
API-документация: https://openface-api.readthedocs.io/en/latest/index.html
AI научили анализировать научные статьи в поисках перспективных материалов
Исследователи из Национальной лаборатории имени Лоуренса в Беркли и Калифорнийского университета использовали ИИ, чтобы найти перспективные соединения путём автоматизированного анализа научных статей.
Современные технологии сильно зависят от развития материаловедения. В промышленности постоянно требуются новые катодные материалы, более эффективные полупроводники, композиты и так далее. Проблема в том, что их часто приходится переоткрывать, так как среди опубликованных научных статей становится всё сложнее ориентироваться.
Часто бывает, что одно и то же вещество исследуют разные коллективы – каждый в рамках своей узкой тематики. Поэтому нередко перспективным соединением в одной области становится давно известное в другой.
Попытки автоматизированного анализа научных текстов применялись и ранее – в основном на базе алгоритмов машинного обучения GloVe и Word2vec. Однако для их обучения требовался набор предварительно маркированных данных.
Группа из Беркли научила ИИ самостоятельно создавать эффективные шаблоны для анализа текстов методом аналогии. Сгенерированные векторные представления слов и их взаимосвязей позволяют ИИ обучаться дальше без предварительной маркировки и контроля со стороны человека.
В качестве базы для самостоятельного обучения были использованы 3,3 миллиона авторефератов научных статей, опубликованных между 1922 и 2018 годами в рецензируемых журналах, относящихся к области материаловедения.
Выбор на авторефераты пал потому, что большая часть полных текстов предоставляется на платной основе. Однако, даже не имея доступа к самим статьям, ИИ обнаружил ряд перспективных соединений. Например, он нашёл несколько химических соединений, которые демонстрируют свойства термоэлектрических материалов, но не изучались ранее в таком аспекте.
Исследователи полагают, что их метод может стать новым способом углубленного анализа научной литературы.
Источник: https://www.nature.com/articles/s41586-019-1335-8.epdf
Исследователи из Национальной лаборатории имени Лоуренса в Беркли и Калифорнийского университета использовали ИИ, чтобы найти перспективные соединения путём автоматизированного анализа научных статей.
Современные технологии сильно зависят от развития материаловедения. В промышленности постоянно требуются новые катодные материалы, более эффективные полупроводники, композиты и так далее. Проблема в том, что их часто приходится переоткрывать, так как среди опубликованных научных статей становится всё сложнее ориентироваться.
Часто бывает, что одно и то же вещество исследуют разные коллективы – каждый в рамках своей узкой тематики. Поэтому нередко перспективным соединением в одной области становится давно известное в другой.
Попытки автоматизированного анализа научных текстов применялись и ранее – в основном на базе алгоритмов машинного обучения GloVe и Word2vec. Однако для их обучения требовался набор предварительно маркированных данных.
Группа из Беркли научила ИИ самостоятельно создавать эффективные шаблоны для анализа текстов методом аналогии. Сгенерированные векторные представления слов и их взаимосвязей позволяют ИИ обучаться дальше без предварительной маркировки и контроля со стороны человека.
В качестве базы для самостоятельного обучения были использованы 3,3 миллиона авторефератов научных статей, опубликованных между 1922 и 2018 годами в рецензируемых журналах, относящихся к области материаловедения.
Выбор на авторефераты пал потому, что большая часть полных текстов предоставляется на платной основе. Однако, даже не имея доступа к самим статьям, ИИ обнаружил ряд перспективных соединений. Например, он нашёл несколько химических соединений, которые демонстрируют свойства термоэлектрических материалов, но не изучались ранее в таком аспекте.
Исследователи полагают, что их метод может стать новым способом углубленного анализа научной литературы.
Источник: https://www.nature.com/articles/s41586-019-1335-8.epdf
Nature
Unsupervised word embeddings capture latent knowledge from materials science literature
Natural language processing algorithms applied to three million materials science abstracts uncover relationships between words, material compositions and properties, and predict potential new thermoelectric materials.
ConvNetJS #javascript
Библиотека глубокого обучения на JavaScript, которая поддерживает несколько методов обучения.
Включена поддержка общих нейронных модулей, экспериментальный модуль обучения, основанный на Deep Q Learning и возможность обучать свёрточные сети, которые обрабатывают изображения.
Есть два способа использования библиотеки: внутри браузера или на сервере с помощью node.js. Первый путь подойдёт новичкам в веб-разработке. Пользоваться ConvNetJS сможет даже человек, не обладающий большим опытом в области нейронных сетей.
Браузерные демоверсии:
Свёрточная нейронная сеть с использованием MNIST
Свёрточная нейронная сеть на CIFAR-10
Регрессия изображений
Обучение на Deep Q Learning
Код на GitHub: https://github.com/karpathy/convnetjs/blob/master/Readme.md
Учебное пособие для начала работы: https://cs.stanford.edu/people/karpathy/convnetjs/started.html
Документация: https://cs.stanford.edu/people/karpathy/convnetjs/docs.html
Библиотека глубокого обучения на JavaScript, которая поддерживает несколько методов обучения.
Включена поддержка общих нейронных модулей, экспериментальный модуль обучения, основанный на Deep Q Learning и возможность обучать свёрточные сети, которые обрабатывают изображения.
Есть два способа использования библиотеки: внутри браузера или на сервере с помощью node.js. Первый путь подойдёт новичкам в веб-разработке. Пользоваться ConvNetJS сможет даже человек, не обладающий большим опытом в области нейронных сетей.
Браузерные демоверсии:
Свёрточная нейронная сеть с использованием MNIST
Свёрточная нейронная сеть на CIFAR-10
Регрессия изображений
Обучение на Deep Q Learning
Код на GitHub: https://github.com/karpathy/convnetjs/blob/master/Readme.md
Учебное пособие для начала работы: https://cs.stanford.edu/people/karpathy/convnetjs/started.html
Документация: https://cs.stanford.edu/people/karpathy/convnetjs/docs.html
REV-1 – всепогодный дрон-вездеход
Американская компания Refraction представила колёсный дрон REV-1. Это первый беспилотник, рассчитанный на доставку товаров в сильный дождь, снегопад и гололёд.
Стартап Refraction был основан двумя сотрудниками Мичиганского университета. Первый из них – профессор Мэтью Джонсон-Роберсон, преподающий робототехнику и проектирующий автономные вездеходы с 2004 года, когда он принял участие в DARPA Grand Challenge. Второй – Рам Васудеван, программист компании Ford, разработавший алгоритмы антипробуксовки автомобиля на снегу и стабилизации при движении по льду.
Свой опыт они использовали для создания REV-1 – первого всепогодного дрона. Он сделан по типу трицикла с задним мотор-колесом. Это сугубо утилитарная модель, призванная удешевить логистику и решить проблему «последней мили», поэтому в ней нет лидара и других дорогих компонентов.
Масса дрона составляет 45 кг. Высота – 152 см, длина – 137 см. Полезный объём контейнера с электронным замком – 453 литра. Максимальная скорость – 24 км/ч. Тормозной путь – около полутора метров на сухой дороге.
Дрон оснащён двенадцатью камерами, радаром и ультразвуковыми датчиками. Его стоимость на момент начала производства – $5000. Сейчас представители Refraction договариваются с местными ресторанами о запуске пилотной программы доставки еды на дом.
В дальнейшем компания планирует предоставлять услуги в регионах с частыми снегопадами, где не рискуют открывать филиалы разработчики других беспилотников.
Источник: https://techcrunch.com/2019/07/11/this-new-autonomous-startup-has-designed-its-delivery-robot-to-conquer-winter/
Американская компания Refraction представила колёсный дрон REV-1. Это первый беспилотник, рассчитанный на доставку товаров в сильный дождь, снегопад и гололёд.
Стартап Refraction был основан двумя сотрудниками Мичиганского университета. Первый из них – профессор Мэтью Джонсон-Роберсон, преподающий робототехнику и проектирующий автономные вездеходы с 2004 года, когда он принял участие в DARPA Grand Challenge. Второй – Рам Васудеван, программист компании Ford, разработавший алгоритмы антипробуксовки автомобиля на снегу и стабилизации при движении по льду.
Свой опыт они использовали для создания REV-1 – первого всепогодного дрона. Он сделан по типу трицикла с задним мотор-колесом. Это сугубо утилитарная модель, призванная удешевить логистику и решить проблему «последней мили», поэтому в ней нет лидара и других дорогих компонентов.
Масса дрона составляет 45 кг. Высота – 152 см, длина – 137 см. Полезный объём контейнера с электронным замком – 453 литра. Максимальная скорость – 24 км/ч. Тормозной путь – около полутора метров на сухой дороге.
Дрон оснащён двенадцатью камерами, радаром и ультразвуковыми датчиками. Его стоимость на момент начала производства – $5000. Сейчас представители Refraction договариваются с местными ресторанами о запуске пилотной программы доставки еды на дом.
В дальнейшем компания планирует предоставлять услуги в регионах с частыми снегопадами, где не рискуют открывать филиалы разработчики других беспилотников.
Источник: https://techcrunch.com/2019/07/11/this-new-autonomous-startup-has-designed-its-delivery-robot-to-conquer-winter/
TechCrunch
This new autonomous startup has designed its delivery robot to conquer winter
Refraction, a new autonomous delivery robot company that came out of stealth Wednesday at TC Sessions: Mobility, sees opportunity in areas most AV startups are avoiding: regions with the worst weather. The company, founded by University of Michigan professors…
ИИ расшифрует древние письмена
Исследователи из MIT и Google Brain применили глубокое машинное обучение для расшифровки текстов, найденных в ходе археологических раскопок. Они создали систему ИИ, которая анализирует очертания различных символов, их частоту встречаемости и соседство друг с другом, а затем пытается перевести на английский древние письмена.
Сейчас в мире насчитывается около семи тысяч языков и наречий, но это лишь четверть от всех существовавших на протяжении истории человечества. Большинство из них утратили носителей и сильно видоизменились за столетия, поэтому современным лингвистам трудно расшифровать надписи на «мёртвых» языках. ИИ лучше справляется с монотонной работой, статистическим анализом и поиском закономерностей.
Команде исследователей под руководством Цзямина Ло и Реджина Барзилая удалось дешифровать тексты поздней формы критского письма (XIII – XIV вв до н.э.), повторив успех профессионального лингвиста Майкла Вентриса с точностью 67,3%. Похоже, это первый случай, когда ИИ самостоятельно изучил древний язык.
Следующая задача была сложнее: ИИ попытался расшифровать клинописные угаритские тексты, написанные более трёх тысяч лет назад. По мнению разработчиков, ему это удалось сделать на 5,5% точнее, чем до сих пор получалось у систем машинного перевода.
Авторы исследования поясняют, что это лишь первые результаты, полученные после быстрой тренировки ИИ на малой выборке. При наличии доступа к большим объёмам текстов на древних языках, они смогут снизить частоту ошибок.
Источник: https://arxiv.org/pdf/1906.06718.pdf
Исследователи из MIT и Google Brain применили глубокое машинное обучение для расшифровки текстов, найденных в ходе археологических раскопок. Они создали систему ИИ, которая анализирует очертания различных символов, их частоту встречаемости и соседство друг с другом, а затем пытается перевести на английский древние письмена.
Сейчас в мире насчитывается около семи тысяч языков и наречий, но это лишь четверть от всех существовавших на протяжении истории человечества. Большинство из них утратили носителей и сильно видоизменились за столетия, поэтому современным лингвистам трудно расшифровать надписи на «мёртвых» языках. ИИ лучше справляется с монотонной работой, статистическим анализом и поиском закономерностей.
Команде исследователей под руководством Цзямина Ло и Реджина Барзилая удалось дешифровать тексты поздней формы критского письма (XIII – XIV вв до н.э.), повторив успех профессионального лингвиста Майкла Вентриса с точностью 67,3%. Похоже, это первый случай, когда ИИ самостоятельно изучил древний язык.
Следующая задача была сложнее: ИИ попытался расшифровать клинописные угаритские тексты, написанные более трёх тысяч лет назад. По мнению разработчиков, ему это удалось сделать на 5,5% точнее, чем до сих пор получалось у систем машинного перевода.
Авторы исследования поясняют, что это лишь первые результаты, полученные после быстрой тренировки ИИ на малой выборке. При наличии доступа к большим объёмам текстов на древних языках, они смогут снизить частоту ошибок.
Источник: https://arxiv.org/pdf/1906.06718.pdf
CasADI #python #c_plus
Опенсорс фрэймворк для нелинейной оптимизации и алгоритмического дифференцирования, написанный на C++. CasADi распространяется по лицензии LGPL, то есть может использоваться без лицензионных платежей даже в коммерческих приложениях.
CasADI простой инструмент для быстрой и высокоэффективной реализации алгоритмов нелинейной числовой оптимизации (в т.ч. динамической). Задействуя синтаксис систем компьютерной алгебры, программа позволяет пользователям создавать выражения, состоящие из скалярных или матричных операций. Далее их можно эффективно дифференцировать с использованием современных алгоритмов. CasADi предлагает богатый набор дифференцируемых операций, включая матричные, последовательные или параллельные вызовы функций, неявные функции и интеграторы.
CasADi доступен на C++, Python и MATLAB/Octave и показывает одинаковую производительность на всех ЯП. Разработчики, тем не менее, рекомендуют новичкам начать с версии на Python, поскольку документации и руководств для неё в разы больше. Установить программу можно совершенно бесплатно на Windows, Linux и Mac.
CasADI поможет сэкономить время при решении сложных инженерных задач и создании профессиональных инструментов для оптимизации. Применять фрэймворк можно в совершенно разных академических и промышленных областях. JModelica.org, omg-tool , MPC-tools, RTC-tools, openocl.org — все они основаны на CasADI.
Код на GitHub: https://github.com/casadi/casadi/wiki
FAQ по CasADI: https://github.com/casadi/casadi/wiki/FAQ
Скачать CasADI: https://web.casadi.org/get/
Гайд по CasADI: https://web.casadi.org/docs/
Советы по использованию CasADI: https://github.com/casadi/casadi/wiki/tipsandtricks
Опенсорс фрэймворк для нелинейной оптимизации и алгоритмического дифференцирования, написанный на C++. CasADi распространяется по лицензии LGPL, то есть может использоваться без лицензионных платежей даже в коммерческих приложениях.
CasADI простой инструмент для быстрой и высокоэффективной реализации алгоритмов нелинейной числовой оптимизации (в т.ч. динамической). Задействуя синтаксис систем компьютерной алгебры, программа позволяет пользователям создавать выражения, состоящие из скалярных или матричных операций. Далее их можно эффективно дифференцировать с использованием современных алгоритмов. CasADi предлагает богатый набор дифференцируемых операций, включая матричные, последовательные или параллельные вызовы функций, неявные функции и интеграторы.
CasADi доступен на C++, Python и MATLAB/Octave и показывает одинаковую производительность на всех ЯП. Разработчики, тем не менее, рекомендуют новичкам начать с версии на Python, поскольку документации и руководств для неё в разы больше. Установить программу можно совершенно бесплатно на Windows, Linux и Mac.
CasADI поможет сэкономить время при решении сложных инженерных задач и создании профессиональных инструментов для оптимизации. Применять фрэймворк можно в совершенно разных академических и промышленных областях. JModelica.org, omg-tool , MPC-tools, RTC-tools, openocl.org — все они основаны на CasADI.
Код на GitHub: https://github.com/casadi/casadi/wiki
FAQ по CasADI: https://github.com/casadi/casadi/wiki/FAQ
Скачать CasADI: https://web.casadi.org/get/
Гайд по CasADI: https://web.casadi.org/docs/
Советы по использованию CasADI: https://github.com/casadi/casadi/wiki/tipsandtricks
Сегодня в 19:00 по Москве на канале наших коллег «PRO РОБОТОВ» состоится прямой эфир, посвященный созданию в России Федерации Робототехники
Гостями эфира станут:
👉🏻 Максим Васильев, Президент Международной Ассоциации спортивной и образовательной робототехники,
👉🏻 Николай Пак, идеолог и создатель федеральной сети секций по робототехнике «Лига роботов».
Смотрите эфир, задавайте вопросы в комментариях: https://www.youtube.com/channel/UCR90e63q8eP9_D2N3yhQV0g
Гостями эфира станут:
👉🏻 Максим Васильев, Президент Международной Ассоциации спортивной и образовательной робототехники,
👉🏻 Николай Пак, идеолог и создатель федеральной сети секций по робототехнике «Лига роботов».
Смотрите эфир, задавайте вопросы в комментариях: https://www.youtube.com/channel/UCR90e63q8eP9_D2N3yhQV0g
TF-19 Wasp – огнемёт для дронов
Американская компания Throwflame представила портативный огнемёт для беспилотников коммерческого класса. С его помощью летающие дроны превращаются в настоящих драконов – они смогут выпускать огненные струи на расстояние до 7,5 метров.
Огнемёты широко используются на пиротехнических шоу и для выжигания сорняков на больших площадях – например, при расчистке загородных гоночных трасс. До сих пор для этого применялись носимые (ранцевые) или колёсные системы (на базе пикапа). Использование дронов-огнемётчиков повышает мобильность применения зажигательных смесей.
Масса пустого огнемёта – 1820 г при габаритах: 94x20x23 см. Столь малый вес критичен для использования на дронах и обусловлен изготовлением корпуса из углепластика Ultralite 3K.
TF-19 подключается через стандартный коннектор XT60 и управляется дистанционно. Система зажигания использует плазменную дугу и питается от источника постоянного тока с напряжением 12-25 В.
Объём встроенного резервуара составляет 3,78 литра. Это хватает на сто секунд непрерывного использования огнемёта.
Компания рекомендует устанавливать его на DJI S1000 и аналогичные октокоптеры, рассчитанные на установку полезной нагрузки от 2,2 кг. Дроны с меньшим количеством винтов обладают недостаточной подъёмной силой и низкой отказоустойчивостью.
Стоимость TF-19 составляет $1500 и может показаться высокой, но взгляните на него в действии!
https://youtu.be/07rtBip9ixk
Американская компания Throwflame представила портативный огнемёт для беспилотников коммерческого класса. С его помощью летающие дроны превращаются в настоящих драконов – они смогут выпускать огненные струи на расстояние до 7,5 метров.
Огнемёты широко используются на пиротехнических шоу и для выжигания сорняков на больших площадях – например, при расчистке загородных гоночных трасс. До сих пор для этого применялись носимые (ранцевые) или колёсные системы (на базе пикапа). Использование дронов-огнемётчиков повышает мобильность применения зажигательных смесей.
Масса пустого огнемёта – 1820 г при габаритах: 94x20x23 см. Столь малый вес критичен для использования на дронах и обусловлен изготовлением корпуса из углепластика Ultralite 3K.
TF-19 подключается через стандартный коннектор XT60 и управляется дистанционно. Система зажигания использует плазменную дугу и питается от источника постоянного тока с напряжением 12-25 В.
Объём встроенного резервуара составляет 3,78 литра. Это хватает на сто секунд непрерывного использования огнемёта.
Компания рекомендует устанавливать его на DJI S1000 и аналогичные октокоптеры, рассчитанные на установку полезной нагрузки от 2,2 кг. Дроны с меньшим количеством винтов обладают недостаточной подъёмной силой и низкой отказоустойчивостью.
Стоимость TF-19 составляет $1500 и может показаться высокой, но взгляните на него в действии!
https://youtu.be/07rtBip9ixk
YouTube
Throwflame - Introducing the TF-19 Flamethrower Drone
The TF-19 Drone Flamethrower attachment is the first of its kind, available for sale now https://throwflame.com/
https://www.instagram.com/throwflame/
https://www.facebook.com/Throwflame/
https://www.instagram.com/throwflame/
https://www.facebook.com/Throwflame/
Роботов научили переспрашивать
Исследователи из Бингемтонского, Кливлендского и Вашингтонского университетов разработали новую диалоговую систему, которая улучшает человеко-машинное взаимодействие. Она предназначена для обучения роботов с AI и развития их языковых возможностей.
Основная проблема существующих голосовых интерфейсов состоит в том, что при голосовом общении люди привыкли исходить из контекста. Пока роботы плохо умеют его анализировать и обладают очень ограниченной информацией об окружающем их пространстве.
"В общении человека и машины роботу часто бывает трудно понять, на какой объект ссылается человек. Для решения этой проблемы мы придумали идею диалоговой системы, которая оценивает степень своей уверенности в правильном понимании команды и при необходимости задает уточняющие вопросы", - пояснил Саид Амири - один из авторов исследования.
Новая диалоговая система состоит из четырёх компонентов: блока анализа голосовых команд, автоматически пополняемой базы данных, менеджера диалога и модуля речевого синтеза.
Она присваивает "вес" каждому элементу голосовой команды и запрашивает дополнительные сведения в том случае, если вес какой-либо из них оказывается ниже заданного значения.
В своих экспериментах исследователи сосредоточились на задаче доставки. Они попросили добровольцев по-разному сформулировать просьбу отправить посылку и наблюдали за реакцией системы.
Было замечено, что метод уточняющих вопросов позволил точнее идентифицировать упомянутые пользователями предметы и сопоставить их с информацией о получателе, избегая типичных ошибок.
Однако есть и обратная сторона улучшения. На этапе первичной адаптации к новому человеку или типу заданий, робот задаёт слишком много вопросов.
Такое стремление всё переспрашивать раздражало участников теста и явно будет мешать выходу системы на рынок.
"Робот, обладающий способностью самостоятельно понимать, когда ему требуются новые данные, сам по себе станет большим достижением. Это означало бы, что он постепенно изучает новые концепции посредством диалога с людьми", - говорит Саид Амири.
Источник: https://arxiv.org/pdf/1907.03390.pdf
Исследователи из Бингемтонского, Кливлендского и Вашингтонского университетов разработали новую диалоговую систему, которая улучшает человеко-машинное взаимодействие. Она предназначена для обучения роботов с AI и развития их языковых возможностей.
Основная проблема существующих голосовых интерфейсов состоит в том, что при голосовом общении люди привыкли исходить из контекста. Пока роботы плохо умеют его анализировать и обладают очень ограниченной информацией об окружающем их пространстве.
"В общении человека и машины роботу часто бывает трудно понять, на какой объект ссылается человек. Для решения этой проблемы мы придумали идею диалоговой системы, которая оценивает степень своей уверенности в правильном понимании команды и при необходимости задает уточняющие вопросы", - пояснил Саид Амири - один из авторов исследования.
Новая диалоговая система состоит из четырёх компонентов: блока анализа голосовых команд, автоматически пополняемой базы данных, менеджера диалога и модуля речевого синтеза.
Она присваивает "вес" каждому элементу голосовой команды и запрашивает дополнительные сведения в том случае, если вес какой-либо из них оказывается ниже заданного значения.
В своих экспериментах исследователи сосредоточились на задаче доставки. Они попросили добровольцев по-разному сформулировать просьбу отправить посылку и наблюдали за реакцией системы.
Было замечено, что метод уточняющих вопросов позволил точнее идентифицировать упомянутые пользователями предметы и сопоставить их с информацией о получателе, избегая типичных ошибок.
Однако есть и обратная сторона улучшения. На этапе первичной адаптации к новому человеку или типу заданий, робот задаёт слишком много вопросов.
Такое стремление всё переспрашивать раздражало участников теста и явно будет мешать выходу системы на рынок.
"Робот, обладающий способностью самостоятельно понимать, когда ему требуются новые данные, сам по себе станет большим достижением. Это означало бы, что он постепенно изучает новые концепции посредством диалога с людьми", - говорит Саид Амири.
Источник: https://arxiv.org/pdf/1907.03390.pdf
Используйте силу machine learning для задач бизнеса!
У вас уже есть базовое понимание машинного обучения и знание языка Python? Повысьте компененции и получите практические навыки по программированию глубоких нейронных сетей!
В SkillFactory открыт новый набор на курс "Deep Learning и нейронные сети" https://clc.to/3QZJzA разработанный при поддержке NVIDIA Corporation.
Проекты, над которыми вы будете работать, включают:
● создание нейронной сети для распознавания рукописных цифр;
● обучение рекурентной сети задачам прогнозирования временных рядов;
● разработку нейросетевого чат-бота;
● создание модели для идентификации лиц и генерации лиц на основе архитектуры GAN;
● разработку агента для игры на основе DQN алгоритма.
Вы познакомитесь с основными библиотеками для Deep Learning, такими как TensorFlow, Keras и другими.
🔥 В ИЮЛЕ действуют особые условия на обучение со скидками 30% + Учебные каникулы на время отпуска + Доступ к материалам курса в течение года https://clc.to/3QZJzA
У вас уже есть базовое понимание машинного обучения и знание языка Python? Повысьте компененции и получите практические навыки по программированию глубоких нейронных сетей!
В SkillFactory открыт новый набор на курс "Deep Learning и нейронные сети" https://clc.to/3QZJzA разработанный при поддержке NVIDIA Corporation.
Проекты, над которыми вы будете работать, включают:
● создание нейронной сети для распознавания рукописных цифр;
● обучение рекурентной сети задачам прогнозирования временных рядов;
● разработку нейросетевого чат-бота;
● создание модели для идентификации лиц и генерации лиц на основе архитектуры GAN;
● разработку агента для игры на основе DQN алгоритма.
Вы познакомитесь с основными библиотеками для Deep Learning, такими как TensorFlow, Keras и другими.
🔥 В ИЮЛЕ действуют особые условия на обучение со скидками 30% + Учебные каникулы на время отпуска + Доступ к материалам курса в течение года https://clc.to/3QZJzA
skillfactory.ru
Курс по нейронным сетям и Deep Learning на Python: обучение для начинающих в онлайн-школе SkillFactory
Курс по обучению нейронных сетей и Deep Learning для Python-разработчиков ★ Подходит для повышения квалификации и начинающих ▶ Школа по работе с данными SkillFactory.
Toyota показала робота для Олимпийских игр
Компания Toyota представила миниатюрного робота, который будет помогать атлетам на Олимпийских играх 2020. Они пройдут в Токио, и Toyota Motor Corp. станет их главным спонсором.
Начиная с 2008 года, на Олимпийских играх всё чаще используют роботов. На церемонии открытия летающие дроны устраивали зрелищные шоу, а миниатюрные машинки с дистанционным управлением доставляли диски на соревнованиях по лёгкой атлетике, заодно развлекая публику.
В следующем году главный инженер Toyota Томохиса Моридайра предложил использовать вместо них более интеллектуальные системы. Созданный под его руководством робот FSR (field support robot) оснащён модулем AI, благодаря которому самостоятельно прокладывает маршрут и избегает столкновения с препятствиями.
FSR создан на базе робота-паллетайзера, которому добавили магнитный фиксатор (для копий, флагштоков или олимпийского факела), светодиодную полосу на крыше и ЖК-панели на корпусе. Последние нужны как инфопанели и для обеспечения «виртуального присутствия». Например, на них могут отображаться результаты броска и портрет спортсмена.
Робот оснащён дорогой системой навигации, состоящей из трёх камер и лидара. Такое сочетание позволяет ему безошибочно двигаться даже в условиях сильных бликов с трибун и против яркого солнца.
После каждого броска FSR выезжает, чтобы забрать метательный снаряд – это могут быть диски, копья или молоты массой до 8 кг. Их загружает ассистент, после чего робот сам возвращается на место и ждёт следующего броска.
Помощь человека нужна потому, что пока роботы тратят слишком много времени на захват разных предметов. Зато они быстрее движутся по полю – до 20 км/ч.
Источник: https://www.citynews1130.com/2019/07/21/olympic-robots-offer-virtual-attendance-help-out-on-field/
Компания Toyota представила миниатюрного робота, который будет помогать атлетам на Олимпийских играх 2020. Они пройдут в Токио, и Toyota Motor Corp. станет их главным спонсором.
Начиная с 2008 года, на Олимпийских играх всё чаще используют роботов. На церемонии открытия летающие дроны устраивали зрелищные шоу, а миниатюрные машинки с дистанционным управлением доставляли диски на соревнованиях по лёгкой атлетике, заодно развлекая публику.
В следующем году главный инженер Toyota Томохиса Моридайра предложил использовать вместо них более интеллектуальные системы. Созданный под его руководством робот FSR (field support robot) оснащён модулем AI, благодаря которому самостоятельно прокладывает маршрут и избегает столкновения с препятствиями.
FSR создан на базе робота-паллетайзера, которому добавили магнитный фиксатор (для копий, флагштоков или олимпийского факела), светодиодную полосу на крыше и ЖК-панели на корпусе. Последние нужны как инфопанели и для обеспечения «виртуального присутствия». Например, на них могут отображаться результаты броска и портрет спортсмена.
Робот оснащён дорогой системой навигации, состоящей из трёх камер и лидара. Такое сочетание позволяет ему безошибочно двигаться даже в условиях сильных бликов с трибун и против яркого солнца.
После каждого броска FSR выезжает, чтобы забрать метательный снаряд – это могут быть диски, копья или молоты массой до 8 кг. Их загружает ассистент, после чего робот сам возвращается на место и ждёт следующего броска.
Помощь человека нужна потому, что пока роботы тратят слишком много времени на захват разных предметов. Зато они быстрее движутся по полю – до 20 км/ч.
Источник: https://www.citynews1130.com/2019/07/21/olympic-robots-offer-virtual-attendance-help-out-on-field/
City NEWS 1130
Olympic robots offer 'virtual' attendance, help out on field
TOKYO — A cart-like robot scuttles across the field to bring back javelins and discuses. A towering screen-on-wheels is designed for “virtual” attendance. The cute ones are, naturally, the likeness of the Olympic and Paralympic mascots. Japanese automaker…
DART #c_plus #python
Dynamic Animation and Robotics Toolkit — кроссплатформенная библиотека с открытым исходным кодом. Распространяется по лицензии BSD-2-Clause. DART создана Лабораторией графики и Humanoid Robotics Lab в Институте технологий штата Джорджия. Библиотека применяется в робототехнике и компьютерной анимации. Она оснащена многотельным динамическим симулятором и различными кинематическими инструментами для управления и планирования движения.
DART предоставляет структуры данных и алгоритмы для кинематических и динамических приложений в области робототехники и компьютерной анимации. Использует обобщенные координаты для представления шарнирно-сочлененных систем твердого тела и алгоритма сочлененного тела Фезерстоуна для расчета динамики движения. Благодаря этому она выигрывает в точности и стабильности. DART предоставляет полный доступ к внутренним кинематическим и динамическим величинам, таким как матрица масс, кориолисовы и центробежные силы, матрицы преобразования и их производные. Инструментарий также обеспечивает эффективное вычисление якобиевых матриц для произвольных точек тела и координатных систем. Прямая кинематика и динамические значения обновляются автоматически. Это обеспечивает герметичность кода.
Dynamic Animation and Robotics Toolkit поддерживает многочисленные типы, суставов, примитивные и произвольные формы тела с настраиваемыми инерционными и материальными свойствами, гибкое моделирование скелета, модульный каркас кинематики. Библиотека также умеет обрабатывать информацию о столкновениях и позволяет добиться высокой производительности для шарнирных динамических систем, используя Lie Group и гибридные алгоритмы Featherstone.
Код на GitHub: https://github.com/dartsim/dart
API документация (C++): https://dartsim.github.io/dart/
Учебник по DART для C++: https://dartsim.github.io/tutorials_introduction.html
Dynamic Animation and Robotics Toolkit — кроссплатформенная библиотека с открытым исходным кодом. Распространяется по лицензии BSD-2-Clause. DART создана Лабораторией графики и Humanoid Robotics Lab в Институте технологий штата Джорджия. Библиотека применяется в робототехнике и компьютерной анимации. Она оснащена многотельным динамическим симулятором и различными кинематическими инструментами для управления и планирования движения.
DART предоставляет структуры данных и алгоритмы для кинематических и динамических приложений в области робототехники и компьютерной анимации. Использует обобщенные координаты для представления шарнирно-сочлененных систем твердого тела и алгоритма сочлененного тела Фезерстоуна для расчета динамики движения. Благодаря этому она выигрывает в точности и стабильности. DART предоставляет полный доступ к внутренним кинематическим и динамическим величинам, таким как матрица масс, кориолисовы и центробежные силы, матрицы преобразования и их производные. Инструментарий также обеспечивает эффективное вычисление якобиевых матриц для произвольных точек тела и координатных систем. Прямая кинематика и динамические значения обновляются автоматически. Это обеспечивает герметичность кода.
Dynamic Animation and Robotics Toolkit поддерживает многочисленные типы, суставов, примитивные и произвольные формы тела с настраиваемыми инерционными и материальными свойствами, гибкое моделирование скелета, модульный каркас кинематики. Библиотека также умеет обрабатывать информацию о столкновениях и позволяет добиться высокой производительности для шарнирных динамических систем, используя Lie Group и гибридные алгоритмы Featherstone.
Код на GitHub: https://github.com/dartsim/dart
API документация (C++): https://dartsim.github.io/dart/
Учебник по DART для C++: https://dartsim.github.io/tutorials_introduction.html
Forwarded from Журнал «Код»
Исследователи создали крошечных роботов для лечения людей изнутри. Они работают за счёт вибраций
Запустить нанобота внутрь человека и позволить ему лечить то, до чего хирург добраться не может — казалось бы, не особо сложно. Но есть проблема: на робота нужно прицепить батарею, и тогда он становится уже не таким маленьким. Исследователи из Технологического института Джорджии придумали решение: они создали крошечных роботов, которые работают за счёт вибраций.
К ботам длиной 2 мм и весом 5 мг прикрепили пьезоэлектрический привод, который преобразует вибрации в энергию и наоборот. Достаточно направить на человека источник ультразвука или даже просто поставить рядом аудиосистему, и роботы начнут функционировать.
Пока роботы довольно глупые и почти ничего не умеют. Они могут лишь двигаться в одном направлении и не несут на себе ничего, с помощью чего можно было бы лечить внутренние органы. Но проблему подачи энергии исследователи решили, а это главное. Теперь появление полноценных наноботов-хирургов — лишь вопрос времени.
https://www.youtube.com/watch?v=JgEnX7kADNE
Запустить нанобота внутрь человека и позволить ему лечить то, до чего хирург добраться не может — казалось бы, не особо сложно. Но есть проблема: на робота нужно прицепить батарею, и тогда он становится уже не таким маленьким. Исследователи из Технологического института Джорджии придумали решение: они создали крошечных роботов, которые работают за счёт вибраций.
К ботам длиной 2 мм и весом 5 мг прикрепили пьезоэлектрический привод, который преобразует вибрации в энергию и наоборот. Достаточно направить на человека источник ультразвука или даже просто поставить рядом аудиосистему, и роботы начнут функционировать.
Пока роботы довольно глупые и почти ничего не умеют. Они могут лишь двигаться в одном направлении и не несут на себе ничего, с помощью чего можно было бы лечить внутренние органы. Но проблему подачи энергии исследователи решили, а это главное. Теперь появление полноценных наноботов-хирургов — лишь вопрос времени.
https://www.youtube.com/watch?v=JgEnX7kADNE
YouTube
This Tiny Robot Made at Georgia Tech is Barely Visible
Georgia Tech researchers have developed a micro-robot that’s almost too small to see. We sized it up with a penny so you can see just how small it is. Check out this example of of artificial intelligence innovation.
BlazeFace – мгновенное распознавание лиц на мобильных устройствах
Исследователи из Google представили новый фреймворк BlazeFace, который в разы ускоряет распознавание лиц. Он оптимизирован для использования на мобильных графических процессорах и обрабатывает кадры с частотой до 1000 FPS на флагманских смартфонах.
Технически BlazeFace базируется на платформе Single Shot Multibox Detector и свёрточных нейронных сетях MobileNet V1 / V2. По сравнению с ней, у BlazeFace был увеличен размер глубоких слоёв, что позволило расширить рецептивное поле и оперировать более высокими уровнями абстракции.
Дополнительно исследователи добавили в конвейер видеообработки шесть координат для оценки вращения лица и создали отдельные математические модели для фронтальной и тыловой камер смартфона.
BlazeFace предварительно обучался на наборе данных из 66 000 изображений, а его производительность оценивалась на рандомизированном наборе из 2000 портретов. В задаче распознавания лица при использовании селфи-камеры BlazeFace показал среднюю точность 98,61%.
Удивительно, что алгоритм от Google оказался быстрее всего на Apple iPhone XS. На нём распознавание лиц выполняется за 0,6 мс, в то время как оригинальному MobileNetV2 требуется 2,1 мс. В паре с флагманом Google Pixel 3 фреймворк BlazeFace демонстрирует 3,4 мс (по сравнению с 7,2 мс у MobileNetV2). Худший результат у Huawei P20: 5,8 мс (BlazeFace) против 21,3 мс (MobileNetV2).
Исследователи поясняют, что BlazeFace может использоваться практически в любой мобильной системе компьютерного зрения, но задача распознавания лиц – одна из самых актуальных на сегодня.
Источник: https://arxiv.org/pdf/1907.05047.pdf
Исследователи из Google представили новый фреймворк BlazeFace, который в разы ускоряет распознавание лиц. Он оптимизирован для использования на мобильных графических процессорах и обрабатывает кадры с частотой до 1000 FPS на флагманских смартфонах.
Технически BlazeFace базируется на платформе Single Shot Multibox Detector и свёрточных нейронных сетях MobileNet V1 / V2. По сравнению с ней, у BlazeFace был увеличен размер глубоких слоёв, что позволило расширить рецептивное поле и оперировать более высокими уровнями абстракции.
Дополнительно исследователи добавили в конвейер видеообработки шесть координат для оценки вращения лица и создали отдельные математические модели для фронтальной и тыловой камер смартфона.
BlazeFace предварительно обучался на наборе данных из 66 000 изображений, а его производительность оценивалась на рандомизированном наборе из 2000 портретов. В задаче распознавания лица при использовании селфи-камеры BlazeFace показал среднюю точность 98,61%.
Удивительно, что алгоритм от Google оказался быстрее всего на Apple iPhone XS. На нём распознавание лиц выполняется за 0,6 мс, в то время как оригинальному MobileNetV2 требуется 2,1 мс. В паре с флагманом Google Pixel 3 фреймворк BlazeFace демонстрирует 3,4 мс (по сравнению с 7,2 мс у MobileNetV2). Худший результат у Huawei P20: 5,8 мс (BlazeFace) против 21,3 мс (MobileNetV2).
Исследователи поясняют, что BlazeFace может использоваться практически в любой мобильной системе компьютерного зрения, но задача распознавания лиц – одна из самых актуальных на сегодня.
Источник: https://arxiv.org/pdf/1907.05047.pdf
TensorFlow — это комплексная платформа с открытым исходным кодом для машинного обучения. Разработана компанией Google для решения задач построения и тренировки нейронной сети с целью автоматического нахождения и классификации образов. Распространяется по лицензии Apache License 2.0. Пользоваться платформой можно сразу на нескольких языках программмирования: Python, C++, Haskell, Java, Go и Swift.
Платформа имеет всеобъемлющую, гибкую экосистему инструментов и библиотек. Это позволяет исследователям использовать современные технологии ML, а разработчикам помогает создавать и развертывать приложения на базе ML. TensorFlow предлагает несколько уровней абстракции, поэтому вы можете выбрать подходящий не составит труда. Платформа позволит вам создавать и обучать модели с помощью высокоуровневого API-интерфейса Keras. Быстрое выполнение обеспечивает быструю итерацию и понятную отладку. TensorFlow также поддерживает экосистему дополнительных библиотек и моделей для экспериментов, включая Ragged Tensors, TensorFlow Probability, Tensor2Tensor и BERT.
Библиотека в основном применяется для исследований и разработки собственных продуктов Google. Она подходит для автоматизированной аннотации изображений, например как DeepDream. TensorFlow также позволяет проводить обучение генеративно-состязательных сетей (GAN).
TensorFlow — вещь популярная. Большое количество компаний пользуется ей на постоянной основе: Airbnb, Coca-Cola, DeepMind, GE Healthcare, Google, Intel, Nersc, Twitter. Airbus с помощью библиотеки извлекает из спутниковых снимков ценную информацию. А Ge Healthcare воспользовался платформой, чтобы обучить нейронную сеть идентифицировать специфическую анатомию на МРТ головного мозга.
Библиотека на GitHub: https://github.com/tensorflow/tensorflow
Туториалы по TensorFlow: https://www.tensorflow.org/tutorials/
API документация для TensorFlow: https://www.tensorflow.org/api
Скачать TensorFlow: https://www.tensorflow.org/install
Как компании используют TensorFlow: https://www.tensorflow.org/about/case-studies/
Платформа имеет всеобъемлющую, гибкую экосистему инструментов и библиотек. Это позволяет исследователям использовать современные технологии ML, а разработчикам помогает создавать и развертывать приложения на базе ML. TensorFlow предлагает несколько уровней абстракции, поэтому вы можете выбрать подходящий не составит труда. Платформа позволит вам создавать и обучать модели с помощью высокоуровневого API-интерфейса Keras. Быстрое выполнение обеспечивает быструю итерацию и понятную отладку. TensorFlow также поддерживает экосистему дополнительных библиотек и моделей для экспериментов, включая Ragged Tensors, TensorFlow Probability, Tensor2Tensor и BERT.
Библиотека в основном применяется для исследований и разработки собственных продуктов Google. Она подходит для автоматизированной аннотации изображений, например как DeepDream. TensorFlow также позволяет проводить обучение генеративно-состязательных сетей (GAN).
TensorFlow — вещь популярная. Большое количество компаний пользуется ей на постоянной основе: Airbnb, Coca-Cola, DeepMind, GE Healthcare, Google, Intel, Nersc, Twitter. Airbus с помощью библиотеки извлекает из спутниковых снимков ценную информацию. А Ge Healthcare воспользовался платформой, чтобы обучить нейронную сеть идентифицировать специфическую анатомию на МРТ головного мозга.
Библиотека на GitHub: https://github.com/tensorflow/tensorflow
Туториалы по TensorFlow: https://www.tensorflow.org/tutorials/
API документация для TensorFlow: https://www.tensorflow.org/api
Скачать TensorFlow: https://www.tensorflow.org/install
Как компании используют TensorFlow: https://www.tensorflow.org/about/case-studies/