BRT: обнаружить и уничтожить в реальном времени
Калифорнийская компания Blue River Technology представила интеллектуальную систему борьбы с сорняками. Они создали гербицидную установку с ИИ, которая прицельно опрыскивает сорные растения, не повреждая посевы.
За трактором тянется широкая рама с десятками форсунок, для каждой из которых реализовано раздельное управление. Они подключены к ёмкостям с гербицидами и по умолчанию все закрыты.
Перед форсунками установлен массив камер, выполняющих съёмку с высоким разрешением.
Свёрточная нейронная сеть на основе опенсорсной библиотеки PyTorch анализирует изображение растений и распознаёт сорняки, нанося их на карту в режиме реального времени.
Спустя доли секунды контроллер подаёт команду открыться той форсунке, которая находится над сорняком и опрыскивает его с точностью до пары сантиметров.
Режим SLAM (одновременная локализация и построение карты) позволяет сразу выполнять обработку полей без предварительного картографирования.
Он требует высокой производительности, поэтому в качестве аппаратной платформы был выбран вычислительный блок на основе NVIDIA Jetson AGX Xavier.
Благодаря разработке Blue River Technology, расход гербицидов сокращается в разы и, что более важно, они практически не попадают в культурные растения.
В первых испытаниях за рулём были сотрудники компании, чтобы оценить работу системы непосредственно «в полевых условиях».
Как коммерческий продукт она будет предлагаться в беспилотном варианте. Навигационный модуль AutoTrac позволяет обрабатывать поля полностью автономно.
Видео: YouTube
Источник: The Robot Report
Калифорнийская компания Blue River Technology представила интеллектуальную систему борьбы с сорняками. Они создали гербицидную установку с ИИ, которая прицельно опрыскивает сорные растения, не повреждая посевы.
За трактором тянется широкая рама с десятками форсунок, для каждой из которых реализовано раздельное управление. Они подключены к ёмкостям с гербицидами и по умолчанию все закрыты.
Перед форсунками установлен массив камер, выполняющих съёмку с высоким разрешением.
Свёрточная нейронная сеть на основе опенсорсной библиотеки PyTorch анализирует изображение растений и распознаёт сорняки, нанося их на карту в режиме реального времени.
Спустя доли секунды контроллер подаёт команду открыться той форсунке, которая находится над сорняком и опрыскивает его с точностью до пары сантиметров.
Режим SLAM (одновременная локализация и построение карты) позволяет сразу выполнять обработку полей без предварительного картографирования.
Он требует высокой производительности, поэтому в качестве аппаратной платформы был выбран вычислительный блок на основе NVIDIA Jetson AGX Xavier.
Благодаря разработке Blue River Technology, расход гербицидов сокращается в разы и, что более важно, они практически не попадают в культурные растения.
В первых испытаниях за рулём были сотрудники компании, чтобы оценить работу системы непосредственно «в полевых условиях».
Как коммерческий продукт она будет предлагаться в беспилотном варианте. Навигационный модуль AutoTrac позволяет обрабатывать поля полностью автономно.
Видео: YouTube
Источник: The Robot Report
YouTube
See & Spray - Blue River Technology's precision weed control machine
Blue River Technology's See & Spray machine equips farmers to apply herbicide only to weeds, using less than 1/10th the herbicide of typical weed control. See & Spray uses machine learning and robotics to bring to market the world's first machine that allows…
Дрон Starship чуть не утонул в канале
Британская компания Starship представила одноимённых роботов в 2015 году. С марта 2020 года на их основе началось коммерческое развёртывание сервиса доставки.
Первым в программу попал небольшой городок Милтон-Кинс на юго-востоке Англии. «Поначалу из-за новизны роботов был очевидный всплеск их использования, но уже сейчас они просто стали частью нашей повседневной жизни», — сказал мэр Сэм Крукс.
За неполные полгода колёсные дроны хорошо зарекомендовали себя. Они развозили пиццу, напитки, заказы из продуктовых магазинов, а также мелкие непродовольственные товары.
До сих пор Starship удавалось обходиться без серьёзных инцидентов, так как диспетчер отслеживает положение всех роботов в режиме реального времени.
При необходимости он высылает техника, которому чаще всего приходилось менять батарею или освобождать застрявшее колесо.
Дроны считались очень надёжными, поскольку они используют 10 камер, ультразвуковые датчики, радар и воспринимают других участников движения лучше опытного водителя.
Более того, роботы запрограммированы останавливаться «в любой непонятной ситуации». Жители порой сообщали о «замерших» посреди улицы дронах, и их быстро забирали.
Однако в конце июля произошло первое ЧП, которое пока не получило официального объяснения.
Жительница Милтон-Кинса Бекс Морган гуляла со своей собакой и увидела, как робот Starship на приличной скорости съехал прямо в канал. Он даже не пытался остановиться и уверенно мчался к воде, словно там была дорога.
Starship попыталась не допустить огласки, но Бекс Морган опубликовала снимки плавающего робота в Facebook, и новость быстро разошлась.
Компании пришлось сделать официальное заявление: «Мы во всём разберёмся. Если кто-то увидит робота плывущим, или оказавшимся в какой-либо другой странной ситуации, сообщите подробности по электронной почте [email protected]».
Напомним, что в 2017 году подобный случай произошёл с роботом-охранником Knightscope K5. Он патрулировал торговый центр не первый день, но точно также внезапно решил съехать в воду. Его пришлось вылавливать из бассейна.
Возможно, используемые в них модели обучения недостаточно хорошо классифицируют водоёмы и принимают водную гладь за твёрдую поверхность, по которой так удобно срезать путь.
Источник: Fox Bussiness
Британская компания Starship представила одноимённых роботов в 2015 году. С марта 2020 года на их основе началось коммерческое развёртывание сервиса доставки.
Первым в программу попал небольшой городок Милтон-Кинс на юго-востоке Англии. «Поначалу из-за новизны роботов был очевидный всплеск их использования, но уже сейчас они просто стали частью нашей повседневной жизни», — сказал мэр Сэм Крукс.
За неполные полгода колёсные дроны хорошо зарекомендовали себя. Они развозили пиццу, напитки, заказы из продуктовых магазинов, а также мелкие непродовольственные товары.
До сих пор Starship удавалось обходиться без серьёзных инцидентов, так как диспетчер отслеживает положение всех роботов в режиме реального времени.
При необходимости он высылает техника, которому чаще всего приходилось менять батарею или освобождать застрявшее колесо.
Дроны считались очень надёжными, поскольку они используют 10 камер, ультразвуковые датчики, радар и воспринимают других участников движения лучше опытного водителя.
Более того, роботы запрограммированы останавливаться «в любой непонятной ситуации». Жители порой сообщали о «замерших» посреди улицы дронах, и их быстро забирали.
Однако в конце июля произошло первое ЧП, которое пока не получило официального объяснения.
Жительница Милтон-Кинса Бекс Морган гуляла со своей собакой и увидела, как робот Starship на приличной скорости съехал прямо в канал. Он даже не пытался остановиться и уверенно мчался к воде, словно там была дорога.
Starship попыталась не допустить огласки, но Бекс Морган опубликовала снимки плавающего робота в Facebook, и новость быстро разошлась.
Компании пришлось сделать официальное заявление: «Мы во всём разберёмся. Если кто-то увидит робота плывущим, или оказавшимся в какой-либо другой странной ситуации, сообщите подробности по электронной почте [email protected]».
Напомним, что в 2017 году подобный случай произошёл с роботом-охранником Knightscope K5. Он патрулировал торговый центр не первый день, но точно также внезапно решил съехать в воду. Его пришлось вылавливать из бассейна.
Возможно, используемые в них модели обучения недостаточно хорошо классифицируют водоёмы и принимают водную гладь за твёрдую поверхность, по которой так удобно срезать путь.
Источник: Fox Bussiness
Motional — крупнейший разработчик беспилотных машин
Компания Hyundai совместно с Aptiv создали совместное предприятие для производства беспилотных автомобилей. Оно будет называться Motional и получит как частные инвестиции, так и государственную поддержку.
Сейчас в Motional работают инженеры, чья машина совершила первую междугороднюю автономную поездку (из Нью-Йорка в Сан-Франциско, 2015 г.) и создавшие первый в мире сервис роботакси (Сингапур, 2016).
Анонс нового предприятия состоялся ещё в марте, но до сих пор не было известно никаких подробностей. Теперь известно, что Motional станет самой дорогой компанией данного профиля во всём Азиатско-Тихоокеанском регионе.
Hyundai вместе с Kia Motors вложит $1,6 млрд собственных средств, из которых $400 млн. пойдут на исследование и разработки. Общий объём первого раунда инвестиций составит $4 млрд.
Более того, в период с 2021 по 2027 годы правительство Южной Кореи планирует потратить на развитие технологий автономного вождения $1,4 трлн, и значительную часть этих средств получит Motional.
По условиям правительственной программы Motional должна для этого запустить полностью автономный парк автомобилей для небольшого числа клиентов к 2024 году и сделать коммерчески доступный сервис для широкой публики к 2027 году.
Условия выглядят реалистичными хотя бы потому, что за последние два года парк автономных такси Aptiv (в партнерстве с Lyft) совершил более 100 000 поездок в Лас-Вегасе.
Кроме того, в прошлом году Hyundai работала с китайской компанией Pony.ai над тестированием беспилотных такси в Ирвине (штат Калифорния).
Пока все они совершали регулярные рейсы с водителем-техником в салоне, но это было скорее продиктовано требованием закона, чем реальной необходимостью.
Источник: The Verge
Компания Hyundai совместно с Aptiv создали совместное предприятие для производства беспилотных автомобилей. Оно будет называться Motional и получит как частные инвестиции, так и государственную поддержку.
Сейчас в Motional работают инженеры, чья машина совершила первую междугороднюю автономную поездку (из Нью-Йорка в Сан-Франциско, 2015 г.) и создавшие первый в мире сервис роботакси (Сингапур, 2016).
Анонс нового предприятия состоялся ещё в марте, но до сих пор не было известно никаких подробностей. Теперь известно, что Motional станет самой дорогой компанией данного профиля во всём Азиатско-Тихоокеанском регионе.
Hyundai вместе с Kia Motors вложит $1,6 млрд собственных средств, из которых $400 млн. пойдут на исследование и разработки. Общий объём первого раунда инвестиций составит $4 млрд.
Более того, в период с 2021 по 2027 годы правительство Южной Кореи планирует потратить на развитие технологий автономного вождения $1,4 трлн, и значительную часть этих средств получит Motional.
По условиям правительственной программы Motional должна для этого запустить полностью автономный парк автомобилей для небольшого числа клиентов к 2024 году и сделать коммерчески доступный сервис для широкой публики к 2027 году.
Условия выглядят реалистичными хотя бы потому, что за последние два года парк автономных такси Aptiv (в партнерстве с Lyft) совершил более 100 000 поездок в Лас-Вегасе.
Кроме того, в прошлом году Hyundai работала с китайской компанией Pony.ai над тестированием беспилотных такси в Ирвине (штат Калифорния).
Пока все они совершали регулярные рейсы с водителем-техником в салоне, но это было скорее продиктовано требованием закона, чем реальной необходимостью.
Источник: The Verge
The Verge
Hyundai’s autonomous vehicle project with Aptiv will now be called Motional
The South Korean automaker says it will spend $1.6 billion to launch a driverless taxi service.
CaseCrawler приделает смартфону ноги
Исследователи из Лаборатории биоробототехники Сеульского национального университета разработали чехол, превращающий смартфон в ползающего робота.
Он получил название CaseCrawler и может выполнять не только развлекательные функции.
С ним гаджет сможет сам добраться до беспроводной зарядки или прибежать к хозяину.
Лёгкий низкопрофильный чехол с мотором толщиной всего 16 мм подойдёт для любого смартфона и лишь слегка удлинит его.
В конструкции каждой из шести ног CaseCrawler имитируется коленный сустав, который может пассивно сгибаться только в одном направлении.
Это позволяет сохранять вектор движения и выдерживать сравнительно большие нагрузки. При массе 23 грамма CaseCrawler способен перемещать груз массой до 300 г.
Асинхронная работа ног приводит к дёргающейся походке, которая снижает скорость передвижения. Однако именно это позволяет преодолевать различные препятствия.
Например, в ролике ниже CaseCrawler перетаскивает смартфон через лежащую книгу, которая имеет такую же высоту (16 мм) как и сам робот.
При наличии внешней системы навигации в помещении, CaseCrawler можно использовать для выполнения различных повседневных задач.
Например, он может залезть под кровать в поисках упавших вещей, используя вспышку и камеру смартфона, и даже помочь достать их, подталкивая наружу.
Другой сценарий — смартфон в CaseCrawler прибежит к упавшему ̶а̶л̶к̶о̶г̶о̶л̶и̶к̶у̶ инвалиду, который не в состоянии подняться сам, и даст возможность позвать на помощь.
Видео: YouTube
Источник: IEEE Robotics and Automation Letters
Исследователи из Лаборатории биоробототехники Сеульского национального университета разработали чехол, превращающий смартфон в ползающего робота.
Он получил название CaseCrawler и может выполнять не только развлекательные функции.
С ним гаджет сможет сам добраться до беспроводной зарядки или прибежать к хозяину.
Лёгкий низкопрофильный чехол с мотором толщиной всего 16 мм подойдёт для любого смартфона и лишь слегка удлинит его.
В конструкции каждой из шести ног CaseCrawler имитируется коленный сустав, который может пассивно сгибаться только в одном направлении.
Это позволяет сохранять вектор движения и выдерживать сравнительно большие нагрузки. При массе 23 грамма CaseCrawler способен перемещать груз массой до 300 г.
Асинхронная работа ног приводит к дёргающейся походке, которая снижает скорость передвижения. Однако именно это позволяет преодолевать различные препятствия.
Например, в ролике ниже CaseCrawler перетаскивает смартфон через лежащую книгу, которая имеет такую же высоту (16 мм) как и сам робот.
При наличии внешней системы навигации в помещении, CaseCrawler можно использовать для выполнения различных повседневных задач.
Например, он может залезть под кровать в поисках упавших вещей, используя вспышку и камеру смартфона, и даже помочь достать их, подталкивая наружу.
Другой сценарий — смартфон в CaseCrawler прибежит к упавшему ̶а̶л̶к̶о̶г̶о̶л̶и̶к̶у̶ инвалиду, который не в состоянии подняться сам, и даст возможность позвать на помощь.
Видео: YouTube
Источник: IEEE Robotics and Automation Letters
YouTube
CaseCrawler: A Lightweight and Low-Profile Crawling Phone Case Robot
Seoul National University researchers developed a lightweight and low-profile crawling phone case robot.
Published in IEEE Robotics and Automation Letters: https://ieeexplore.ieee.org/document/9143416
J. Lee, G. P. Jung, S. M. Baek, S. H. Chae, S. Yim,…
Published in IEEE Robotics and Automation Letters: https://ieeexplore.ieee.org/document/9143416
J. Lee, G. P. Jung, S. M. Baek, S. H. Chae, S. Yim,…
i350 Edge — доступная основа бытовых ИИ-систем
Компания MediaTek представила платформу i350 Edge для приложений AIoT и компонентов умного дома. Она выполняет многие ИИ-ориентированные задачи без использования облачных сервисов, что упрощает развёртывание и сокращает время реакции.
i350 Edge построена на базе обновленного чипа MediaTek i300 (14 нм) с поддержкой инструкций Arm NEON.
Система на кристалле содержит четыре ядра Cortex-A53 (до 2,0 ГГц), унифицированную кэш-память L2 512 КБ, интегрированный DSP и нейропроцессор MediaTek APU 1.0 AI (500 МГц).
Последний аппаратно ускоряет алгоритмы, типичные для нейросетей. Он задействован в приложениях обработки изображений и голоса, распознавании объектов и жестовом управлении.
Основные характеристики MediaTek i350 Edge представлены ниже:
❖ ЦП: 4x Arm Cortex-A53;
❖ ГП: Arm Mali-G52 MC1 (800 МГц);
❖ оперативная память: LPDDR4 / LPDDR4X/LPDDR3/DDR3;
❖ флэш-память: eMMC 5.1;
❖ интерфейсы дисплея: LVDS, HDMI, MIPI DSI. Поддерживается двухдисплейная конфигурация 2x1920×1200;
❖ камера: 13 Мп. Поддерживается запись видео в режиме 1080p@30 FPS и декодирование видео 1080p@60p (H.264/HEVC/MP4/VP9);
❖ звук: HiFi4 DSP, 8-канальный вход PDM, 8-канальный вход TDM;
❖ сеть: 100 Мбит Fast Ethernet + двухдиапазонный 802.11b/g/n/ac и Bluetooth 5.0.
Дополнительно заявлена поддержка спутниковой навигации и FM-радио, USB 2.0 OTG и GPIO.
Кроме мейнстримной платформы i350 Edge, в арсенале MediaTek есть как более бюджетные (i300A / i300B), так и более продвинутые (i500) решения.
Разработчики могут заказать через Seeed Studio комплект из платы Pumpkin на базе i300(A/B)/i350/i500 и набора периферийных устройств. Цены начинаются от $199.
Для всех своих платформ MediaTek предоставляет 7 лет расширенной технической поддержки.
Источник: MediaTek
Компания MediaTek представила платформу i350 Edge для приложений AIoT и компонентов умного дома. Она выполняет многие ИИ-ориентированные задачи без использования облачных сервисов, что упрощает развёртывание и сокращает время реакции.
i350 Edge построена на базе обновленного чипа MediaTek i300 (14 нм) с поддержкой инструкций Arm NEON.
Система на кристалле содержит четыре ядра Cortex-A53 (до 2,0 ГГц), унифицированную кэш-память L2 512 КБ, интегрированный DSP и нейропроцессор MediaTek APU 1.0 AI (500 МГц).
Последний аппаратно ускоряет алгоритмы, типичные для нейросетей. Он задействован в приложениях обработки изображений и голоса, распознавании объектов и жестовом управлении.
Основные характеристики MediaTek i350 Edge представлены ниже:
❖ ЦП: 4x Arm Cortex-A53;
❖ ГП: Arm Mali-G52 MC1 (800 МГц);
❖ оперативная память: LPDDR4 / LPDDR4X/LPDDR3/DDR3;
❖ флэш-память: eMMC 5.1;
❖ интерфейсы дисплея: LVDS, HDMI, MIPI DSI. Поддерживается двухдисплейная конфигурация 2x1920×1200;
❖ камера: 13 Мп. Поддерживается запись видео в режиме 1080p@30 FPS и декодирование видео 1080p@60p (H.264/HEVC/MP4/VP9);
❖ звук: HiFi4 DSP, 8-канальный вход PDM, 8-канальный вход TDM;
❖ сеть: 100 Мбит Fast Ethernet + двухдиапазонный 802.11b/g/n/ac и Bluetooth 5.0.
Дополнительно заявлена поддержка спутниковой навигации и FM-радио, USB 2.0 OTG и GPIO.
Кроме мейнстримной платформы i350 Edge, в арсенале MediaTek есть как более бюджетные (i300A / i300B), так и более продвинутые (i500) решения.
Разработчики могут заказать через Seeed Studio комплект из платы Pumpkin на базе i300(A/B)/i350/i500 и набора периферийных устройств. Цены начинаются от $199.
Для всех своих платформ MediaTek предоставляет 7 лет расширенной технической поддержки.
Источник: MediaTek
Хамелеоновый язык для роботов и дронов
Исследователи из Сеульского национального университета науки и технологий (SeoulTech, Южная Корея) разработали универсальный манипулятор, выстреливающий как язык хамелеона.
Под названием Snatcher он может использоваться дронами и роботами для взаимодействия с другими объектами на безопасном расстоянии.
Уникальность Snatcher заключается в том, что он сочетает в себе характеристики быстрого захвата и портативный форм-фактор.
Габариты устройства составляют 120 x 85 x 85 мм при массе менее 120 граммов. При этом Snatcher способен схватить объект массой до 30 граммов с расстояния 80 сантиметров менее чем за 0,6 секунды.
Относительно небольшой размер Snatcher означает, что его можно установить на коммерчески доступные дроны. Разработчики уже протестировали его на DJI Phantom.
Конструкция манипулятора имитирует поведение языка хамелеона, который выстреливает на две длины тела ящерицы и хватает насекомых до того, как они успевают улететь.
По своей сути Snatcher — пружинное устройство, которое управляется активной муфтой. Роль языка в ней выполняет стальная лента, которая раскручивается и сматывается двумя зубчатыми колёсами.
Пока Snatcher находится на стадии демонстрации концепции. Основное совершенствование механизма заключается в увеличении его грузоподъёмности и создании надёжного захвата, заменяющего простой крючок
«Мы планируем сделать самофиксирующийся захват, который будет срабатывать при контакте с целевым объектом. Такой уже можно использовать на дронах для доставки лёгких грузов», — поясняет Кванг-Пиль Юнг, один из авторов исследования.
Видео: YouTube
Источник: IEEE Xplore
Исследователи из Сеульского национального университета науки и технологий (SeoulTech, Южная Корея) разработали универсальный манипулятор, выстреливающий как язык хамелеона.
Под названием Snatcher он может использоваться дронами и роботами для взаимодействия с другими объектами на безопасном расстоянии.
Уникальность Snatcher заключается в том, что он сочетает в себе характеристики быстрого захвата и портативный форм-фактор.
Габариты устройства составляют 120 x 85 x 85 мм при массе менее 120 граммов. При этом Snatcher способен схватить объект массой до 30 граммов с расстояния 80 сантиметров менее чем за 0,6 секунды.
Относительно небольшой размер Snatcher означает, что его можно установить на коммерчески доступные дроны. Разработчики уже протестировали его на DJI Phantom.
Конструкция манипулятора имитирует поведение языка хамелеона, который выстреливает на две длины тела ящерицы и хватает насекомых до того, как они успевают улететь.
По своей сути Snatcher — пружинное устройство, которое управляется активной муфтой. Роль языка в ней выполняет стальная лента, которая раскручивается и сматывается двумя зубчатыми колёсами.
Пока Snatcher находится на стадии демонстрации концепции. Основное совершенствование механизма заключается в увеличении его грузоподъёмности и создании надёжного захвата, заменяющего простой крючок
«Мы планируем сделать самофиксирующийся захват, который будет срабатывать при контакте с целевым объектом. Такой уже можно использовать на дронах для доставки лёгких грузов», — поясняет Кванг-Пиль Юнг, один из авторов исследования.
Видео: YouTube
Источник: IEEE Xplore
YouTube
Chameleon-Inspired Shooting Tongue for Robots
A bioinspired device called Snatcher could help robots quickly retrieve objects without getting too close to them.
Learn more: https://spectrum.ieee.org/tech-talk/robotics/robotics-hardware/robotic-chameleon-tongue-snatches-objects
See the full paper: “Snatcher:…
Learn more: https://spectrum.ieee.org/tech-talk/robotics/robotics-hardware/robotic-chameleon-tongue-snatches-objects
See the full paper: “Snatcher:…
Ребята из команды Видеоаналитики МТС рассказали, как защитить стриминговую площадку от взрослого контента, какую роль в этом сыграли составители компиляций из лучших моментов в играх и сериалах на платформе YouTube и как отличить порнографию от сумо.
Также они поделились своим подходом к составлению датасетов, на которых нейросетевые модели «тренируются» отличать развлекательный контент от NSFW.
В целом, разработанные компанией методы помогли снизить время проверки платформы модераторами в несколько раз.
Подробнее читайте по ссылке: https://habr.com/ru/company/ru_mts/blog/515000/
Также они поделились своим подходом к составлению датасетов, на которых нейросетевые модели «тренируются» отличать развлекательный контент от NSFW.
В целом, разработанные компанией методы помогли снизить время проверки платформы модераторами в несколько раз.
Подробнее читайте по ссылке: https://habr.com/ru/company/ru_mts/blog/515000/
Хабр
Не те игрушки: как мы научили нейросеть бороться с порно в стримах
Всем привет, меня зовут Олег, я занимаюсь компьютерным зрением в команде Видеоаналитики МТС и сегодня расскажу вам, как мы защищаем от небезопасного контента стриминговую платформу WASD.tv, в...
Forwarded from КиберПанк | Технологии Будущего | Technology
This media is not supported in your browser
VIEW IN TELEGRAM
Робот Alfred подстроится под вас и будет помогать в работе
Alfred - это первый робот-помощник с искусственным интеллектом, который передвигается на двух колесиках и следует за своим хозяином.
Робот небольшого размера легко обходит преграды на своем пути и не упадет со стола за счет встроенного датчика обнаружения препятствий и способности рассчитывать расстояние.
С помощью цифрового помощника можно сканировать документы до формата А3 с последующим их сохранением в памяти компьютера или смартфона, делать фотографии и снимать видео, а также использовать проектор.
Alfred - это первый робот-помощник с искусственным интеллектом, который передвигается на двух колесиках и следует за своим хозяином.
Робот небольшого размера легко обходит преграды на своем пути и не упадет со стола за счет встроенного датчика обнаружения препятствий и способности рассчитывать расстояние.
С помощью цифрового помощника можно сканировать документы до формата А3 с последующим их сохранением в памяти компьютера или смартфона, делать фотографии и снимать видео, а также использовать проектор.
Locomation испытала автономные грузовики
Молодая компания Locomation была основана в Питтсбурге бывшими сотрудниками Центра робототехники Университета Карнеги-Меллона в 2018 году. Сейчас она завершила пилотный проект и делится первыми результатами.
Совместно с Wilson Logistics (экспедиция грузов) и Aon (управление рисками) Locomation испытала в реальных условиях свою главную разработку: автономный конвой (ARCTM).
В нём водитель управляет первым грузовиком и может дистанционно контролировать остальные машины, следующие за ним. Ведомые машины в конвое максимально автономны и не требуют постоянного внимания.
Согласно действующему законодательству во время испытаний в кабине каждого грузовика находился инженер-техник, готовый взять управление на себя.
На завершающем этапе испытаний грузовые машины с системой ARCTM проехали в тандеме по маршруту длиной 420 миль из штата Орегон до Индианы.
Этот участок самый сложный в плане дорожных условий: на нём есть резкие повороты, большие перепады высот и сильные порывы ветра.
Запатентованная система в целом справилась с задачей, лишь несколько раз потребовав перехода на ручное управление. Большую часть времени техники ведомых машин просто собирали данные и «держали руку на пульсе».
Общий пробег машин за время всех тестов составил 5470 км, из которых около 2900 километров ARCTM действовала полностью автономно.
На следующем этапе Locomation планирует установить ARCTM на 124 грузовика и расширить географию испытаний на всю территорию США.
Обучение нейросетей займёт ещё несколько лет, прежде чем полностью автономные тандемы станут курсировать по американским дорогам.
Ожидается, что ARCTM обеспечит снижение эксплуатационных расходов на 30% и сэкономит около 8% топлива.
Возможно, в ближайшие годы у Locomation получится сделать то, что не удалось Starsky Robotics, которая обанкротилась в апреле 2020 года.
Источник: The Robot Report
Молодая компания Locomation была основана в Питтсбурге бывшими сотрудниками Центра робототехники Университета Карнеги-Меллона в 2018 году. Сейчас она завершила пилотный проект и делится первыми результатами.
Совместно с Wilson Logistics (экспедиция грузов) и Aon (управление рисками) Locomation испытала в реальных условиях свою главную разработку: автономный конвой (ARCTM).
В нём водитель управляет первым грузовиком и может дистанционно контролировать остальные машины, следующие за ним. Ведомые машины в конвое максимально автономны и не требуют постоянного внимания.
Согласно действующему законодательству во время испытаний в кабине каждого грузовика находился инженер-техник, готовый взять управление на себя.
На завершающем этапе испытаний грузовые машины с системой ARCTM проехали в тандеме по маршруту длиной 420 миль из штата Орегон до Индианы.
Этот участок самый сложный в плане дорожных условий: на нём есть резкие повороты, большие перепады высот и сильные порывы ветра.
Запатентованная система в целом справилась с задачей, лишь несколько раз потребовав перехода на ручное управление. Большую часть времени техники ведомых машин просто собирали данные и «держали руку на пульсе».
Общий пробег машин за время всех тестов составил 5470 км, из которых около 2900 километров ARCTM действовала полностью автономно.
На следующем этапе Locomation планирует установить ARCTM на 124 грузовика и расширить географию испытаний на всю территорию США.
Обучение нейросетей займёт ещё несколько лет, прежде чем полностью автономные тандемы станут курсировать по американским дорогам.
Ожидается, что ARCTM обеспечит снижение эксплуатационных расходов на 30% и сэкономит около 8% топлива.
Возможно, в ближайшие годы у Locomation получится сделать то, что не удалось Starsky Robotics, которая обанкротилась в апреле 2020 года.
Источник: The Robot Report
The Robot Report
Locomation finishes first pilot of human-guided autonomous freight hauling
Locomation and partner Wilson Logistics said their first successful pilot of the Autonomous Relay Convoy system is a self-driving milestone.
17-18 сентября пройдет главное мероприятие в области больших данных и машинного обучения — Big Data&AI Conference 2020.
Впервые конференция проводится в онлайн-формате.
Big Data&AI Conference 2020 это выбор для тех, кто не хочет пропустить актуальные практики от российских специалистов Data Science. В ходе конференции пройдут насыщенные треки для бизнеса и технических специалистов, научный семинар с информацией о новых разработках в области больших данных.
Богатый технический трек, в рамках которого выступят гуру Big Data, расскажет:
- как автоматически интерпретировать результаты скоринговых моделей;
- как учитывать неизвестные слова в языковых моделях алгоритмов обработки естественного языка;
- как построить систему, которая в реальном времени будет анализировать клики/действия и предлагать решение;
- как без написания кода создать систему для хранения и анализа данных - Low code platform;
- как построить и обучить нейронную сеть прямо в браузере и на десктопе клиента — модель tensorflow-js;
- как создать систему, оценивающую эмоциональную реакцию клиентов;
- как извлечь данные в реальном времени из DataLake и построить отчетность;
- как создать систему машинного зрения, которая сможет оценивать качество выпускаемой продукции и многое другое.
В качестве спикеров выступят сотрудники топовых компаний страны: ВТБ, Газпром Нефть, Сибур, Северсталь диджитал, РЖД, Интерфакс-ЛАБ, mos.ru, 1С и многие другие.
Если у вас есть интерес к технологиям Big Data и AI, купить билет по сниженной цене (до 1 сентября) можно тут: www.ai-conf.org
Впервые конференция проводится в онлайн-формате.
Big Data&AI Conference 2020 это выбор для тех, кто не хочет пропустить актуальные практики от российских специалистов Data Science. В ходе конференции пройдут насыщенные треки для бизнеса и технических специалистов, научный семинар с информацией о новых разработках в области больших данных.
Богатый технический трек, в рамках которого выступят гуру Big Data, расскажет:
- как автоматически интерпретировать результаты скоринговых моделей;
- как учитывать неизвестные слова в языковых моделях алгоритмов обработки естественного языка;
- как построить систему, которая в реальном времени будет анализировать клики/действия и предлагать решение;
- как без написания кода создать систему для хранения и анализа данных - Low code platform;
- как построить и обучить нейронную сеть прямо в браузере и на десктопе клиента — модель tensorflow-js;
- как создать систему, оценивающую эмоциональную реакцию клиентов;
- как извлечь данные в реальном времени из DataLake и построить отчетность;
- как создать систему машинного зрения, которая сможет оценивать качество выпускаемой продукции и многое другое.
В качестве спикеров выступят сотрудники топовых компаний страны: ВТБ, Газпром Нефть, Сибур, Северсталь диджитал, РЖД, Интерфакс-ЛАБ, mos.ru, 1С и многие другие.
Если у вас есть интерес к технологиям Big Data и AI, купить билет по сниженной цене (до 1 сентября) можно тут: www.ai-conf.org
Саранчу превратили в биороботов
Группа исследователей из Вашингтонского университета в Сент-Луисе разработала имплант, подключаемый к надглоточному нервному узлу саранчи.
С его помощью они могут частично направлять насекомых и регистрировать сигналы рецепторов обонятельного тракта.
Созданные «биороботы» удобны для обследования больших пространств. Например, их можно использовать с целью поиска взрывчатых веществ по характерному запаху.
Изначально было непонятно, как вообще акриды отреагируют на запахи веществ, которые не играли никакой роли в эволюции насекомых. Может быть, все интересующие нас запахи им одинаково безразличны?
Американские исследователи обратились за помощью к своим коллегам из Национального технологического института Малавии (Джайпур, Индия).
Этот институт известен своей лабораторией робототехники и машинной аналитики (RAMAN Lab, Robotics And Machine ANalytics Laboratory), в которой тоже проводили подобные эксперименты с насекомыми.
Совместными усилиями две группы создали лёгкий имплант, который не мешает движениям саранчи и позволяет уверенно считывать сигналы её сенсорной системы.
Затем с помощью алгоритмов машинного обучения декодировалась реакция насекомых на разные ароматические вещества и стимулировалось передвижение в направлении источника запаха.
Лабораторные тесты показали, что саранча с нейроимплантами по-разному реагирует на поступление в камеру паров от взрывчатки разного типа.
Регистрируемые сигналы строго специфичны для паров тринитротолуола, динитротолуола, гексогена, пентаэритриттетранитрата и нитрата аммония.
Время распознавания обонятельного паттерна составляет всего 500 мс, а насекомых можно натренировать двигаться в ту сторону, откуда запах сильнее.
Разработчики надеются, что в будущем рой насекомых «с электродами в голове» сможет находить взрывные устройства, ускоряя проверку багажа и обследование помещений сапёрами.
Источник: TechXplore
Группа исследователей из Вашингтонского университета в Сент-Луисе разработала имплант, подключаемый к надглоточному нервному узлу саранчи.
С его помощью они могут частично направлять насекомых и регистрировать сигналы рецепторов обонятельного тракта.
Созданные «биороботы» удобны для обследования больших пространств. Например, их можно использовать с целью поиска взрывчатых веществ по характерному запаху.
Изначально было непонятно, как вообще акриды отреагируют на запахи веществ, которые не играли никакой роли в эволюции насекомых. Может быть, все интересующие нас запахи им одинаково безразличны?
Американские исследователи обратились за помощью к своим коллегам из Национального технологического института Малавии (Джайпур, Индия).
Этот институт известен своей лабораторией робототехники и машинной аналитики (RAMAN Lab, Robotics And Machine ANalytics Laboratory), в которой тоже проводили подобные эксперименты с насекомыми.
Совместными усилиями две группы создали лёгкий имплант, который не мешает движениям саранчи и позволяет уверенно считывать сигналы её сенсорной системы.
Затем с помощью алгоритмов машинного обучения декодировалась реакция насекомых на разные ароматические вещества и стимулировалось передвижение в направлении источника запаха.
Лабораторные тесты показали, что саранча с нейроимплантами по-разному реагирует на поступление в камеру паров от взрывчатки разного типа.
Регистрируемые сигналы строго специфичны для паров тринитротолуола, динитротолуола, гексогена, пентаэритриттетранитрата и нитрата аммония.
Время распознавания обонятельного паттерна составляет всего 500 мс, а насекомых можно натренировать двигаться в ту сторону, откуда запах сильнее.
Разработчики надеются, что в будущем рой насекомых «с электродами в голове» сможет находить взрывные устройства, ускоряя проверку багажа и обследование помещений сапёрами.
Источник: TechXplore
Tech Xplore
Researchers one step closer to bomb-sniffing cyborg locusts
If you want to enhance a locust to be used as a bomb-sniffing bug, there are a few technical challenges that need solving before sending it into the field.
Dilly Drive — гибрид официанта и робота доставки
Южнокорейская компания Woowa Brothers запустила необычный сервис в районе Квангё, город Сувон. Шестиколёсные роботы с ИИ доставят еду на дом или к одному из столиков на территории парка в любое время суток.
Сервис работает через мобильное приложение Baemin. Сделать заказ можно через него, или просто отсканировав QR-код.
Эти коды размещены на столиках в парке и возле скамеек на городской площади. Они содержат названия блюд и географические координаты, так что заказ формируется автоматически.
Приложение быстро обрастает новыми функциями. Оно сразу показывало статус и положение робота в текущий момент времени, а последняя версия может отправлять уведомление заранее, когда робот будет подъезжать к вам.
Заказы обрабатывает единая служба, распределяющая их по ближайшим ресторанам и кафе в зависимости от их меню, графика работы и текущей загрузки.
Роботы Dilly Drive имеют довольно вместительный отсек, рассчитанный на 6 ланч-боксов и 12 стаканов с напитками.
В целях безопасности прошивка роботов содержит программное ограничение скорости на уровне 5 км/ч. Одной зарядки аккумулятора хватает на 6 — 8 часов.
Продвинутый ИИ позволяет роботам развозить заказы днём и ночью, работая практически в любых погодных условиях, за исключением сильного ветра и ливней.
Впервые для навигации роботов и повышения безопасности используется изображение с внешних камер наблюдения, которыми изобилуют улицы Сувона.
«Последняя миля» стала традиционной проблемой. Сейчас роботы движутся только по дорогам. Они не заезжают во двор, а останавливаются рядом с домом и отправляют уведомление заказчику.
В первой половине следующего года разработчики планируют усовершенствовать сервис, чтобы роботы смогли выполнять доставку прямо до дверей.
Оказалось, что маневрирование на придомовой территории — более сложная задача, чем обычная езда по дорогам.
ПДД легко формализовать, а какой рельеф будет во дворе и какие сложности встретятся на конечном участке — заранее не узнаешь. Здесь требуется машинное обучение с большим набором данных, которые собираются в каждое время года.
Источник: VerdictFoodService.com
Южнокорейская компания Woowa Brothers запустила необычный сервис в районе Квангё, город Сувон. Шестиколёсные роботы с ИИ доставят еду на дом или к одному из столиков на территории парка в любое время суток.
Сервис работает через мобильное приложение Baemin. Сделать заказ можно через него, или просто отсканировав QR-код.
Эти коды размещены на столиках в парке и возле скамеек на городской площади. Они содержат названия блюд и географические координаты, так что заказ формируется автоматически.
Приложение быстро обрастает новыми функциями. Оно сразу показывало статус и положение робота в текущий момент времени, а последняя версия может отправлять уведомление заранее, когда робот будет подъезжать к вам.
Заказы обрабатывает единая служба, распределяющая их по ближайшим ресторанам и кафе в зависимости от их меню, графика работы и текущей загрузки.
Роботы Dilly Drive имеют довольно вместительный отсек, рассчитанный на 6 ланч-боксов и 12 стаканов с напитками.
В целях безопасности прошивка роботов содержит программное ограничение скорости на уровне 5 км/ч. Одной зарядки аккумулятора хватает на 6 — 8 часов.
Продвинутый ИИ позволяет роботам развозить заказы днём и ночью, работая практически в любых погодных условиях, за исключением сильного ветра и ливней.
Впервые для навигации роботов и повышения безопасности используется изображение с внешних камер наблюдения, которыми изобилуют улицы Сувона.
«Последняя миля» стала традиционной проблемой. Сейчас роботы движутся только по дорогам. Они не заезжают во двор, а останавливаются рядом с домом и отправляют уведомление заказчику.
В первой половине следующего года разработчики планируют усовершенствовать сервис, чтобы роботы смогли выполнять доставку прямо до дверей.
Оказалось, что маневрирование на придомовой территории — более сложная задача, чем обычная езда по дорогам.
ПДД легко формализовать, а какой рельеф будет во дворе и какие сложности встретятся на конечном участке — заранее не узнаешь. Здесь требуется машинное обучение с большим набором данных, которые собираются в каждое время года.
Источник: VerdictFoodService.com
Fanuc обновляет рекорды
Японская компания Fanuc выпустила компактного робота, который поднимает до 16 кг и обладает другими уникальными характеристиками.
Долгое время 5 кг полезной нагрузки было пределом для малых промышленных манипуляторов. В прошлом году его подняли до 10 кг, а в начале этого года — до 12 кг, и вот новый рекорд не заставил себя долго ждать.
Впрочем, ничего удивительного. Самый грузоподъёмный робот-тяжеловес тоже был ранее создан Fanuc.
При массе 140 кг универсальный манипулятор M-10iD/16S может быть установлен где угодно — в самой крохотной роботизированной ячейке, на стене, или вообще на потолке вверх ногами (точнее, вниз рукой).
Его интеграция исключительно простая ещё и потому, что все кабели проложены внутри, а рядом с роботом без опаски можно ставить любое оборудование.
Фирменная система безопасности Fanuc Dual Check Safety исключает его случайное повреждение и тем более нанесение травм рабочим.
Радиус действия манипулятора составляет 1103 мм. Он вращается вокруг шести осей с рекордными скоростями от 270 до 730 градусов в секунду.
Как и все роботы Fanuc серии M-10iD, новая модель 16S поддерживает различные интеллектуальные функции, включая Fanuc iRVision.
Это встроенная система машинного зрения, которой не нужно дополнительное оборудование. Её настройка выполняется непосредственно на контроллере робота и не требует навыков программирования.
Помимо лучшей в своём классе грузоподъёмности и скорости, новинка достигает высокой точности позиционирования — 0,02 мм.
На базе M-10iD/16S также будет выполнена более специализированная модель — робот-сварщик ARC Mate 100iD / 16S с лазерным наведением и оптоэлектронной системой контроля качества шва.
Источники: RoboticsAndAutomation, Fanuc
Японская компания Fanuc выпустила компактного робота, который поднимает до 16 кг и обладает другими уникальными характеристиками.
Долгое время 5 кг полезной нагрузки было пределом для малых промышленных манипуляторов. В прошлом году его подняли до 10 кг, а в начале этого года — до 12 кг, и вот новый рекорд не заставил себя долго ждать.
Впрочем, ничего удивительного. Самый грузоподъёмный робот-тяжеловес тоже был ранее создан Fanuc.
При массе 140 кг универсальный манипулятор M-10iD/16S может быть установлен где угодно — в самой крохотной роботизированной ячейке, на стене, или вообще на потолке вверх ногами (точнее, вниз рукой).
Его интеграция исключительно простая ещё и потому, что все кабели проложены внутри, а рядом с роботом без опаски можно ставить любое оборудование.
Фирменная система безопасности Fanuc Dual Check Safety исключает его случайное повреждение и тем более нанесение травм рабочим.
Радиус действия манипулятора составляет 1103 мм. Он вращается вокруг шести осей с рекордными скоростями от 270 до 730 градусов в секунду.
Как и все роботы Fanuc серии M-10iD, новая модель 16S поддерживает различные интеллектуальные функции, включая Fanuc iRVision.
Это встроенная система машинного зрения, которой не нужно дополнительное оборудование. Её настройка выполняется непосредственно на контроллере робота и не требует навыков программирования.
Помимо лучшей в своём классе грузоподъёмности и скорости, новинка достигает высокой точности позиционирования — 0,02 мм.
На базе M-10iD/16S также будет выполнена более специализированная модель — робот-сварщик ARC Mate 100iD / 16S с лазерным наведением и оптоэлектронной системой контроля качества шва.
Источники: RoboticsAndAutomation, Fanuc
EVO — лёгкий экзоскелет для комфортной и безопасной работы
Ekso Bionics анонсировала выпуск пассивного экзоскелета EVO. Его задача — снизить нагрузку при выполнении работ на высоте и других рутинных действиях.
На протяжении 15 лет калифорнийская компания разрабатывала средства реабилитации инвалидов.
В какой-то момент руководство изучило статистику травм и пришло к выводу, что большинство из них можно было бы предотвратить с помощью экзоскелета.
Так появился EVO — жилет-экзоскелет для промышленных рабочих. Он крепится на руках, спине и груди, облегчая удерживание инструментов. Надевание EVO занимает около минуты, и не требует помощи.
EVO помогает избежать травм, одновременно снижая усталость. Он компенсирует от 2,2 до 6,8 кг для каждой руки в зависимости от настроек и угла удержания предметов.
Уровень помощи можно отрегулировать для каждого пользователя или задачи, просто заменив комплект компактных пружин. При необходимости для каждой руки можно выбрать разные уровни поддержки.
Экзоскелет включает в себя запатентованную низкопрофильную многорычажную структуру Ekso, которая отслеживает естественные движения тела и обеспечивает их неограниченный диапазон.
EVO получился легче и гибче, чем его предшественник. Он оснащён оптимизированным человеко-машинным интерфейсом, и его проще носить в течение всей рабочей смены.
Архитектура EVO совместима со стандартными ремнями безопасности, используемыми при работах на высоте.
«EVO была разработана, чтобы расширить человеческие возможности, облегчить бремя промышленных рабочих и предоставить им технологическое решение, улучшающее качество их жизни», — сказал вице-президент Ekso Bionics Майкл Пратт.
Источник: EksoBionics.com
Ekso Bionics анонсировала выпуск пассивного экзоскелета EVO. Его задача — снизить нагрузку при выполнении работ на высоте и других рутинных действиях.
На протяжении 15 лет калифорнийская компания разрабатывала средства реабилитации инвалидов.
В какой-то момент руководство изучило статистику травм и пришло к выводу, что большинство из них можно было бы предотвратить с помощью экзоскелета.
Так появился EVO — жилет-экзоскелет для промышленных рабочих. Он крепится на руках, спине и груди, облегчая удерживание инструментов. Надевание EVO занимает около минуты, и не требует помощи.
EVO помогает избежать травм, одновременно снижая усталость. Он компенсирует от 2,2 до 6,8 кг для каждой руки в зависимости от настроек и угла удержания предметов.
Уровень помощи можно отрегулировать для каждого пользователя или задачи, просто заменив комплект компактных пружин. При необходимости для каждой руки можно выбрать разные уровни поддержки.
Экзоскелет включает в себя запатентованную низкопрофильную многорычажную структуру Ekso, которая отслеживает естественные движения тела и обеспечивает их неограниченный диапазон.
EVO получился легче и гибче, чем его предшественник. Он оснащён оптимизированным человеко-машинным интерфейсом, и его проще носить в течение всей рабочей смены.
Архитектура EVO совместима со стандартными ремнями безопасности, используемыми при работах на высоте.
«EVO была разработана, чтобы расширить человеческие возможности, облегчить бремя промышленных рабочих и предоставить им технологическое решение, улучшающее качество их жизни», — сказал вице-президент Ekso Bionics Майкл Пратт.
Источник: EksoBionics.com
Военный ИИ разгромил опытного лётчика
20 августа 2020 года DARPA завершило серию испытаний систем воздушного боя на основе искусственного интеллекта.
Они были созданы за год по программе AlphaDogfight Trials восемью независимыми группами разработчиков, из которых Министерство обороны выбрало одну.
Безоговорочную победу одержал ИИ калифорнийской компании Heron Systems, чьи специалисты сделали ставку на самостоятельное обучение с подкреплением.
Они прокачали ИИ в рекордные сроки, проведя четыре миллиарда коротких симуляций, имитирующих типовые элементы воздушного боя.
В первых двух этапах ИИ с лёгкостью победил конкурентов (включая перспективные нейросетевые алгоритмы Lockheed Martin), а на финальном этапе со счётом 5:0 разгромил пилота ВВС США с позывным Banger.
На момент состязаний выпускник Национальной воздушной гвардии округа Колумбия закончил курсы инструкторов и имел более 2000 часов налёта.
В интервью (доступно по ссылке ниже в начале ролика) он подробно рассказывает, что послужило причиной такого результата.
Если кратко, ИИ был «на своём поле» (в виртуальной симуляции). При этом он игнорировал перегрузки и реагировал мгновенно, маневрируя невозможным для человека образом.
По правилам конкурса в симуляции была доступна только авиационная пушка, поэтому соперники были вынуждены использовать тактику ближнего боя, где всё определяла манёвренность.
Управляемый ИИ F-16 Fighting Falcon уходил из поля зрения пилота быстрее, чем последний успевал навести прицел. Буквально через несколько секунд он сам наводился на самолёт инструктора и условно поражал его.
Живому человеку потребовалось бы гораздо больше времени, чтобы сориентироваться после резкого уклонения и выбрать траекторию перехвата, а ИИ всегда контролирует положение самолёта и просчитывает варианты заранее.
По результатам AlphaDogfight Trials компания Heron Systems займётся созданием более продвинутых систем ИИ в рамках программы ACE (Air Combat Evolution). В случае удачи они будут управлять военными беспилотниками, включая ведомые дроны современных истребителей.
Видео: DARPAtv
Источник: AirForceMag
20 августа 2020 года DARPA завершило серию испытаний систем воздушного боя на основе искусственного интеллекта.
Они были созданы за год по программе AlphaDogfight Trials восемью независимыми группами разработчиков, из которых Министерство обороны выбрало одну.
Безоговорочную победу одержал ИИ калифорнийской компании Heron Systems, чьи специалисты сделали ставку на самостоятельное обучение с подкреплением.
Они прокачали ИИ в рекордные сроки, проведя четыре миллиарда коротких симуляций, имитирующих типовые элементы воздушного боя.
В первых двух этапах ИИ с лёгкостью победил конкурентов (включая перспективные нейросетевые алгоритмы Lockheed Martin), а на финальном этапе со счётом 5:0 разгромил пилота ВВС США с позывным Banger.
На момент состязаний выпускник Национальной воздушной гвардии округа Колумбия закончил курсы инструкторов и имел более 2000 часов налёта.
В интервью (доступно по ссылке ниже в начале ролика) он подробно рассказывает, что послужило причиной такого результата.
Если кратко, ИИ был «на своём поле» (в виртуальной симуляции). При этом он игнорировал перегрузки и реагировал мгновенно, маневрируя невозможным для человека образом.
По правилам конкурса в симуляции была доступна только авиационная пушка, поэтому соперники были вынуждены использовать тактику ближнего боя, где всё определяла манёвренность.
Управляемый ИИ F-16 Fighting Falcon уходил из поля зрения пилота быстрее, чем последний успевал навести прицел. Буквально через несколько секунд он сам наводился на самолёт инструктора и условно поражал его.
Живому человеку потребовалось бы гораздо больше времени, чтобы сориентироваться после резкого уклонения и выбрать траекторию перехвата, а ИИ всегда контролирует положение самолёта и просчитывает варианты заранее.
По результатам AlphaDogfight Trials компания Heron Systems займётся созданием более продвинутых систем ИИ в рамках программы ACE (Air Combat Evolution). В случае удачи они будут управлять военными беспилотниками, включая ведомые дроны современных истребителей.
Видео: DARPAtv
Источник: AirForceMag
YouTube
AlphaDogfight Trials Final Event
Welcome to the AlphaDogfight Trials Competition Event #3 - Final simulated dogfight between the Champion AI and an Air Force F-16 pilot!The DARPA AlphaDogfig...
CropHopper — прыгающий дрон для фермеров
Британская компания HayBeeSee представила необычного дрона для развития сельского хозяйства. Это нечто среднее между летающими и шагающими роботами, сочетающее лучшее из конструкций обоих типов.
Квадрокоптер оснащён пружинящими ногами, штангой для размещения инструментов, камерой и блоком искусственного интеллекта. Его конструкция рассчитана на 3 года всесезонной эксплуатации без замены деталей.
Он прыгает по полям, контролируя состояние посевов, точечно уничтожая сорняки и насекомых-вредителей, а также внося подкормку.
По словам основателя HayBeeSee, CropHopper предоставляет фермерам более полную и свежую информацию для принятия решений, чем периодические обследования с воздуха.
В отличие от колёсных роботов, он не повреждает посевы. CropHopper выбирает место приземления и совершает мягкую посадку, удерживая корпус над сельскохозяйственным культурами.
«Фермерам нужен робот, который постоянно в поле, а не просто делает одно — два сканирования за сезон», — пояснил Фред Миллер, основатель и генеральный директор HayBeeSee
Прыгающий режим экономит электроэнергию. CropHopper способен работать от одного заряда до 3 часов, обрабатывая до 12 гектаров за час.
Масса робота составляет всего 3,5 кг при высоте 70 см. За один день он способен обследовать четыре поля площадью 15 — 20 гектар каждое.
Текущие параметры CropHopper хорошо зарекомендовали себя во время тестов на полях пшеницы и ячменя. Расход пестицидов снизился на 60%, а урожайность повысилась на 10 — 30%.
Сейчас компания разрабатывает модель с более длинными ногами для работы на полях кукурузы и сои. Уже более 20 сельскохозяйственных фирм выразили готовность приобрести его или взять в аренду.
Источник: TheRobotReport
Британская компания HayBeeSee представила необычного дрона для развития сельского хозяйства. Это нечто среднее между летающими и шагающими роботами, сочетающее лучшее из конструкций обоих типов.
Квадрокоптер оснащён пружинящими ногами, штангой для размещения инструментов, камерой и блоком искусственного интеллекта. Его конструкция рассчитана на 3 года всесезонной эксплуатации без замены деталей.
Он прыгает по полям, контролируя состояние посевов, точечно уничтожая сорняки и насекомых-вредителей, а также внося подкормку.
По словам основателя HayBeeSee, CropHopper предоставляет фермерам более полную и свежую информацию для принятия решений, чем периодические обследования с воздуха.
В отличие от колёсных роботов, он не повреждает посевы. CropHopper выбирает место приземления и совершает мягкую посадку, удерживая корпус над сельскохозяйственным культурами.
«Фермерам нужен робот, который постоянно в поле, а не просто делает одно — два сканирования за сезон», — пояснил Фред Миллер, основатель и генеральный директор HayBeeSee
Прыгающий режим экономит электроэнергию. CropHopper способен работать от одного заряда до 3 часов, обрабатывая до 12 гектаров за час.
Масса робота составляет всего 3,5 кг при высоте 70 см. За один день он способен обследовать четыре поля площадью 15 — 20 гектар каждое.
Текущие параметры CropHopper хорошо зарекомендовали себя во время тестов на полях пшеницы и ячменя. Расход пестицидов снизился на 60%, а урожайность повысилась на 10 — 30%.
Сейчас компания разрабатывает модель с более длинными ногами для работы на полях кукурузы и сои. Уже более 20 сельскохозяйственных фирм выразили готовность приобрести его или взять в аренду.
Источник: TheRobotReport
The Robot Report
CropHopper robot from HayBeeSee takes novel approach to field monitoring
HayBeeSee is looking for investors and partners as it continues developing its CropHopper robot for regular monitoring of fields.
Неутомимый робот-жук без единой микросхемы
Исследователи из Университета Южной Калифорнии в Лос-Анджелесе представили крошечного робота, который обходится без аккумулятора и электроники.
Это демонстрация концепции полностью механических роботов, устойчивых к электромагнитному излучению.
RoBeetle массой 88 мг похож на жука и способен транспортировать полезную нагрузку, почти втрое превышающую его собственный вес (до 230 мг).
Корпус робота — это бак с метанолом, который заправляется шприцом через миниатюрное отверстие. Полной заправки хватает на 155 минут.
В задней части бака расположена пара неподвижных ног, которые скользят при движении. Спереди установлена пара гибких ног, соединённых с пластинчатой пружиной.
Эта же пружина соединена с задвижкой отверстия, через которое испаряется метанол.
Прямо над ним расположен привод — проволока из никель-титанового сплава с памятью формы (SMA), покрытая крупнозернистыми частичками платины для увеличения площади поверхности.
Сразу после заправки бака проволока холодная и натягивает пружину. Она удерживает испарительное отверстие открытым и распрямляет передние ноги.
Платина катализирует окисление паров метанола кислородом воздуха, в результате чего менее чем за 2 секунды температура привода повышается примерно на 50°С.
Из-за нагрева он удлиняется, что вызывает релаксацию пружины, которая закрывает заслонку и сгибает передние ноги. Робот делает шаг, заслонка отрывается и весь цикл повторяется снова.
В итоге RoBeetle ползает со скоростью 0,7 — 0,8 мм/с, делая шажки длиной 1,2 мм.
КПД системы составляет всего 0,48%, но аналогичное решение с аккумулятором попросту невозможно в таких габаритах.
Когда исследователи попробовали реализовать сходную конструкцию с электроникой, то масса робота увеличилась более чем в десять раз и приблизилась к одному грамму.
Авторы отмечают, что роботы с механическим приводом на основе каталитического окисления метанола могут найти применение в автоматических межпланетных станциях. NASA уже выразила заинтересованность развивать это направление для исследований Венеры.
Разработчики наметили пути дальнейшего совершенствования конструкции. Они планируют заменить метанол жидким топливом под давлением для повышения частоты привода.
Его амплитуду и общую эффективность системы также попробуют увеличить, заменив пружину пучками тонких искусственных мышц. С ними робот станет ещё больше похож на насекомое.
Источник: IEEE Spectrum
Видео: YouTube
Исследователи из Университета Южной Калифорнии в Лос-Анджелесе представили крошечного робота, который обходится без аккумулятора и электроники.
Это демонстрация концепции полностью механических роботов, устойчивых к электромагнитному излучению.
RoBeetle массой 88 мг похож на жука и способен транспортировать полезную нагрузку, почти втрое превышающую его собственный вес (до 230 мг).
Корпус робота — это бак с метанолом, который заправляется шприцом через миниатюрное отверстие. Полной заправки хватает на 155 минут.
В задней части бака расположена пара неподвижных ног, которые скользят при движении. Спереди установлена пара гибких ног, соединённых с пластинчатой пружиной.
Эта же пружина соединена с задвижкой отверстия, через которое испаряется метанол.
Прямо над ним расположен привод — проволока из никель-титанового сплава с памятью формы (SMA), покрытая крупнозернистыми частичками платины для увеличения площади поверхности.
Сразу после заправки бака проволока холодная и натягивает пружину. Она удерживает испарительное отверстие открытым и распрямляет передние ноги.
Платина катализирует окисление паров метанола кислородом воздуха, в результате чего менее чем за 2 секунды температура привода повышается примерно на 50°С.
Из-за нагрева он удлиняется, что вызывает релаксацию пружины, которая закрывает заслонку и сгибает передние ноги. Робот делает шаг, заслонка отрывается и весь цикл повторяется снова.
В итоге RoBeetle ползает со скоростью 0,7 — 0,8 мм/с, делая шажки длиной 1,2 мм.
КПД системы составляет всего 0,48%, но аналогичное решение с аккумулятором попросту невозможно в таких габаритах.
Когда исследователи попробовали реализовать сходную конструкцию с электроникой, то масса робота увеличилась более чем в десять раз и приблизилась к одному грамму.
Авторы отмечают, что роботы с механическим приводом на основе каталитического окисления метанола могут найти применение в автоматических межпланетных станциях. NASA уже выразила заинтересованность развивать это направление для исследований Венеры.
Разработчики наметили пути дальнейшего совершенствования конструкции. Они планируют заменить метанол жидким топливом под давлением для повышения частоты привода.
Его амплитуду и общую эффективность системы также попробуют увеличить, заменив пружину пучками тонких искусственных мышц. С ними робот станет ещё больше похож на насекомое.
Источник: IEEE Spectrum
Видео: YouTube
IEEE Spectrum
Minuscule RoBeetle Turns Liquid Methanol Into Muscle Power
Without any batteries or electronics at all, this 88-milligram autonomous robotic insect can walk for hours
@Rusbase — медиа, которое решает задачи предпринимателей. Команда пишет о бизнесе и технологиях, выпускает интерактивные карты и другие специальные проекты, а также тщательно мониторит различные возможности для развития стартапов: акселераторы, конкурсы и многие другие.
Этим медиа и уникально — оно рассказывает о том, как применять новые технологии в бизнесе, способствуя его развитию.
Подписывайся на их канал, чтобы всегда оставаться в курсе новостей в области технологий и бизнеса! https://t.iss.one/rusbase
#партнеры
Этим медиа и уникально — оно рассказывает о том, как применять новые технологии в бизнесе, способствуя его развитию.
Подписывайся на их канал, чтобы всегда оставаться в курсе новостей в области технологий и бизнеса! https://t.iss.one/rusbase
#партнеры
Законы робототехники по-российски
19 августа 2020 года российское правительство утвердило «Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года». В ней частично обходятся негласные законы робототехники, что вызывает ряд вопросов.
Ещё в 1942 году американский писатель-фантаст Айзек Азимов (кстати, он родом из Смоленской губернии) сформулировал в рассказе «Хоровод» три базовых закона, обязательные для всех роботов.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Позже в 1986 году он добавил четвёртый (а, точнее, нулевой) закон, ставящий благо человечества выше блага индивидуума: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».
Эти положения неофициально закрепились как «законы робототехники». Их ценность состоит в том, что формулировки чётко расставляют приоритеты: безопасность человечества в целом, затем отдельных людей и только потом — самих роботов.
Они лаконичны и универсальны, поэтому сохранили актуальность и в XXI веке. Как говорил сам Азимов от имени своего персонажа: «Три Закона роботехники совпадают с основными принципами большинства этических систем».
Однако разработчики правительственной Концепции, по всей видимости, так не считают. По их мнению, робот не должен помогать людям, оказавшимся в опасной ситуации, не обязан всегда подчиняться человеку и даже беспокоиться о собственной безопасности.
Вместо этого робот должен соблюдать все принятые в России законы, чьи требования зачастую противоречат друг другу.
Получается, что если голосовой помощник допустит в ответе «нетолерантное высказывание», задевающее чувство верующих, национальных или сексуальных меньшинств, то тем самым совершит преступление, за которое отвечать придётся его владельцу и/или разработчику.
При этом промышленный робот не обязан предотвратить производственную травму, даже если у него есть такая возможность. Получается какой-то абсурд.
Как объяснить, что писателю прошлого века лучше удалось сформулировать законы робототехники, чем целой комиссии экспертов современности?
Источник: Pravo.gov.ru
19 августа 2020 года российское правительство утвердило «Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года». В ней частично обходятся негласные законы робототехники, что вызывает ряд вопросов.
Ещё в 1942 году американский писатель-фантаст Айзек Азимов (кстати, он родом из Смоленской губернии) сформулировал в рассказе «Хоровод» три базовых закона, обязательные для всех роботов.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Позже в 1986 году он добавил четвёртый (а, точнее, нулевой) закон, ставящий благо человечества выше блага индивидуума: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».
Эти положения неофициально закрепились как «законы робототехники». Их ценность состоит в том, что формулировки чётко расставляют приоритеты: безопасность человечества в целом, затем отдельных людей и только потом — самих роботов.
Они лаконичны и универсальны, поэтому сохранили актуальность и в XXI веке. Как говорил сам Азимов от имени своего персонажа: «Три Закона роботехники совпадают с основными принципами большинства этических систем».
Однако разработчики правительственной Концепции, по всей видимости, так не считают. По их мнению, робот не должен помогать людям, оказавшимся в опасной ситуации, не обязан всегда подчиняться человеку и даже беспокоиться о собственной безопасности.
Вместо этого робот должен соблюдать все принятые в России законы, чьи требования зачастую противоречат друг другу.
Получается, что если голосовой помощник допустит в ответе «нетолерантное высказывание», задевающее чувство верующих, национальных или сексуальных меньшинств, то тем самым совершит преступление, за которое отвечать придётся его владельцу и/или разработчику.
При этом промышленный робот не обязан предотвратить производственную травму, даже если у него есть такая возможность. Получается какой-то абсурд.
Как объяснить, что писателю прошлого века лучше удалось сформулировать законы робототехники, чем целой комиссии экспертов современности?
Источник: Pravo.gov.ru