Новая Эра Физического Труда от 1X
Студия 1X показала, что у них не один прототип - а целая армия роботов-домашних эльфов.
1Х - норвежский инновационный проект, целью которого является создание безопасных и интеллектуальных андроидов, способных обеспечить общество необходимым физическим трудом. Их разработки ориентированы на максимальную универсальность, за счет моделирования аппаратного обеспечения по образу и подобию человеческой формы.
В 2023 году они запустили нового робота-андроида EVE для выполнения патрульных задач, и теперь делятся новыми способностями, которые их андроиды освоили, обучаясь исключительно на основе данных. Видео демонстрирует работу центральной нейронной сети, управляющей всеми действиями андроида в режиме реального времени без использования телеуправления или компьютерной графики.
Для обучения моделей машинного обучения, которые генерируют эти поведения, 1X собрали разнообразный набор данных с демонстрациями от 30 роботов EVE. Эти данные позволили им обучить "базовую модель", которая охватывает широкий спектр физических действий, от уборки до социального взаимодействия с людьми и другими роботами.
Кстати они зовут на работу. В частности, у них есть позиции исследователей ИИ в Сан-Франциско и операторов андроидов в офисах в Осло и Маунтин-Вью.
Смотреть
Студия 1X показала, что у них не один прототип - а целая армия роботов-домашних эльфов.
1Х - норвежский инновационный проект, целью которого является создание безопасных и интеллектуальных андроидов, способных обеспечить общество необходимым физическим трудом. Их разработки ориентированы на максимальную универсальность, за счет моделирования аппаратного обеспечения по образу и подобию человеческой формы.
В 2023 году они запустили нового робота-андроида EVE для выполнения патрульных задач, и теперь делятся новыми способностями, которые их андроиды освоили, обучаясь исключительно на основе данных. Видео демонстрирует работу центральной нейронной сети, управляющей всеми действиями андроида в режиме реального времени без использования телеуправления или компьютерной графики.
Для обучения моделей машинного обучения, которые генерируют эти поведения, 1X собрали разнообразный набор данных с демонстрациями от 30 роботов EVE. Эти данные позволили им обучить "базовую модель", которая охватывает широкий спектр физических действий, от уборки до социального взаимодействия с людьми и другими роботами.
Кстати они зовут на работу. В частности, у них есть позиции исследователей ИИ в Сан-Франциско и операторов андроидов в офисах в Осло и Маунтин-Вью.
Смотреть
YouTube
All Neural Networks. All Autonomous. All 1X speed | 1X AI Update
#1X #humanoid #EmbodiedAI
All Neural Networks. All Autonomous. All 1X speed. This video contains no teleoperation, no computer graphics, no cuts, no video speedups, no scripted trajectory playback. It's all controlled via neural networks. Learn more on…
All Neural Networks. All Autonomous. All 1X speed. This video contains no teleoperation, no computer graphics, no cuts, no video speedups, no scripted trajectory playback. It's all controlled via neural networks. Learn more on…
AI для Всех
Новая Эра Физического Труда от 1X Студия 1X показала, что у них не один прототип - а целая армия роботов-домашних эльфов. 1Х - норвежский инновационный проект, целью которого является создание безопасных и интеллектуальных андроидов, способных обеспечить…
This media is not supported in your browser
VIEW IN TELEGRAM
Порог эффекта "зловещей долины": новое поколение, новые правила?
Кажется, некоторым из нас было как-то не по себе при просмотре демо Х1. Случайно провела микро исследование: на видео прибежали дети, я расспросила их о впечатлениях. Интересно, что Им ролик из предыдущего поста совсем не показался пугающим. Вкратце: понравилось лицо Eve, и вообще норм такого дома иметь.
Выглядит так, что у поколения альфа уже другой порог эффекта "зловещей долины". Это ни хорошо, и ни плохо, просто факт: нас, миллениалов и зумеров, не пугают зомби и фрэнки, это уже комедийные персонажи, образы кибогов претендуют на звание новых секс символов, ну, а новое поколение не смущает присутствуе адроидов в пространстве рядом.
Очевидно, на это влияет, что современные дети растут в мире, где технологии и ИИ - часть повседневной жизни в виде игрушек, образовательных инструментов, умных колонок и пылесосов. А ещё массовая культура: уже много лет роботы - протагонисты в мультах, положительные, эмоционально отзывчивые герои, иногда с человеческими чертами и эмоциями. Ещё бы, роботы не воспринимались дружелюбно и естественно. Меньше напряжения и отторжения, больше симпатии и эмпатии.
Не знаю, куда это приведет. Зато это точно облегчит интеграцию новых технологий в общество. В конце концов, альфам и предстоит формировать гармоничное сосуществование человека и машины в будущем. Хорошо бы мы не успели им сильно усложнить задачу.
Если заходите подвинуть и свой uncanny valley threshold, то вот вам топ 5 мультов с роботами от участников фокус-группы:
1️⃣ Митчеллы против машин (The Mitchells Vs. The Machines), 2021
2️⃣ Маугли дикой планеты (Willy: Planète inconnue), 2009
3️⃣ WALL-E, 2008
4️⃣ Город героев (Big Hero 6), 2014
5️⃣ Неисправимый Рон (Ron's Gone Wrong), 2021
🔣 Кст, об X1 из первых уст в DL in NLP
Кажется, некоторым из нас было как-то не по себе при просмотре демо Х1. Случайно провела микро исследование: на видео прибежали дети, я расспросила их о впечатлениях. Интересно, что Им ролик из предыдущего поста совсем не показался пугающим. Вкратце: понравилось лицо Eve, и вообще норм такого дома иметь.
Выглядит так, что у поколения альфа уже другой порог эффекта "зловещей долины". Это ни хорошо, и ни плохо, просто факт: нас, миллениалов и зумеров, не пугают зомби и фрэнки, это уже комедийные персонажи, образы кибогов претендуют на звание новых секс символов, ну, а новое поколение не смущает присутствуе адроидов в пространстве рядом.
Очевидно, на это влияет, что современные дети растут в мире, где технологии и ИИ - часть повседневной жизни в виде игрушек, образовательных инструментов, умных колонок и пылесосов. А ещё массовая культура: уже много лет роботы - протагонисты в мультах, положительные, эмоционально отзывчивые герои, иногда с человеческими чертами и эмоциями. Ещё бы, роботы не воспринимались дружелюбно и естественно. Меньше напряжения и отторжения, больше симпатии и эмпатии.
Не знаю, куда это приведет. Зато это точно облегчит интеграцию новых технологий в общество. В конце концов, альфам и предстоит формировать гармоничное сосуществование человека и машины в будущем. Хорошо бы мы не успели им сильно усложнить задачу.
Если заходите подвинуть и свой uncanny valley threshold, то вот вам топ 5 мультов с роботами от участников фокус-группы:
Please open Telegram to view this post
VIEW IN TELEGRAM
Вышел официальный курс от OpenAI: как пользоваться ChatGPT
Уникальный курс от OpenAI, раскрывающий все секреты работы с ChatGPT, от регистрации до разработки сложных запросов.
В эпоху цифровых технологий знание того, как эффективно использовать инструменты искусственного интеллекта, становится не просто преимуществом, а необходимостью. OpenAI выпустили курс, который станет вашим надежным помощником в освоении ChatGPT – от создания аккаунта до написания первого запроса.
В курсе вы научитесь:
- Использованию ChatGPT в качестве персонального ассистента: Узнайте, как максимально повысить свою продуктивность, используя ChatGPT для выполнения повседневных задач.
- Разработке запросов и Prompt Engineering: Освоите искусство формулирования запросов, чтобы получать максимально точные и полезные ответы.
- Основам DALLE-3, GPT 3.5 и GPT 4: Погрузитесь в возможности последних версий GPT и научитесь создавать уникальный контент.
Не упустите возможность усилить свои навыки и расширить границы возможного с помощью последних технологий от OpenAI (а еще получить сертификат).
Смотреть курс
Уникальный курс от OpenAI, раскрывающий все секреты работы с ChatGPT, от регистрации до разработки сложных запросов.
В эпоху цифровых технологий знание того, как эффективно использовать инструменты искусственного интеллекта, становится не просто преимуществом, а необходимостью. OpenAI выпустили курс, который станет вашим надежным помощником в освоении ChatGPT – от создания аккаунта до написания первого запроса.
В курсе вы научитесь:
- Использованию ChatGPT в качестве персонального ассистента: Узнайте, как максимально повысить свою продуктивность, используя ChatGPT для выполнения повседневных задач.
- Разработке запросов и Prompt Engineering: Освоите искусство формулирования запросов, чтобы получать максимально точные и полезные ответы.
- Основам DALLE-3, GPT 3.5 и GPT 4: Погрузитесь в возможности последних версий GPT и научитесь создавать уникальный контент.
Не упустите возможность усилить свои навыки и расширить границы возможного с помощью последних технологий от OpenAI (а еще получить сертификат).
Смотреть курс
Скажите что-то на карьерном
Тинькофф в поиске крутых ИТ-спецов. С компании — профессиональный рост, интересные финтех-задачи, решение бытовых забот и работа там, где вы живете. С вас — выбрать вакансию и откликнуться тут
АО «Тинькофф Банк», ИНН 7710140679
#реклама
Тинькофф в поиске крутых ИТ-спецов. С компании — профессиональный рост, интересные финтех-задачи, решение бытовых забот и работа там, где вы живете. С вас — выбрать вакансию и откликнуться тут
АО «Тинькофф Банк», ИНН 7710140679
#реклама
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Молодая семья выгуливает песика, так мило 🫶
Please open Telegram to view this post
VIEW IN TELEGRAM
OSS AI на подъеме
Сегодня ходил на митап по разработке ИИ с открытым исходным кодом (или open source software). Митап проходил в довольно модном коворкинге Shack15 и был организован CerebralValley x OLlama.
Daniel представил обновление для Ollama, которая теперь поддерживает Windows (начиная с Windows 10) и GPU NVidia.
Lance из LangChain показал LangGraph — инструмент для построения агентных процессов в виде графов, где каждое действие LLM является узлом графа.
Charlie из Replicate продемонстрировал забавный проект "Прокрастинационный коуч", который использует LLava для мониторинга экрана пользователя и предупреждения о прокрастинации.
Joao из CrewAl и Radamés из Hugging Face представили новые агентные фреймворки и исследования в области генерации изображений в реальном времени, продемонстрировав значительный прогресс в визуализации и интерактивности.
Ty из Continue.dev рассмотрел, какие открытые LLM используют разработчики для написания кода (на их платформе это LlamaCode 7B), а Sourabh из LlamaIndex показал RagCLI — мультимодальный интерфейс для взаимодействия с файлами на локальной системе через чат.
Eric Hartford (на мой взгляд самый прикольный доклад митапа) показал интересный подход к слиянию моделей ИИ с помощью MergeKit, позволяя объединять различные модели для создания улучшенных версий с расширенными возможностями. Он сравнил 🤗 с чашкой Петри, в которой происходят неконтролируемые мутации моделей (или скрещивание), которое скорее всего приведёт к чумовым результатам (LLM хаска vs LLM мопс).
Так и живем после работы
Сегодня ходил на митап по разработке ИИ с открытым исходным кодом (или open source software). Митап проходил в довольно модном коворкинге Shack15 и был организован CerebralValley x OLlama.
Daniel представил обновление для Ollama, которая теперь поддерживает Windows (начиная с Windows 10) и GPU NVidia.
Lance из LangChain показал LangGraph — инструмент для построения агентных процессов в виде графов, где каждое действие LLM является узлом графа.
Charlie из Replicate продемонстрировал забавный проект "Прокрастинационный коуч", который использует LLava для мониторинга экрана пользователя и предупреждения о прокрастинации.
Joao из CrewAl и Radamés из Hugging Face представили новые агентные фреймворки и исследования в области генерации изображений в реальном времени, продемонстрировав значительный прогресс в визуализации и интерактивности.
Ty из Continue.dev рассмотрел, какие открытые LLM используют разработчики для написания кода (на их платформе это LlamaCode 7B), а Sourabh из LlamaIndex показал RagCLI — мультимодальный интерфейс для взаимодействия с файлами на локальной системе через чат.
Eric Hartford (на мой взгляд самый прикольный доклад митапа) показал интересный подход к слиянию моделей ИИ с помощью MergeKit, позволяя объединять различные модели для создания улучшенных версий с расширенными возможностями. Он сравнил 🤗 с чашкой Петри, в которой происходят неконтролируемые мутации моделей (или скрещивание), которое скорее всего приведёт к чумовым результатам (LLM хаска vs LLM мопс).
Так и живем после работы
Заработай на своем баритоне
ElevenLabs представляет программу лицензирования голоса, открывающую возможности для монетизации вашего голоса. Если у вас какой-то особенный голос - то это ваш шанс не только оставить свой след в мире цифровых технологий, но и получить пассивный доход.
Как это работает? Процесс прост: вы предоставляете образцы своего голоса, после чего специалисты ElevenLabs используют передовые технологии для его клонирования. Ваш цифровой голосовой двойник затем размещается в специализированном магазине ElevenLabs, где его могут приобрести или арендовать для различных целей – от создания контента до использования в качестве голоса виртуального ассистента.
Кажется что это возможность заработать на своем голосе. Каждый раз, когда кто-то покупает или берет в аренду ваш голос, вы получаете роялти. Это открывает потенциал для постоянного дохода без дополнительных усилий со стороны владельца голоса.
🎤 Сдать свой голос
ElevenLabs представляет программу лицензирования голоса, открывающую возможности для монетизации вашего голоса. Если у вас какой-то особенный голос - то это ваш шанс не только оставить свой след в мире цифровых технологий, но и получить пассивный доход.
Как это работает? Процесс прост: вы предоставляете образцы своего голоса, после чего специалисты ElevenLabs используют передовые технологии для его клонирования. Ваш цифровой голосовой двойник затем размещается в специализированном магазине ElevenLabs, где его могут приобрести или арендовать для различных целей – от создания контента до использования в качестве голоса виртуального ассистента.
Кажется что это возможность заработать на своем голосе. Каждый раз, когда кто-то покупает или берет в аренду ваш голос, вы получаете роялти. Это открывает потенциал для постоянного дохода без дополнительных усилий со стороны владельца голоса.
🎤 Сдать свой голос
Андрей Карпаты ушел из OpenAI
Андрей Карпаты, знаменитый исследователь искусственного интеллекта и один из основателей OpenAI, покинул компанию 12ого февраля 2024 года.
Говорит, что ушел не почему то конкретному, и что вообще ему нравилось тусоваться в OpenAI.
Из его сообщения можно предположить, что он ушел разрабатывать LLM OS (и видимо в ближайшем будущем, не стоит ждать этого направления от OpenAI).
Обещает не забрасывать свои видео-лекции (в комментах написал что уже работает над новой).
Ну что ж, будем посмотреть 👀
Х
Андрей Карпаты, знаменитый исследователь искусственного интеллекта и один из основателей OpenAI, покинул компанию 12ого февраля 2024 года.
Говорит, что ушел не почему то конкретному, и что вообще ему нравилось тусоваться в OpenAI.
Из его сообщения можно предположить, что он ушел разрабатывать LLM OS (и видимо в ближайшем будущем, не стоит ждать этого направления от OpenAI).
Обещает не забрасывать свои видео-лекции (в комментах написал что уже работает над новой).
Ну что ж, будем посмотреть 👀
Х
Infinite Craft: игра, с LLM в качестве движка
Давным давно, во времена, когда я учился в школе и скучал на уроках, была такая игра - надо было соединять элементы и из них получались новые (кто вспомнит название - пишите).
Так вот, на днях, кто-то сделал реанимировал ее с помощью языковых моделей.
Как играть:
Нажимаем на 2 элемента -> они соединяются в новый (конечно же, что за новый элемент, решает Мистраль на серверах together.ai). Местами получается очень даже забавно.
🦝 Играть
Давным давно, во времена, когда я учился в школе и скучал на уроках, была такая игра - надо было соединять элементы и из них получались новые (кто вспомнит название - пишите).
Так вот, на днях, кто-то сделал реанимировал ее с помощью языковых моделей.
Как играть:
Нажимаем на 2 элемента -> они соединяются в новый (конечно же, что за новый элемент, решает Мистраль на серверах together.ai). Местами получается очень даже забавно.
🦝 Играть
Forwarded from Сиолошная
Как обещал, пост про интересное применение длинного контекста в новой Gemini Pro v1.5
Google доучили свою модельку работать с миллионом токенов (GPT-4 поддерживает 128 тысяч, Claude 2 200 тысяч), причём, мультимодальных — то есть это могут быть и раскадровки видео, и текст, и просто набор изображений. Сюда влезет вся «Война и мир», наконец-то!
Но каждый раз когда мы говорим про длинный контекст встаёт вопрос: а он вообще работает? И какие возможности открывает? Я не буду отвечать на второй вопрос, но постараюсь пересказать пример ответа на первый — ведь это один из самых интересных пунктах в демках Google. И связан он с переводом каламанга. Каламанг — это язык, на котором говорят менее 200 человек (не тысяч, просто человек) в западной части Новой Гвинеи, на востоке индонезийского Папуа. Каламанг почти не представлен в Интернете, и любая модель просто не будет его знать — как и профессиональный лингвист.
Однако недавно был предложен бенчмарк по оценке навыков перевода модели с помощью 573-страничной книги лингвистки Eline Visser. В своей работе «A Grammar of Kalamang» она описывает правила языка, его устройство, часто используемые фразы итд. Это уникальный артефакт, позволяющий другим лингвистам с книжкой в одной руке и табличкой «слово -> перевод» в другой за несколько часов разобраться в языке и начать хоть как-то его переводить. Без контекста (книга+словарь) модель Gemini Pro v1.5 делает переводы, сравнимые по качеству со случайным гаданием.
Идея: давайте в промпт языковой модели положим и всю книгу от корки до корки, и словарик, и затем попросим LLM перевести текст либо с каламанга на английский, либо наоборот.
Тогда качество переводов становится сравнимым с качеством перевода человека, который работал с теми же материалами (в рамках бенчмарка им отводилось до 10 часов на перевод определенных текстов). Метрики вышли даже чуть выше, чем у кожаных, что, как предполагают авторы, модель очень эффективно утилизирует контекст, используя знания из книги на полную для выполнения сложной интеллектуальной задачи.
Так как в лабораториях Google тестируется модель на 10M токенов (20-30 книг и учебников?), то можно предположить, что качество перевода для очень редких и малоизученных языков в ближайшие полгода оооооочень сильно скакнёт.
Если вам интересно, как можно сделать такой длинный контекст, то отсылаю вас к этой работе, вышедшей за пару дней до гугловской, и по сути показыающей те же самые навыки (но применительно к видео и точности поиска в контексте).
Google доучили свою модельку работать с миллионом токенов (GPT-4 поддерживает 128 тысяч, Claude 2 200 тысяч), причём, мультимодальных — то есть это могут быть и раскадровки видео, и текст, и просто набор изображений. Сюда влезет вся «Война и мир», наконец-то!
Но каждый раз когда мы говорим про длинный контекст встаёт вопрос: а он вообще работает? И какие возможности открывает? Я не буду отвечать на второй вопрос, но постараюсь пересказать пример ответа на первый — ведь это один из самых интересных пунктах в демках Google. И связан он с переводом каламанга. Каламанг — это язык, на котором говорят менее 200 человек (не тысяч, просто человек) в западной части Новой Гвинеи, на востоке индонезийского Папуа. Каламанг почти не представлен в Интернете, и любая модель просто не будет его знать — как и профессиональный лингвист.
Однако недавно был предложен бенчмарк по оценке навыков перевода модели с помощью 573-страничной книги лингвистки Eline Visser. В своей работе «A Grammar of Kalamang» она описывает правила языка, его устройство, часто используемые фразы итд. Это уникальный артефакт, позволяющий другим лингвистам с книжкой в одной руке и табличкой «слово -> перевод» в другой за несколько часов разобраться в языке и начать хоть как-то его переводить. Без контекста (книга+словарь) модель Gemini Pro v1.5 делает переводы, сравнимые по качеству со случайным гаданием.
Идея: давайте в промпт языковой модели положим и всю книгу от корки до корки, и словарик, и затем попросим LLM перевести текст либо с каламанга на английский, либо наоборот.
Тогда качество переводов становится сравнимым с качеством перевода человека, который работал с теми же материалами (в рамках бенчмарка им отводилось до 10 часов на перевод определенных текстов). Метрики вышли даже чуть выше, чем у кожаных, что, как предполагают авторы, модель очень эффективно утилизирует контекст, используя знания из книги на полную для выполнения сложной интеллектуальной задачи.
Так как в лабораториях Google тестируется модель на 10M токенов (20-30 книг и учебников?), то можно предположить, что качество перевода для очень редких и малоизученных языков в ближайшие полгода оооооочень сильно скакнёт.
Если вам интересно, как можно сделать такой длинный контекст, то отсылаю вас к этой работе, вышедшей за пару дней до гугловской, и по сути показыающей те же самые навыки (но применительно к видео и точности поиска в контексте).