This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Как собрать складского робота — и не провалиться ещё на стадии идеи
Автоматизировать инвентаризацию склада — не самая тривиальная задача, как может показаться на первый взгляд. Особенно когда ни одно из готовых решений не подходит: летающие дроны с одной камерой не справляются с объемом, а рельсовые системы требуют серьёзной перестройки склада.
В Яндекс Роботикс выбрали третий путь — и собрали собственного мобильного робота, который сканирует 12-метровые стеллажи за один проход. В статье, Вячеслав Гончарук, руководитель группы инженеров-конструкторов, рассказал:
— как выбирали между альтернативными платформами и почему мобильный робот оказался лучшим решением;
— каких ошибок в конструкции удалось избежать уже на этапе макетирования;
— как на практике тестировали камеры, механизмы и привод;
— зачем прорабатывать схему электрики ещё до сборки — и что это даёт на выходе.
📚 Это практический гайд от руководителя инженерной команды. Без воды, с кучей конкретики — для тех, кто проектирует, собирает и отлаживает.
Автоматизировать инвентаризацию склада — не самая тривиальная задача, как может показаться на первый взгляд. Особенно когда ни одно из готовых решений не подходит: летающие дроны с одной камерой не справляются с объемом, а рельсовые системы требуют серьёзной перестройки склада.
В Яндекс Роботикс выбрали третий путь — и собрали собственного мобильного робота, который сканирует 12-метровые стеллажи за один проход. В статье, Вячеслав Гончарук, руководитель группы инженеров-конструкторов, рассказал:
— как выбирали между альтернативными платформами и почему мобильный робот оказался лучшим решением;
— каких ошибок в конструкции удалось избежать уже на этапе макетирования;
— как на практике тестировали камеры, механизмы и привод;
— зачем прорабатывать схему электрики ещё до сборки — и что это даёт на выходе.
📚 Это практический гайд от руководителя инженерной команды. Без воды, с кучей конкретики — для тех, кто проектирует, собирает и отлаживает.
❤5🔥3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🧠 Когда ИИ проектируют как биологический мозг
SakanaAI выпустили ролик, в котором рассказывается о подходах, где архитектура ИИ вдохновляется нейробиологией.
Continuous Thought Machine (CTM) - концептуальная архитектура от SakanaAI, вдохновленная биологическими процессами мозга человека. Вместо масштабирования «в ширину» концепт предлагает «глубину» мышления, учитывая временную динамику и имитируя естественные нейронные взаимодействия.
👉 Подробнее про архитектуру мы писали тут.
🎬 В видео объясняется:
• Как работает ИИ, вдохновлённый биологическим мозгом
• Что такое "непрерывное мышление" в архитектуре ИИ
• Почему Sakana AI считает, что будущее за гибкими, адаптивными агентами
• Механизмы, напоминающие эволюцию, самоорганизацию и устойчивое обучение
📺 Полное видео тут: https://youtu.be/dYHkj5UlJ_E
@ai_machinelearning_big_data
#SakanaAI #ai #ml
SakanaAI выпустили ролик, в котором рассказывается о подходах, где архитектура ИИ вдохновляется нейробиологией.
Continuous Thought Machine (CTM) - концептуальная архитектура от SakanaAI, вдохновленная биологическими процессами мозга человека. Вместо масштабирования «в ширину» концепт предлагает «глубину» мышления, учитывая временную динамику и имитируя естественные нейронные взаимодействия.
👉 Подробнее про архитектуру мы писали тут.
🎬 В видео объясняется:
• Как работает ИИ, вдохновлённый биологическим мозгом
• Что такое "непрерывное мышление" в архитектуре ИИ
• Почему Sakana AI считает, что будущее за гибкими, адаптивными агентами
• Механизмы, напоминающие эволюцию, самоорганизацию и устойчивое обучение
📺 Полное видео тут: https://youtu.be/dYHkj5UlJ_E
@ai_machinelearning_big_data
#SakanaAI #ai #ml
❤6👍1👎1
Forwarded from Machinelearning
Недавно, в одном из интервью Генеральный директор Anthropic Дэрио Амодеи предупредил, что ИИ может ликвидировать почти половину всех вакансий начального уровня для "белых воротничков" и поднять безработицу до 10-20% в течение следующих пяти лет.
Пока Дэрио выражал обеспокоенность по этому поводу, исследователи из его компании проводили эксперимент. Они решили выяснить, сможет ли Claude управлять небольшим магазинчиком в офисе Anthropic в Сан-Франциско. Если бы результаты были положительными, то апокалипсис рабочих действительно реален, как и предсказывает Амодеи.
В эксперименте перед Claude (3.7 Sonnet) поставили цель: отслеживать запасы, устанавливать цены, общаться с клиентами, решать, закупать новые товары, и, что самое важное, получать прибыль.
Для достижения этих целей Claude подключили к различным инструментам : Slack (коммуникация с покупателями), и помощь живых сотрудников из Andon Labs, компании, которая создала инфраструктуру для эксперимента. Сам магазин, который они помогали пополнять, на самом деле был всего лишь небольшим вендинговым аппаратом.
Эксперимент вышел из-под контроля практически сразу:
Эксперимент показал, что ИИ пока не готов забирать работу у людей. Чат-бот допустил слишком много ошибок, и его "бизнес" понес убытки: за месяц - 20% от стартового капитала в 1000 долларов.
Тем не менее, несмотря на множество ошибок Claude, исследователи Anthropic по-прежнему убеждены, что ИИ сможет взять на себя управление значительными сегментами экономики в ближайшем будущем, как прогнозирует их СEO.
Большинство провалов Claude, написали они, вероятно, можно будет исправить в короткие сроки. Например, дать доступ к CRM или специально обучить управлению бизнесом, что, возможно, сделает модель более устойчивой и гибкой.
@ai_machinelearning_big_data
#news #ai #ml #Сlaude
Please open Telegram to view this post
VIEW IN TELEGRAM
😁7❤4👍2🥰1
Когда с первого взгляда ясно — статья огонь.
Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥
Тех репорт: https://yiyan.baidu.com/blog/publication/ERNIE_Technical_Report.pdf
Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥
Тех репорт: https://yiyan.baidu.com/blog/publication/ERNIE_Technical_Report.pdf
👍6😁5❤2
Forwarded from Machinelearning
Iconiq Capital опросила 300 руководителей ИИ-стартапов с доходом от $10 млн. до $1 млрд. о том, как эти стартапы используют ИИ и собрала результаты в отчет "ICONIQ AI Builder’s Playbook 2025"
Iconiq Capital - американская компания по управлению инвестициями, основанная в 2011 году. Функционирует как гибридный семейный офис и имеет тесные связи с компанией Марка Цукерберга. Компания предоставляет услуги по инвестиционному менеджменту, частному капиталу, венчурным инвестициям, управлению недвижимостью и филантропии для состоятельных семей и организаций.
Эра экспериментальных ИИ-демо закончилась. Сейчас компании массово переходят к боевому использованию генеративных моделей - и тут уже не про «вау», а про ROI, стоимость инференса и объяснимость.
Компании, с нативными ИИ-продуктами, сильно опережают тех, кто "добавил ИИ". Почти половина стартапов нативных ИИ-продуктов уже достигла масштабирования (47% против 13% у ретрофитеров).
В продуктовом портфеле такой типовой компании в среднем 2,8 модели и они активно идут по пути агентных сценариев, причем многие строят архитектуру с возможностью быстрого свапа моделей.
ИИ ломает старые цены и бизнес-модели. 38% компаний используют гибридное ценообразование (подписка + плата за использование), ещё 19% — только за использование а 6% уже экспериментируют с outcome-based моделями.
Пока 40% включают ИИ в премиум-пакет, но 37% планируют пересмотреть подход, учитывая реальные метрики использования и отдачу.
ИИ перестал быть задачей «R&D-уголка». В быстрорастущих компаниях до 37% инженеров работают над ИИ, а AI/ML-инженеров нанимают в среднем за 70+ дней.
ИИ забирает до 20% R&D-бюджета, причем по мере роста проекта расходы смещаются с найма в сторону инференса и инфраструктуры.
68% компаний используют только облако, ещё 64% сидят на внешних API. OpenAI/GPT - лидер (81%), но растет доля мульти-модельных подходов (Claude, Gemini, Mistral и др.).
NVIDIA по-прежнему доминирует в инференсе: TensorRT и Triton используют 60% команд, но и ONNX Runtime (18%) с TorchServe (15%) укрепляют позиции.
Из инструментов для оркестрации лидируют LangChain и Hugging Face, а для мониторинга — Datadog и LangSmith (~17%). MLOps по-прежнему на MLflow (36%) и Weights & Biases (20%).
Самое сложное в развертывании продуктов оказалось не в коде, а в доверии и эффективности:
42% компаний говорят о проблемах доверия и объяснимости, 39% — не могут показать ROI, 38% — борются с галлюцинациями, а 32% — с высокой стоимостью инференса, а доступ к GPU — проблема лишь для 5%.
Главный вывод: чтобы внедрить ИИ, одной модели не достаточно, еще нужно обосновать ее бизнес-ценность и держать под контролем поведение.
77% команд используют ИИ для помощи в разработке (GitHub Copilot почти у всех), 65% — для генерации контента, 57% — для поиска знаний.
Те, у кого ИИ активно используется получают 15–30% прироста эффективности. Самые распространенные юзкейсы: кодинг, аналитика, поиск по внутренней документации.
Самое неожиданное
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3🥰2👌1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 У N + 1 вышел подкаст с Николаем Савушкиным, инженером рекомендательных систем Яндекса, который рассказал о сложностях и прорывах в отрасли и о новом поколении рекомендательных трансформеров.
Учёным не хватает крупных рекомендательных датасетов — компании редко делятся такими данными. Поэтому Яндекс опубликовал самый большой, по их данным, опенсорсный датасет, с помощью которого можно вести свои исследования.
Учёным не хватает крупных рекомендательных датасетов — компании редко делятся такими данными. Поэтому Яндекс опубликовал самый большой, по их данным, опенсорсный датасет, с помощью которого можно вести свои исследования.
❤7
🦙 Llama Cookbook — официальный гайд по работе с моделями Llama. Meta представила обновлённый репозиторий с практическими руководствами по использованию своих языковых моделей. Здесь собраны лучшие рецепты для inference, тонкой настройки и реальных кейсов — от анализа исследовательских работ до интеграции с WhatsApp.
Наибольший интерес вызывает раздел про работу с 5M контекстом в Llama 4 Scout и создание ментальных карт персонажей из книг с помощью Llama 4 Maverick. Репозиторий недавно пережил рефакторинг, объединив ранее разрозненные материалы в единую структуру.
🤖 GitHub
Наибольший интерес вызывает раздел про работу с 5M контекстом в Llama 4 Scout и создание ментальных карт персонажей из книг с помощью Llama 4 Maverick. Репозиторий недавно пережил рефакторинг, объединив ранее разрозненные материалы в единую структуру.
🤖 GitHub
👍11❤3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Из окон офисов VK — самые красивые закаты. А в самих офисах обитают самые любимые коллеги!
Ребята не только делают сервисы VK быстрее и удобнее, но и любят делиться знаниями. Совсем скоро они проведут открытый Java AI-митап и расскажут о том, как мы масштабируем процессы, а ещё поделятся фишками, которые стоят за сервисами VK.
Откликайтесь, если откликается!
Ребята не только делают сервисы VK быстрее и удобнее, но и любят делиться знаниями. Совсем скоро они проведут открытый Java AI-митап и расскажут о том, как мы масштабируем процессы, а ещё поделятся фишками, которые стоят за сервисами VK.
Откликайтесь, если откликается!
🖕8❤1👍1
Forwarded from Machinelearning
Мaitrix Org разработали WM-ABench, бенчмарк для оценки VLM в качестве так называемых «моделей мира». Идея проста: проверить, насколько хорошо топовые модели способны не просто распознавать картинки, а понимать окружающую действительность и предсказывать ее изменения.
Создатели, опираясь на когнитивную науку, создали фреймворк, который тестирует 15 самых популярных моделей по 23 параметрам, разделяя процесс на 2 ключевых этапа: восприятие и прогнозирование.
В основе бенчмарка - огромный датасет из более чем 100 тысяч примеров, сгенерированных в 6 различных симуляторах, от ThreeDWorld и Physion до Carla.
Чтобы модели не искали легких путей и не полагались на поверхностные совпадения, в тест добавили «сложные негативы» - контрфактические состояния, которые заставляют систему действительно анализировать происходящее.
Весь процесс был разделен на оценку восприятия (распознавание объектов, пространства, времени, движения) и прогнозирования (симуляция физики, транзитивный и композиционный вывод). Для калибровки сложности задач были установлены базовые показатели, основанные на результатах людей.
С простым визуальным восприятием, то есть с определение цвета или формы, все модели справляются отлично. Однако когда дело доходит до трехмерного пространственного мышления, динамики движения или временных последовательностей, начинаются серьезные проблемы.
Выяснилась и другая любопытная деталь: VLM склонны «спутывать» физические понятия. Например, если в сцене изменить только цвет объекта, модель может внезапно ошибиться в оценке его размера или скорости.
Оказалось, что цвет и форма являются самыми влиятельными атрибутами, которые искажают восприятие других, не связанных с ними характеристик.
Точное восприятие мира совершенно не гарантирует точного прогноза.
Исследование показало, что даже при идеально верном распознавании текущего состояния сцены модели проваливают предсказание физических взаимодействий.
Разрыв с человеческими способностями явный: в задачах на транзитивный вывод он достигает 46%, а композиционный вывод выполняется на уровне случайного угадывания.
У современных VLM отсутствуют базовые знания физики, необходимые для симуляции даже простейших событий. Они видят мир, но не понимают, по каким законам он живет.
@ai_machinelearning_big_data
#AI #ML #VLM #Benchmark #Maitrix
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
📘 Один из самых захватывающих научных обзоров за последнее время — 120 страниц про ИИ в науке!
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
Это первое масштабное исследование, охватывающее весь цикл научной работы:
🧠 формулировка гипотез
🔬 автоматизация экспериментов
📊 анализ данных
✍️ генерация научных текстов
🤖 и даже управление исследовательским процессом
Лето выдалось жарким для #AI4Science: в сообществе alphaXiv уже 1000+ человек. И эта работа — отличная точка входа в то, как ИИ реально меняет науку.
📄 Читать статью:
https://arxiv.org/abs/2507.01903
🌐 Обсуждение здесь:
https://alphaxiv.org/channels/towards-automated-research/6822973d801dc5932300da7f
@machinelearning_books - ml книги
❤8👍2🔥1
🧠 NVIDIA: будущее ИИ-агентов — не в LLM, а в SLM
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
Большие языковые модели (LLM) — мощные, но громоздкие.
Для агентных систем, где ИИ выполняет простые задачи снова и снова, это — перебор.
🔍 В новом исследовании NVIDIA делает смелое заявление:
маленькие языковые модели (SLM) — это:
✅ Достаточно умно
✅ Намного дешевле
✅ Идеально подходит для агентных систем
Почему SLM — лучше для ИИ-агентов:
⚡ Меньше задержка, меньше ресурсов
📱 Работают на устройствах (в том числе offline)
🔁 Легко и быстро обучаются под конкретную задачу
🧩 Отлично сочетаются в модульных системах: каждый агент — своя модель
Что предлагает NVIDIA:
1. Ставить на SLM для снижения стоимости и ускорения работы
2. Комбинировать модели: использовать LLM только там, где без них не обойтись
3. Проектировать гибкие системы, где каждый агент делает одну задачу, но хорошо
4. Дообучать SLM под узкие роли — это быстро и эффективно
💡 SLM — это не упрощение, а оптимизация.
Умные, быстрые и дешёвые агенты — вот куда движется AI-индустрия.
📄 Читай полное исследование: research.nvidia.com/labs/lpr/slm-agents
❤7👍6🥱2🔥1
🤩 Как упростить ML-стек и при этом ещё и поднять бизнес-метрики?
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
Именно об этом в своей новой статье рассказывают инженеры Яндекс Лавки. Они выкинули из рекомендаций целый этап — кандидатогенерацию — и умудрились за счёт этого нарастить выручку и discovery.
Внутри статьи — детальный разбор:
⚡ Как они разогнали C++ код в питонячей обёртке, чтобы скорить тысячи товаров в реальном времени.
⚡ Почему пришлось отказаться от части фичей и как это повлияло на качество.
⚡ Как упрощение архитектуры в итоге всё-таки привело к росту метрик.
Отличный пример того, как может окупиться смелость в инженерных решениях.
❤4