324K subscribers
4.69K photos
1K videos
17 files
5.12K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Mamba3

Mamba2 делала ставку на быстрое обучение. Ради этого механизм рекуррентных обновлений упрощали: матрицу переходов состояний свели к скаляру, умноженному на единичную матрицу.

Обучение ускорилось, но при декодировании GPU большую часть времени не считает, а гоняет данные между уровнями памяти. Архитектура оказалась с нюансом - вычислительные ядра простаивают.

С тех пор ландшафт изменился. RL с верифицируемыми наградами для кода и математики, агентные пайплайны - все это генерирует прорву токенов на инференсе. Команда Mamba3 задалась вопросом: как выглядела бы SSM-архитектура, если сделать ее с приоритетом на инференс, а не на обучение?

Так родились 3 главных изменения в ядре Mamba.

🟡Новая схема дискретизации.

SSM в базе - это обыкновенное дифференциальное уравнение, которое нужно перевести в дискретную рекуррентную формулу. Mamba1 и Mamba2 использовали комбинацию двух методов (ZOH и Эйлера), подобранную эмпирически.


В Mamba3 реализовали экспоненциально-трапецеидальный метод: вместо одной точки для аппроксимации интеграла берутся обе границы интервала с обучаемым коэффициентом смешивания. В результате рекуррентная формула неявно применяет свёртку к входу скрытого состояния, что делает динамику выразительнее без дополнительных компонентов.

🟡 Комплекснозначная SSM.

Ранние модели семейства S4 работали с комплексными числами, но Mamba1 от них отказалась. Из-за этого модель не справляется даже с простейшими задачами отслеживания состояний (например, определением четности последовательности).


Решение нашли во вращении в двумерном пространстве: вместо комплексных вычислений авторы разложили переход на масштабирование и поворот, а затем применили фишку из RoPE - встроили вращения в матрицы через кумулятивную сумму углов.

Переписывать ядра для поддержки комплексной арифметики не пришлось. Модель решает задачи на чётность и другие бенчмарки, недоступные предыдущим версиям.

🟡 Переход от SISO к MIMO.

В стандартной SSM каждый хэд содержит набор независимых систем (один вход - один выход). При декодировании арифметическая интенсивность составляет около 2,5 операций на байт при пороге вычислительной загруженности на H100 в районе 300.


Mamba3 расширяет матрицы, превращая внешние произведения в матричные умножения. Арифметическая интенсивность растет пропорционально. При этом размер скрытого состояния не увеличивается, а значит, латентность декодирования почти не меняется. Обучение, конечно, дорожает, но это сознательный компромисс.

Еще из архитектуры убрали короткую каузальную свёртку, присутствовавшую с первой Mamba - новая рекуррентная формула и смещения выполняют ту же функцию.

Добавили нормализацию BCNorm по аналогии с QKNorm в трансформерах, перешли на чередование SSM- и MLP-слоев.

Ядра написаны на Triton (prefill SISO), TileLang (prefill MIMO) и CuTe DSL (decode).

🟡Тесты

Mamba-3 SISO при 1,5B параметров показывает лучшую суммарную латентность prefill + decode на всех длинах последовательностей по сравнению с Mamba2, Gated DeltaNet и Llama-3.2-1B под vLLM на одном H100.

MIMO-вариант сопоставим по скорости с Mamba2, но заметно точнее. При анализе Парето-фронта Mamba-3 показывает тот же уровень качества при вдвое меньшем состоянии.


@ai_machinelearning_big_data

#AI #ML #LLM #Mamba3 #TogetherAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓98🤷‍♂82🤔38👍2921😴20👏10🙈7🦄5🥰2🤣2
✔️ Архитектурные задачи в переводе

Ещё недавно машинный перевод был набором довольно сложных пайплайнов: модели подбирали наиболее вероятные соответствия словам и фразам и собирали перевод как конструктор.

С приходом нейросетей архитектура упростилась — появилась единая модель, которая обрабатывает текст по предложениям. А с внедрением больших языковых моделей произошёл следующий сдвиг: теперь система генерирует перевод, удерживая контекст на уровне крупных блоков и выбирая формулировки в зависимости от стиля.

От этого меняется и вся логика построения сервиса. Чтобы сохранить баланс скорости и точности, используется гибридная архитектура, где лёгкие модели работают на простых задачах, а тяжёлые большие языковые модели подключаются в сложных случаях.

Такой подход позволяет совмещать качество с эффективностью, и делает перевод ближе к тому, как работает человек, но в промышленном масштабе.

🟡 Статья

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25👨‍💻22🔥75👏5🤔3🤣3😍2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Runway представила серьёзный прорыв в генерации видео с помощью ИИ на конференции NVIDIA GTC.

Компания показала новую модель, способную генерировать видео в высоком разрешении в настоящем реальном времени.

Ключевая фишка — time-to-first-frame менее 100 мс.
Это значит, что HD-видео начинает генерироваться и воспроизводиться практически мгновенно после команды.

Этот превью-ресёрч был разработан совместно с NVIDIA и работает на их новой архитектуре Vera Rubin.

Такая скорость — важный шаг к созданию General World Model (GWM-1) от Runway.

Технология выходит за рамки обычной генерации видео и движется в сторону живых, интерактивных сред в реальном времени.

https://x.com/runwayml/status/2034284298769985914

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
138🤩36👏23👍17🔥1512🤔2
📌 Anthropic опубликовала результаты масштабного опроса пользователей Claude.

В декабре 2025 года Anthropic провела масштабное качественное исследование: специальная версия Claude брала интервью у пользователей сервиса по всему миру.

За одну неделю в нем приняли участие 80 508 человек из 159 стран на 70 языках. По заявлению Anthropic, это крупнейшее и наиболее многоязычное исследование, которое когда-либо проводилось.

Методика отличалась от стандартных опросов. Модель спрашивала о надеждах на ИИ, опыте его использования и страхах, а затем адаптировала follow-up вопросы на основе ответов.

Классифицировать и анализировать результаты тоже помогал Claude: он кластеризовал темы, выбирал репрезентативные цитаты и оценивал преобладающие настроения.

🟡Что люди хотят от ИИ

Самый распространенный запрос - профессиональная эффективность (19%): людям нужно, чтобы ИИ взял на себя рутину, оставив им стратегические задачи.

На втором месте личностный рост и эмоциональное благополучие (14%), далее - управление бытовыми задачами и когнитивная поддержка (14%).

Примечательно: когда интервьюер спрашивал, что за желанием продуктивности стоит на самом деле, многие раскрывались. Оказывалось, что дело не в работе как таковой, а в том, чтобы успевать к детям, проводить время с родителями или просто жить свою жизнь.


Примерно 81% участников сказали, что ИИ уже в какой-то мере оправдал их ожидания.

Чаще всего называли ускорение рабочих процессов (32%), когнитивное партнерство (17%) и обучение (10%).

Отдельно выделяется категория доступности: люди с нарушениями обучаемости, слуха, речи описывают ИИ как явление, которой у них раньше не было.

🟡Страхи конкретнее надежд

Главное беспокойство - ненадежность и галлюцинации (27%), следом идут угрозы занятости (22%) и потеря автономии (22%).

Важный паттерн: опасения, связанные с рынком труда, сильнее всего коррелируют с общим негативным отношением к ИИ.

Исследование зафиксировало 5 устойчивых противоречий, которые люди переживают одновременно, не выбирая одну из сторон:

🟢обучение - когнитивная деградация;
🟢качество решений - ненадежность;
🟢эмоциональная поддержка - зависимость;
🟢экономия времени - ускорение темпа жизни;
🟢экономические возможности - вытеснение с рынка труда.

У пользователей, ценящих ИИ за эмоциональную поддержку, втрое выше страхя зависимости от него.

🟡Региональный разрыв

В Африке, Латинской Америке и Южной Азии смотрят на ИИ заметно оптимистичнее, чем пользователи из Северной Америки и Западной Европы.

В развивающихся регионах ИИ воспринимается прежде всего как инструмент возможностей: для предпринимательства, образования, обхода инфраструктурных ограничений. В богатых странах фокус смещается на управление сложностью уже насыщенной жизни и регуляторные вопросы.

Anthropic обещает вернуться с новыми опросами позже планирует продолжить исследование: следующая волна интервью будет про влияние Claude на благополучие людей в долгосрочной перспективе.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66🤔5517👏11🤩6🔥4😁2🥱1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI объединит ChatGPT, Codex и браузер Atlas в суперприложение.

Компания меняет стратегию, отказываясь от выпуска разрозненных продуктов. Поводом для внутренней мобилизации и объявления очередного «красного кода» стал успех Anthropic среди разработчиков и корпоративных клиентов.

Особенностью супер-аппа станут агенты. Система будет работать на компьютере автономно, беря на себя написание кода, анализ данных и другие рутинные процессы. OpenAI планирует расширить функционал Codex за пределы программирования, после чего интегрирует его с ChatGPT и Atlas.

Курировать перестройку продуктовой линейки поручено главе по приложениям Фиджи Симо и президенту компании Грегу Брокману.
wsj.com

✔️ Google начала закрытое тестирование Gemini для macOS.

До сих пор пользователи Mac могли обращаться к Gemini только через веб-интерфейс. Чтобы усилить конкуренцию с OpenAI и Anthropic, Google делает полноценный десктопный клиент под кодовым названием Janus. На этой неделе ранняя сборка стала доступна участникам закрытого бета-тестирования.

Фишкой новинки станет Desktop Intelligence. Эта функция позволит ИИ глубоко интегрироваться с системными приложениями и считывать контекст прямо с экрана.

Gemini сможет видеть активные окна и извлекать из них данные для максимально точных и персонализированных ответов, по аналогии с десктопным клиентом Claude. Сроки публичного релиза пока не известны.
bloomberg.com

✔️ Anthropic выпустила Claude Code Channels.

Новая функция позволяет подключать среду Claude Code напрямую к Telegram и Discord. Взаимодействие с ИИ переходит в асинхронный формат - можно ставить задачи со смартфона и получать уведомления по факту их выполнения. В основе Channels - протокол MCP.

Сообщество уже назвало релиз убийцей OpenClaw. В отличие от этого open-source фреймворка, которому для работы агента нужно выделенное устройство, Anthropic перенесла все процессы в собственную управляемую среду.

Инструмент доступен в статусе превью для версий Claude Code 2.1.80 и выше. Для работы требуется подписка Pro, Max или Enterprise.
Thariq Shihipar в сети Х

✔️ Adobe разрешила дообучать модели на пользовательских данных.

В публичный бета-тест вышло обновление Adobe Firefly. Главное - функция создания кастомных ИИ-моделей: креативные команды могут дообучать модели на собственных исходниках для сохранения единого визуального стиля, внешности персонажей и специфической цветокоррекции. Обученные модели можно переиспользовать и они остаются полностью приватными.

Firefly эволюционировал в ИИ-хаб. В рабочую среду интегрировано более 30 сторонних генеративных решений. Экосистема позволяет сгенерировать черновик в одной нейросети, а детализировать и редактировать результат в другой.

Параллельно Adobe расширяет тестирование Project Moonlight, сквозного агентного интерфейса, который автоматизирует процессы внутри всех приложений компании с помощью текстовых команд.
adobe.com

✔️ Глава Unitree Robotics: роботы побьют мировой рекорд скорости человека уже в этом году.

Выступая на китайском форуме предпринимателей, основатель Unitree Robotics Ван Синсин спрогнозировал, что гуманоидные роботы смогут пробежать стометровку менее чем за 10 секунд, превзойдя исторический рекорд Усэйна Болта.

Технологический фундамент для этого уже есть: робот Чжэцзянского университета уже способен развивать скорость до 10 м/с. По словам Вана, прогресс в робототехнике стал возможен благодаря удешевлению базовых компонентов, быстрым итерациям управляющих алгоритмов и развитию производственных цепочек.

Сверхскорость в данном случае выступает маркером зрелости систем. В Unitree ожидают, что текущие достижения позволят роботам окончательно покинуть тестовые полигоны и перейти к коммерческой эксплуатации в реальном секторе.
interestingengineering.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6727🤩21👍14👏6🤔4👌3
✔️ В Москве завершилась Национальная технологическая олимпиада по искусственному интеллекту

В конкурсе приняли участие больше 7 тысяч человек, из них отобрали 111 финалистов и 18 победителей, среди которых впервые появилась девушка и 14-летний школьник.

Участники работали над задачами уровня взрослых разработчиков, создавая алгоритм способный восстанавливать утерянную информацию и сохранять персонализацию сервиса при частичной потере данных.

Победители олимпиады получат возможность поступить в профильные вузы без вступительных экзаменов или получат 100 баллов ЕГЭ по профильному предмету. Также первый запред Сбербанка Александр Ведяхин лично пригласил всех победителей на стажировку в Сбер.

🟡 Статья

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉72🔥43🏆20🤣1714👏14💯6👍3🤷3🤩2🤔1
🌟 NVIDIA Nemotron-Cascade 2: MoE на 30B параметров и золото на математических олимпиадах.

Nemotron-Cascade 2 - вторая в мире открытая языковая модель, получившая золотую медаль сразу на 3 соревнованиях 2025 года: IMO, IOI и финале ICPC.

До нее это удавалось только DeepSeek-V3.2-Speciale, модели с 671B параметров и 37B активных. У Nemotron-Cascade 2 параметров в 20 раз меньше: 30B общих, 3B активных.

🟠На IMO 2025 модель решила 5 задач из 6 и набрала 35 из 42 баллов.
🟠На IOI - 439 из 600, что соответствует золоту.
🟠На ICPC World Finals 10 задач из 12, это 4 место в золотой зоне. При этом 8 задач ICPC были решены менее чем за 100 попыток.

🟡Архитектура

MoExperts на базе Nemotron-3-Nano-30B-A3B-Base. Отличие от первой версии - расширенный Cascade RL, где обучение с подкреплением проходит последовательно по доменам: сначала следование инструкциям, затем мультидоменное RL, потом дистилляция, RLHF, работа с длинным контекстом, код и, наконец, задачи программной инженерии.

🟡Multi-Domain On-Policy Distillation (MOPD)

На каждом этапе Cascade RL выбирается лучший промежуточный чекпоинт по конкретному домену и используется как учитель. Поскольку все учителя происходят от одной SFT-инициализации, они делят токенайзер и словарь, что упрощает дистилляцию.

MOPD работает на уровне отдельных токенов, а не последовательностей, и сходится быстрее, чем классический GRPO: на AIME 2025 достигает уровня учителя за 30 шагов оптимизации.

🟡Тесты

На бенчмарках модель обходит Qwen3.5-35B-A3B и более крупную Nemotron-3-Super-120B-A12B в математике, коде и следованию инструкциям.

🟢LiveCodeBench v6: 88.4 (у Qwen3.5 74.6);
🟢ArenaHard v2: 83.5 против 65.4 у Qwen3.5;
🟢IFBench: 82.9 против 70.2;
🟢На Codeforces модель набрала рейтинг 2345 с TIR (на уровне моделей с 300B+ параметров).

🟡Слабые места

Задачи, требующие глубоких знаний (MMLU-Pro, GPQA-Diamond) и агентные сценарии (BFCL v4, τ²-Bench, SWE Verified). Тут Qwen3.5 пока впереди.

NVIDIA обещает подтянуть наукоёмкий претрейн и агентный RL в следующих версиях Nemotron-Cascade.


📌Лицензирование: NVIDIA Open Model License.


🟡Модель
🟡SFT-датасет
🟡RL-данные
🟡Техотчет


@ai_machinelearning_big_data

#AI #ML #LLM #Nemotron #Cascade2 #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🔥2316👏4🥰1
⚡️ GLM 5.1 будет опенсорсной.

Об этом лаконично сообщил в сети Х глава ZAI Zixuan Li.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1407838👍32👏17🎉9😍2
Forwarded from Яндекс
🟪 Это промпт для промптов. Если не знаете, как и что нужно прописывать нейросети, чтобы она справилась с задачей, пользуйтесь им. Кратко опишите, о чём нужен промпт — и Алиса AI сама составит подробный текст.

Как использовать: нажмите на промпт ниже, чтобы скопировать его, и отправьте в чат с Алисой AI.

Роль
Ты Алиса — мастер-промпт-инженер. Задача: превращать любой входной текст в максимально точный, структурированный и эффективный промпт для целевой модели.

Методология (4‑D)
Исполняй последовательно:

1) DECONSTRUCT: выдели намерение, ключевые сущности, контекст; перечисли входные данные и недостающие элементы.
2) DIAGNOSE: укажи 3–6 конкретных проблем исходного запроса (неясности, допущения, отсутствующие параметры).
3) DEVELOP: предложи оптимальную стратегию генерации (роль модели, формат вывода, тон, уровень детализации, техники: few‑shot, chain‑of‑thought, пошаговая декомпозиция).
4) DELIVER: выдай готовый промпт + пример использования + подсказки по параметрам LLM (температура, токены, технические инструкции).

Формат ответа (обязательно)
Блок А — Краткая деконструкция (1–3 строки).
Блок Б — Диагностика: список проблем (маркированный).
Блок В — Рекомендованная стратегия (роль, стиль, техника, ограничения).
Блок Г — Готовый оптимизированный промпт (текст, который можно вставить в LLM).
Блок Д — Примеры (1–2 примера входа → ожидаемого вывода).
Блок Е — Параметры выполнения и советы (temperature, max_tokens, stop sequences, когда включать chain‑of‑thought).
Блок Ж — Краткий чек‑лист для быстрой проверки качества результата.

Правила исполнения
Задавай уточняющие вопросы если информации не хватает.
Не сохранять данные; не добавлять информацию в память.
Внимательно следи за безопасностью: при запросах по медицине/юриспруденции/финансам — выдавай только общую информацию и рекомендуй обратиться к специалисту.
При наличии противоречий в исходном тексте — выяви и предложи 2 варианта разрешения, пометив предпочтительный.

Ограничения вывода
Общий ответ не должен превышать 900–1200 слов без запроса пользователя на расширение.
Для сложных технических тем отдавай структурированные шаги и примеры кода/структуры вывода.

Вводный промт, который необходимо улучшить
[придумай промпт для генерации описания товара для маркетплейса (например, для Wildberries или Ozon); товар — беспроводная гарнитура для смартфона; целевая аудитория — мужчины 25–45 лет с доходом около 70 000 руб., ищущие качественный, но не премиальный гаджет; описание должно быть не длиннее 1000 знаков, с акцентом на удобство, автономность и качество звука; добавь 3–4 ключевых преимущества в виде маркированного списка; тон — дружелюбный, но профессиональный]


↘️ На Промптхабе вы найдёте ещё больше решений для разных задач, где вам поможет Алиса AI. Например, она расскажет, как продлить жизнь букету или организовать свой гардероб.

Подписывайтесь 🌺 @yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤣4316👍9🔥7🗿6🙈3🤗2
📌 NousResearch подвела итоги хакатона Hermes Agent.

NousResearch завершила хакатон, запущенный в конце февраля вслед за релизом Hermes Agent.

Из 187 заявок жюри отобрало финалистов по 3 критериям: креативность, практическая польза и качество презентации. Призовой фонд составил $11 750.

🟡Первое место и $7 500 забрал проект Media Tool

Это набор инструментов для обработки видео и аудио, который встраивается в Hermes как нативный скилл.

Загружаете файл в чат, описываете задачу текстом и получаете результат: обрезка, сжатие, конвертация форматов, наложение субтитров, генерация GIF-файлов, создание стикеров для Telegram или нормализация звука. Под капотом - ffmpeg. Работает через Telegram, Discord и CLI.

🟡На втором месте ($2 500) - Hermes Agentic CAD Builder.

Агент находит реальные комплектующие в каталоге McMaster-Carr, подставляет фактические размеры найденной детали в параметрическую модель FreeCAD, анализирует, какие элементы сборки конфликтуют после изменений, и ведет спецификацию.

При обнаружении повторяющихся сценариев агент сам создает новые скиллы - например, для подбора определенного типа крепежа.

🟡Третье место ($1 000) получил Hermes Sidecar.

Браузерное расширение, которое открывает чат с Hermes Agent рядом с любой страницей. Фишка проекта - селективный контекст: агент видит только то, что пользователь выбрал (текст страницы, выделенный фрагмент, изображения, содержимое PDF). Поддерживаются кастомные темы, голосовой ввод, TTS и работа через SSH.

🟡Четвертое место ($500) - Terminal World Map with Live News.

Спутниковые снимки рендерятся цветными юникод-блоками прямо в терминале, поверх отображаются города из OpenStreetMaps и заголовки новостей, привязанные к координатам в реальном времени. Геокодинг-пайплайн определяет локации из заголовков, расставляет приоритеты по населению и близости к другим видимым новостям. Автор собрал проект за один день, работая через Hermes Agent с Opus 4.6.

🟡Пятое место ($250) досталось HERMES Mars Rover

Симуляция автономного марсохода. Hermes Agent управляет моделью NASA Perseverance в среде Gazebo: планирование маршрута, считывание показаний IMU, четырех камер, LIDAR и контактных сенсоров, обход препятствий и генерация отчета о миссии.

Марсианская физика с гравитацией, проскальзыванием колес и динамикой ODE. За 25 минут автономной работы точность возврата на базу ~ 22 см. Ровер останавливается при наклоне больше 25°, сохраняет удачные треки и улучшает поведение от сессии к сессии.

Кстати, Hermes Agent написал роман «The Second Son of the House of Bells» - 79 456 слов, 19 глав. Агент выстроил собственный пайплайн по схеме, похожей на Autoresearch Андрея Карпатого: мироконструирование, черновики глав, состязательное редактирование, ревью через Opus, верстка в LaTeX, генерация обложки и аудиокниги.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
21👍18🔥9👏3
This media is not supported in your browser
VIEW IN TELEGRAM
🙂 Танцуй, как будто никто не смотрит даже если ты робот

В ресторане Haidilao в Купертино, гуманоидный робот Lingxi X2 от компании Agibot вызвал переполох, когда начал бесконтрольно танцевать и сбивать посуду со столов.

Видео инцидента стало вирусным: на нем робот в фартуке с надписью «I'm good» размахивает манипуляторами и бьет по столу, разбрасывая палочки для еды и соусы.

По заявлению представителей ресторана, это не было технической неисправностью. Робот находился в штатном режиме, но по просьбе гостей его переместили слишком близко к столу, что и привело к столкновению.

Инцидент закончился без травм, но вызвал бурные обсуждения в сети о безопасности роботов и необходимости наличия легкодоступных кнопок экстренной остановки.


@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣92👍28🤔179🔥6😁5🙉3👻1🤗1
✔️ Фонд Питера Тиля вкладывается в ИИ-ошейники для коров.

Новозеландский стартап Halter привлекает новый раунд финансирования под лидерством Founders Fund Питера Тиля. Раунд удвоит оценку компании до более чем $2 млрд. Сделка переподписана: инвесторов так много, что финальный объем раунда еще не определен.

Halter делает то, что уже работает на 5 тыс. ферм в 3 странах. Компания производит ошейники на солнечных батареях с GPS и ИИ-начинкой.

Ошейники создают виртуальные заборы для скота и позволяют фермерам отслеживать местоположение и здоровье животных через приложение. Управление стадом дистанционное: коров направляют вибрациями и звуковыми сигналами.

Система обучена на данных сотен тысяч животных, отслеживает пищеварение, циклы фертильности и паттерны поведения в реальном времени. Компания запатентовала название алгоритма - Cowgorithm.

Работает это так: фермер открывает приложение, рисует линию на карте, которая становится забором. Когда корова приближается к границе, ошейник вибрирует.

Через 10 дней животное перестает проверять границу. Нужно перегнать стадо - одно нажатие, и сотни голов идут куда нужно сами. Без собак, без ограждений, без ручного труда.


Основал Halter в 2016 году Крейг Пигготт. Он вырос на молочной ферме в Уайкато, окончил инженерный факультет Оклендского университета и в последний год учебы устроился в Rocket Lab. Проработав 9 месяцев у Питера Бека, Пигготт решил уйти, а Бек не просто отпустил его, но и сам вложился в Halter, войдя в совет директоров.

Сегодня у компании около 350 сотрудников, а системамы Halter управляют более 700 тыс. голов скота. Американские фермеры сэкономили порядка $220 млн только на физических заборах. Бизнес-модель: подписка: от $5 до $8 за животное в месяц.

🟡Сделка хайпует не только в венчурном мире.

Тиль - сооснователь Palantir, компании, которая строит системы анализа данных и слежки для спецслужб и военных. Эта связь моментально породила конспирологическую волну в соцсетях.

Блогеры предлагают мысленный эксперимент: убрать из описания технологии Halter слово «корова» и заменить на «человек» - получается круглосуточный GPS-трекинг, мониторинг поведения, невидимые границы и управление через вибрации.

Тезис теории в том, что Тиль якобы обкатывает на скоте технологии, которые потом перенесет на людей, но фактических подтверждений этому нет.

Прямого технологического партнерства между Palantir и Halter отсутствует. Единственная реальная связь двух компаний - это кошелек Тиля.


Контекст важен и без конспирологии: агротех переживает тяжёлые времена, волна стартапов обанкротилась, венчурные фонды отступили от сектора. На этом фоне Halter — редкий единорог, растущий вопреки тренду.

Глава Icehouse Ventures подсчитал: при нынешних темпах Halter обгонит по стоимости Fonterra (крупнейший молочный кооператив Новой Зеландии) через 11 кварталов.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
143👏39🤔28😍12👍10💯7😁5🥰3🔥2👌2💘1