This media is not supported in your browser
VIEW IN TELEGRAM
В ресторане Haidilao в Купертино, гуманоидный робот Lingxi X2 от компании Agibot вызвал переполох, когда начал бесконтрольно танцевать и сбивать посуду со столов.
Видео инцидента стало вирусным: на нем робот в фартуке с надписью «I'm good» размахивает манипуляторами и бьет по столу, разбрасывая палочки для еды и соусы.
По заявлению представителей ресторана, это не было технической неисправностью. Робот находился в штатном режиме, но по просьбе гостей его переместили слишком близко к столу, что и привело к столкновению.
Инцидент закончился без травм, но вызвал бурные обсуждения в сети о безопасности роботов и необходимости наличия легкодоступных кнопок экстренной остановки.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣126👍37🤔17❤11🔥8😁5🙉3👻1🤗1
Новозеландский стартап Halter привлекает новый раунд финансирования под лидерством Founders Fund Питера Тиля. Раунд удвоит оценку компании до более чем $2 млрд. Сделка переподписана: инвесторов так много, что финальный объем раунда еще не определен.
Halter делает то, что уже работает на 5 тыс. ферм в 3 странах. Компания производит ошейники на солнечных батареях с GPS и ИИ-начинкой.
Ошейники создают виртуальные заборы для скота и позволяют фермерам отслеживать местоположение и здоровье животных через приложение. Управление стадом дистанционное: коров направляют вибрациями и звуковыми сигналами.
Система обучена на данных сотен тысяч животных, отслеживает пищеварение, циклы фертильности и паттерны поведения в реальном времени. Компания запатентовала название алгоритма - Cowgorithm.
Работает это так: фермер открывает приложение, рисует линию на карте, которая становится забором. Когда корова приближается к границе, ошейник вибрирует.
Через 10 дней животное перестает проверять границу. Нужно перегнать стадо - одно нажатие, и сотни голов идут куда нужно сами. Без собак, без ограждений, без ручного труда.
Основал Halter в 2016 году Крейг Пигготт. Он вырос на молочной ферме в Уайкато, окончил инженерный факультет Оклендского университета и в последний год учебы устроился в Rocket Lab. Проработав 9 месяцев у Питера Бека, Пигготт решил уйти, а Бек не просто отпустил его, но и сам вложился в Halter, войдя в совет директоров.
Сегодня у компании около 350 сотрудников, а системамы Halter управляют более 700 тыс. голов скота. Американские фермеры сэкономили порядка $220 млн только на физических заборах. Бизнес-модель: подписка: от $5 до $8 за животное в месяц.
Тиль - сооснователь Palantir, компании, которая строит системы анализа данных и слежки для спецслужб и военных. Эта связь моментально породила конспирологическую волну в соцсетях.
Блогеры предлагают мысленный эксперимент: убрать из описания технологии Halter слово «корова» и заменить на «человек» - получается круглосуточный GPS-трекинг, мониторинг поведения, невидимые границы и управление через вибрации.
Тезис теории в том, что Тиль якобы обкатывает на скоте технологии, которые потом перенесет на людей, но фактических подтверждений этому нет.
Прямого технологического партнерства между Palantir и Halter отсутствует. Единственная реальная связь двух компаний - это кошелек Тиля.
Контекст важен и без конспирологии: агротех переживает тяжёлые времена, волна стартапов обанкротилась, венчурные фонды отступили от сектора. На этом фоне Halter — редкий единорог, растущий вопреки тренду.
Глава Icehouse Ventures подсчитал: при нынешних темпах Halter обгонит по стоимости Fonterra (крупнейший молочный кооператив Новой Зеландии) через 11 кварталов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤89👏60🤔36👍12😍12💯8😁7🥰3🔥2👌2💘2
Media is too big
VIEW IN TELEGRAM
До конца года OpenAI планирует увеличить число специалистов почти в 2 раза - с 4500 до 8000 человек. Найм связан с желанием закрепить лидерство в B2B-сегменте и ускорить продуктовую гонку с Anthropic и Google.
Новые кадры усилят разработку, инженерию, ИИ-исследования и продажи. Акцент - на поиске экспертов, которые помогут бизнесу интегрировать инструменты OpenAI в свои процессы.
Чтобы всех разместить, стартап уже подписал договор на новый офис (общая площадь превысила 93 тыс. кв.м). Для достижения целей OpenAI предстоит нанимать в среднем по 12 человек ежедневно.
ft.com
Дженсен Хуанг озвучил новую модель компенсации: помимо базовой зарплаты, сотрудникам планируют выделять бюджет в виде ИИ-токенов. По словам CEO Nvidia, базовая ставка инженера в Кремниевой долине высока и компания готова добавить бонус в токенах, эквивалентный половине средней зарплаты.
Это позволит свободно запускать ИИ-инструменты и делегировать им задачи с минимальным вмешательством человека. Идея отражает видение Хуанга об эволюции рабочих мест: инженеры будут управлять целым парком цифровых помощников.
Nvidia уже делает ставку на подобный симбиоз - глава корпорации рассчитывает, что бок о бок с 42 тыс. сотрудников будут трудиться сотни тысяч ИИ-агентов. Доступ к корпоративным ИИ-ресурсам станет одним из главных инструментов ИТ-рекрутинга.
cnbc.com
Триада объединит усилия для создания TERAFAB - полного цикла от микросхем и чипов памяти до передовой компоновки кристаллов. Плановая мощность достигнет 1 тераватта.
Проект задуман как база для ежегодного вывода на орбиту 100 млн. тонн оборудования для сбора солнечной энергии, запуска космических ИИ-спутников и развертывания миллионов роботов Optimus.
По оценкам инженеров, только для роботов потребуется выпуск чипов мощностью от 100 до 200 гВт. Такие потребности превосходят возможности всех мировых производителей полупроводников вместе взятых и оставляют далеко позади прогнозы индустрии на 2030 год.
Tesla в сети Х
На China Partner Conference 2026 вендор выпустил ускоритель Atlas 350 на базе процессора Ascend 950PR. По заявлениям разработчиков, мощность одной карты в 2,87 раза превышает Nvidia H20. Это единственный ИИ-ускоритель на китайском рынке с поддержкой вычислений в формате FP4.
По сравнению с прошлым поколением существенно выросли векторная производительность и пропускная способность интерфейсов. Ускоритель оснащен 112 ГБ памяти HBM собственной разработки, что позволяет загружать LLM до 70 млрд. параметров на одну карту.
finance.sina.com.cn
За 10 лет фанаты игры невольно собрали базу для обучения пространственного ИИ. Приложение накопило более 30 млрд. фотографий реального мира благодаря квестам, мотивирующим сканировать памятники и здания. Niantic Spatial взяло этот датасет и собрало систему визуальной навигации.
В отличие от GPS, она определяет локацию с точностью до сантиметров по визуальным маркерам. Это решает проблему навигации внутри помещений и в районах с плотной застройкой, где спутниковый сигнал искажается или пропадает.
Coco Robotics уже ставит эту систему на своих автономных курьеров. У роботов 4 камеры, они едут по улице и на ходу сверяются с 3D-картами, которые годами собирали ловцы покемонов.
the-independent.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍161❤28👏28🔥19💯16🎉9🤔3😐2🤓1
Как перейти от ИИ-экспериментов к рабочим системам
Рассказываем, где узнать реальный опыт тех, кто встроил искусственный интеллект в ключевые процессы компании и извлек из этого реальную выгоду. 22 апреля присоединяйтесь к конференции МЛечный путь от Selectel, провайдера инфраструктуры для ИИ.
Эксперты топовых ИТ-компаний расскажут:
🔺Как ускорить ML-пайплайны и снизить издержки на инференс без потери качества
🔺Как безопасно внедрить генеративные модели в ключевые процессы и управлять эффектом этого внедрения
🔺Как интегрировать модели в существующую ИТ-архитектуру
Конференция пройдет 22 апреля в Москве. Участие бесплатное, регистрируйтесь: https://slc.tl/23df5
Реклама. АО "Селектел". erid:2W5zFHnSn9f
Рассказываем, где узнать реальный опыт тех, кто встроил искусственный интеллект в ключевые процессы компании и извлек из этого реальную выгоду. 22 апреля присоединяйтесь к конференции МЛечный путь от Selectel, провайдера инфраструктуры для ИИ.
Эксперты топовых ИТ-компаний расскажут:
🔺Как ускорить ML-пайплайны и снизить издержки на инференс без потери качества
🔺Как безопасно внедрить генеративные модели в ключевые процессы и управлять эффектом этого внедрения
🔺Как интегрировать модели в существующую ИТ-архитектуру
Конференция пройдет 22 апреля в Москве. Участие бесплатное, регистрируйтесь: https://slc.tl/23df5
Реклама. АО "Селектел". erid:2W5zFHnSn9f
👍32👏11🔥7🤔4🥰3😁2🤨2❤1
NVIDIA выложила в открытый доступ проект Kimodo - генеративную модель на основе диффузии, которая создает реалистичные трехмерные движения для человеческих и робототехнических скелетов.
Kimodo принимает на вход текстовые промпты и ключевые позы всего тела, позиции и вращения конечностей, двухмерные пути и контрольные точки. Это позволяет точно управлять генерацией: от общего описания наподобие "персонаж идет и садится на стул" до детального контроля положения рук и ног в кадрах.
Всего доступно 5 вариантов модели для 3 типов скелетов: SOMA, SMPL-X и Unitree G1. Первые два ориентированы на анимацию аватаров, третий - на робота Unitree G1.
Модели, обученные на полном датасете Bones Rigplay 1 (700 часов), NVIDIA рекомендует как основные рабочие.
Варианты на сете BONES-SEED (288 часов) предназначены для бенчмаркинга и сравнения с собственными разработками.
Для работы с Kimodo предусмотрены 3 интерфейса:
Под инференс потребуется около 17 ГБ видеопамяти, модели запускали на RTX 3090, RTX 4090 и NVIDIA A100.
ProtoMotions позволяет брать сгенерированные движения и обучать на них физически корректные политики управления в GPU-ускоренной симуляции — как для аватаров, так и для Unitree G1.
Через General Motion Retargeting движения, созданные на скелете SMPL-X, можно перенести на произвольных роботов.
Код проекта под Apache 2.0, большинство моделей под NVIDIA Open Model License.
Вариант SMPL-X имеет более ограниченную NVIDIA R&D Model License, она допускает только исследовательское применение.
@ai_machinelearning_big_data
#AI #ML #Robotics #Kimodo #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍109🤩28🤔20❤13👏12🔥5💯4
GigaChat Ultra и GigaChat-3.1-Lightning уже под MIT-лицензией. Текущее обновление дало заметный прирост по качеству ответов, устойчивости генерации и прикладным сценариям использования. Модели можно разворачивать в закрытом контуре, адаптировать под корпоративные данные и использовать как базу для чат-ботов, внутренних ассистентов и отраслевых AI-сервисов.
В статье на Хабр команда описывает переход от Dense к MoE, переработку этапа постобучения и отдельную работу над устойчивостью генерации. Один из ключевых результатов — модели значительно реже уходят в циклы, то есть стабильнее ведут себя в длинных ответах и диалогах. В релизных материалах это вынесено как отдельное качественное улучшение.
DPO-этап переведён в нативный FP8. Практический смысл этого изменения — более эффективное использование памяти на этапе дообучения без потери качества относительно предыдущих версий. Дополнительно в ходе работы был выявлен критичный баг в SGLang, который влиял на качество и корректность замеров.
Ultra в этом обновлении заметно усилилась в математике, задачах на рассуждение.
Lightning — компактная модель с 1,8 млрд активных параметров, ориентированная на быстрые сценарии. При этом в релизе отдельно отмечен рост качества общения, следования инструкциям и общих знаний.
ГигаЧат получил две новые функции: научился искать в интернете прямо во время диалога и научился в запоминать важные факты для пользователя — это называется долгосрочная память.
@ai_machinelearning_big_data
#news #ai #ml #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥74🤣41👍28❤20⚡18🙈6👏3🌭3🤔1🤬1😇1
🚨 Обнаружено, что релиз LiteLLM на PyPI версии 1.82.8 содержит вредоносный код.
Стандартная команда `
SSH-ключей, учётных данных AWS/GCP/Azure, Kubernetes-конфигов, git-доступов, всех API-ключей из переменных окружения, истории команд, SSL-ключей, CI/CD-секретов и паролей к базам данных.
И это не нишевая библиотека, у LiteLLM около 97 млн скачиваний в месяц.
Даже без прямой установки
Скомпрометированную версию пакета обнаружили случайно: при установке пакета у разработчика произошёл сбой из-за утечки памяти.
Без этого сбоя атака могла оставаться незамеченной долгое время .
Supply chain атаки становятся одним из самых серьёзных рисков в современной разработке.
Подход «использовать как можно больше готовых библиотек» требует некоторого переосмысления.
Andrej Karpathy: https://x.com/karpathy/status/2036488892443140551
1. Первичный разбор (issue на GitHub): https://github.com/BerriAI/litellm/issues/24512
- подробное техническое описание вредоносного кода: что именно крадёт и как работает
2. Официальный issue от BerriAI: https://github.com/BerriAI/litellm/issues/24518
— реакция команды и обновления по ситуации
3. Блог FutureSearch (обнаружили атаку): https://futuresearch.ai/blog/litellm-pypi-supply-chain-attack/
• как баг с fork bomb в вредоносном коде уронил машину и помог выявить атаку
4. Полный таймлайн TeamPCP от ramimac: https://ramimac.me/teampcp/
— вся цепочка атаки: Trivy → Checkmarx → litellm, с точными временными метками и IOC
5. Тред на Hacker News (основной): https://news.ycombinator.com/item?id=47501729
- обсуждение в реальном времени, включая ответы от Krrish (maintainer litellm)
6. Разбор от GitGuardian:
https://blog.gitguardian.com/trivys-march-supply-chain-attack-shows-where-secret-exposure-hurts-most/
- анализ того, как утечка CI/CD-секретов запустила всю цепочку атаки
@ai_machinelearning_big_data
#llm #ml #cybersecurity
Стандартная команда `
pip install litellm` могла привести к утечке:SSH-ключей, учётных данных AWS/GCP/Azure, Kubernetes-конфигов, git-доступов, всех API-ключей из переменных окружения, истории команд, SSL-ключей, CI/CD-секретов и паролей к базам данных.
И это не нишевая библиотека, у LiteLLM около 97 млн скачиваний в месяц.
Даже без прямой установки
litellm вредоносный код мог попасть к пользователям через другие пакеты (например, `dspy`).Скомпрометированную версию пакета обнаружили случайно: при установке пакета у разработчика произошёл сбой из-за утечки памяти.
Без этого сбоя атака могла оставаться незамеченной долгое время .
Supply chain атаки становятся одним из самых серьёзных рисков в современной разработке.
Подход «использовать как можно больше готовых библиотек» требует некоторого переосмысления.
Andrej Karpathy: https://x.com/karpathy/status/2036488892443140551
1. Первичный разбор (issue на GitHub): https://github.com/BerriAI/litellm/issues/24512
- подробное техническое описание вредоносного кода: что именно крадёт и как работает
2. Официальный issue от BerriAI: https://github.com/BerriAI/litellm/issues/24518
— реакция команды и обновления по ситуации
3. Блог FutureSearch (обнаружили атаку): https://futuresearch.ai/blog/litellm-pypi-supply-chain-attack/
• как баг с fork bomb в вредоносном коде уронил машину и помог выявить атаку
4. Полный таймлайн TeamPCP от ramimac: https://ramimac.me/teampcp/
— вся цепочка атаки: Trivy → Checkmarx → litellm, с точными временными метками и IOC
5. Тред на Hacker News (основной): https://news.ycombinator.com/item?id=47501729
- обсуждение в реальном времени, включая ответы от Krrish (maintainer litellm)
6. Разбор от GitGuardian:
https://blog.gitguardian.com/trivys-march-supply-chain-attack-shows-where-secret-exposure-hurts-most/
- анализ того, как утечка CI/CD-секретов запустила всю цепочку атаки
@ai_machinelearning_big_data
#llm #ml #cybersecurity
2🤔94🤬30👀17🔥16❤12😨8👍7😢7💔2🗿1
Хотя Anthropic изначально делала ставку на корпоративный сегмент, им удалось уверенно выйти и на массовый рынок.
Обновления выходят почти каждый день.
Anthropic смогли стереть границу между «бизнес-инструментом» и «продуктом для всех».
А последние релизы показывают: они не просто догоняют тренды, а начинают их задавать.
Пользуетесь ли вы Claude?
Какое из последних обновлений зашло больше всего? 👇
@ai_machinelearning_big_data
#Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤184🤔79👍47🔥22🎉16💯11🥰7😐3👀1🙊1
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.
На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.
Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".
Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы 🚀 Max
#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤120🔥44🎉33👨💻11👍9👏7🤩7🥰2
Media is too big
VIEW IN TELEGRAM
Спустя всего 6 месяцев после релиза, OpenAI приняла решение закрыть сервис, который стал вирусным почти сразу: после запуска в конце сентября он набрал миллион скачиваний менее чем за 5 дней.
Несмотря на популярность, поддержка проекта оказалась слишком дорогой. Сейчас компания активно урезает издержки, чтобы подготовить финансовую базу для выхода на биржу.
В ближайшее время компания обещает опубликовать точные сроки отключения приложения и API, а также выпустить инструкции, которые помогут безопасно выгрузить и сохранить созданный контент.
SoraOfficialApp в сети Х
В Claude Cowork и Claude Code появилась функция прямого контроля десктопа. Теперь Claude может перехватывать управление: перемещать курсор, кликать по интерфейсу, набирать текст и запускать инструменты разработчика напрямую.
Новая возможность раскрывается в связке с свежей функцией Dispatch. Например, можно отправить задачу со смартфона, находясь в пути, а запущенный десктопный клиент Claude на компьютере самостоятельно протестирует код, внесет изменения в IDE и подготовит PR.
Новая функция в стадии Research Preview и доступна подписчикам тарифов Pro и Max. На данный момент поддерживается исключительно macOS.
claude.com
На конференции RSA 2026 Google выкатила обновление инструментов кибербезопасности. В платформу Security Operations добавили агентов на базе Gemini: они умеют сами копаться в инцидентах, собирать цифровые улики и выносить вердикт с подробным разбором полетов.
Этих же агентов прикрутили к системе Google Threat Intelligence - теперь они мониторят даркнет. Корпорация заявляет, что алгоритм переваривает миллионы событий ежедневно с точностью 98% и подсвечивает только те риски, которые касаются конкретной компании.
Параллельно Google подтвердила покупку компании Wiz. Ее технологии будут применятся для создания единой системы защиты мультиоблачных инфраструктур.
cloud.google.com
Инструмент построен на базе моделей Molmo 2 с 4В и 8В параметров. Он смотрит на веб глазами пользователя: анализирует скриншот страницы и сам решает, куда кликнуть, что написать, где проскроллить или открыть новую вкладку.
Создатели не стали приукрашивать реальность: агент может тупить при чтении текста, ломается после случайного клика не туда и теряется от нечетких инструкций. Заодно ради безопасности его специально отрезали от работы с паролями и деньгами.
MolmoWeb установил новый SOTA среди открытых решений в 4 бенчмарках для веб-агентов, обошел визуальных агентов на базе GPT-4o и превзошел OpenAI CUA в 3 тестах из 4.
Проект полностью открыт: веса, код и датасет MolmoWebMix доступны по лицензии Apache 2.0.
allenai.org
Бретт Адкок официально представил свой новый проект - ИИ-лабораторию Hark. Компания находилась в скрытом режиме 8 месяцев, собирая сильную команду инженеров в области программного и аппаратного обеспечения.
Адкок считает, что LLM-чатботы слишком примитивны. По его видению, настоящий AGI должен обладать долговременной памятью, глубокой персонализацией и способностью взаимодействовать с физическим миром. Hark будет создавать именно такой персональный интеллект. Система будет перенимать образ мышления пользователя, чтобы забирать на себя когнитивную нагрузку и действовать на опережение.
Несмотря на амбициозные цели, конкретных продуктов Hark пока не показал. На данный момент опубликован только концептуальный манифест и открыт список ожидания.
Brett Adcock в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥45❤27🤔20👍11👏6😢5🤣5🥰1
Yandex B2B Tech запускает гранты на ИИ-разработку
Программа поддерживает компании, разрабатывающие цифровые продукты с ИИ для внешнего рынка. Участники могут получить грант до 1 млн рублей на создание ИИ-агентов и приложений с использованием Yandex AI Studio в течение полугода.
Компании получают экспертную и маркетинговую поддержку, а после завершения программы — скидку до 70% на платформу до 6 месяцев.
Среди первых участников: R77.ai ускоряет проверку документов для банков и страховых с помощью ML-моделей, Noumy.ai внедряет инструменты анализа кандидатов и их поведения на интервью, а GO2AI создает ИИ-агентов для стратегического планирования, сокращая цикл принятия решений с нескольких дней до часа.
Участники также могут получить софинансирование маркетинговых активностей и разместить решения на маркетплейсе Yandex Cloud. В рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
Программа поддерживает компании, разрабатывающие цифровые продукты с ИИ для внешнего рынка. Участники могут получить грант до 1 млн рублей на создание ИИ-агентов и приложений с использованием Yandex AI Studio в течение полугода.
Компании получают экспертную и маркетинговую поддержку, а после завершения программы — скидку до 70% на платформу до 6 месяцев.
Среди первых участников: R77.ai ускоряет проверку документов для банков и страховых с помощью ML-моделей, Noumy.ai внедряет инструменты анализа кандидатов и их поведения на интервью, а GO2AI создает ИИ-агентов для стратегического планирования, сокращая цикл принятия решений с нескольких дней до часа.
Участники также могут получить софинансирование маркетинговых активностей и разместить решения на маркетплейсе Yandex Cloud. В рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
💯62👨💻26👍16👏12🤣6❤5🎉5🗿2
Система оптимизации производительности для AI-агентов. От победителя хакатона Anthropic.
Готовые к продакшену агенты, хуки, скилы, правила и MCP-конфигурации, которые эволюционировали за 10 месяцев ежедневной интенсивной работы над реальными продуктами.
Работает с Claude Code, Codex, Cowork и другими системами для AI-агентов.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы
#AI #ML #aiagents #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍69🔥26🎉11🤔6❤5💯5🤣3🥰1
В России запустили сервис для быстрого подключения ИИ-моделей
MWS Cloud представил MWS GPT Model Hub — сервис позволяет компаниям подключать большие языковые модели к своим продуктам за несколько минут без собственной инфраструктуры.
Платформа даёт доступ к 10 открытым LLM от ведущих разработчиков, включая DeepSeek, Google и Alibaba. Модели подключаются через OpenAI-совместимый API и разворачиваются в один клик. По сути, LLM становятся таким же базовым инструментом, как базы данных или облачные хранилища.
Сервис рассчитан на разработчиков и продуктовые команды: можно быстро тестировать гипотезы, запускать AI-функции и не тратить ресурсы на поддержку инфраструктуры.
Сервис создан на базе платформы MWS GPT.
«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы», — говорит гендиректор МТС Web Services Павел Воронин.
@ai_machinelearning_big_data
MWS Cloud представил MWS GPT Model Hub — сервис позволяет компаниям подключать большие языковые модели к своим продуктам за несколько минут без собственной инфраструктуры.
Платформа даёт доступ к 10 открытым LLM от ведущих разработчиков, включая DeepSeek, Google и Alibaba. Модели подключаются через OpenAI-совместимый API и разворачиваются в один клик. По сути, LLM становятся таким же базовым инструментом, как базы данных или облачные хранилища.
Сервис рассчитан на разработчиков и продуктовые команды: можно быстро тестировать гипотезы, запускать AI-функции и не тратить ресурсы на поддержку инфраструктуры.
Сервис создан на базе платформы MWS GPT.
«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы», — говорит гендиректор МТС Web Services Павел Воронин.
@ai_machinelearning_big_data
👍56🥱38👏18🤣17🎉13❤8🤓6🎃5🔥3🥰2😐2
This media is not supported in your browser
VIEW IN TELEGRAM
😁125🤣51❤13💯10👨💻9😴8❤🔥4🤔1😨1