📈 ТехноТренды: Технологии, Тренды, IT
983 subscribers
122 photos
23 videos
7 files
223 links
Канал "ТехноТренды". Разбор технологий, технологических трендов и инноваций в различных сферах бизнеса и жизни: IT, производство и др.
Download Telegram
🚀 Техноитоги недели: топ‑10 трендов, которые нельзя пропустить

🥇 OpenAI заключила контракт с Пентагоном на $200 млн

OpenAI будет разрабатывать ИИ для оборонных задач: планирование, киберзащита, логистика. Это первый в истории компании контракт военного назначения — с запуском платформы OpenAI for Government.
📎 Подробнее

🥈 Apple тестирует замену Siri на ChatGPT или Claude

Компания ведёт переговоры с OpenAI и Anthropic: ИИ‑ассистент может получить «новый мозг». При этом параллельно Apple разрабатывает собственную LLM для релиза в 2026 году.
📎 Источник

🥉 Microsoft представила ИИ, который диагностирует болезни лучше врачей

ИИ‑система Microsoft показала точность 85% на сложных кейсах против 20% у людей. Модель использует «цепочку дебатов» между агентами и вскоре будет интегрирована в Copilot.
📎 Источник (FT)

🦾 В Пекине прошёл первый футбольный матч между автономными гуманоидными роботами

Без участия людей: роботы предсказывали траектории, падали, забивали. Результат — 5:3, но пока больше комично, чем угрожающе.
📎 Читать в Bloomberg

🛰️ ESA представило план освоения Луны и Марса до 2040 года

Автономные роботы, добыча ресурсов, защита от космического мусора и сотрудничество с NASA. Ключевая ставка — на Terrae Novae и устойчивую инфраструктуру.
📎 Детали

🧠 Apple выложила Sage‑Mixtral 8x7B — дообученную LLM с лицензией Apache

Это open-source fine-tune мощной модели Mixtral. Можно применять в бизнесе, проектах, интеграциях — без ограничений.
📎 Смотреть на Hugging Face

🇺🇸 Самые «ленивые» программисты — в США: 30% кода пишут ИИ

Исследование GitHub: американские разработчики используют ИИ в 3 раза чаще, чем китайские. «Вайб-кодинг» — новая реальность.
📎 Читать на CNews

🧑‍💻 Apple внедрит Claude в Xcode — ИИ будет писать код за вас

Компания тестирует интеграцию Claude Sonnet для автогенерации кода и подсказок. Это может полностью изменить разработку на Mac.
📎 Источник

🌍 ИИ от Lloyds Bank освобождает 14 часов времени в неделю — но только для богатых

AI‑помощники, дроны, автоматизация — всё это экономит время, но доступно пока не всем. Налицо цифровое неравенство.
📎 Подробности

🔐 Cloudflare начал блокировать AI‑ботов по умолчанию

Боты вроде GPTBot и ClaudeBot будут ограничены. Издатели теперь могут получать оплату за использование их данных AI‑системами.
📎 The Verge

🚀 ©ТехноТренды
1
Forwarded from Data Secrets
«Слева Роналду, Реал Мадрид потратил 80 млн долларов, чтобы он перешел к ним из Манчестер Юнайтед.

Справа — Цзяхуэй Юй, Meta заплатила 100 млн долларов, чтобы он перешел к ним из OpenAI»


Ну и кто тут теперь настоящая звезда? 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
GIGO: проблема качества данных в эпоху цифровой трансформации

GIGO (Garbage In, Garbage Out, «мусор на входе, мусор на выходе») — формула, выведенная программистом IBM Джорджем Фюшелем еще в эпоху перфокарт: если на вход системы подаются некачественные данные, то и выходные результаты будут неточными, бесполезными и даже вредными.

В контексте обучения моделей ИИ и машинного обучения феномен GIGO проявляется особенно остро.

Откуда берется «мусор»?

Феномен GIGO — прямое отражение причинно-следственной связи в обработке информации. «Мусором» на входе могут быть данные:
• некорректно размеченные: если изображения кошек ошибочно помечены как собаки, или спам-письма как легитимные, модель будет учиться на этих ошибках;
• неконсистентные: различия в представлении одних и тех же сущностей (например, «Нью-Йорк», «Нью Йорк», «NYC») в обучающем наборе сбивают модель с толку;
• смещенные: если обучающий датасет содержит нерелевантные данные, модель будет воспроизводить и даже усиливать эти смещения;
• а также неполные, зашумленные, устаревшие, дублирующиеся и т.п.

Источниками «мусора» могут быть ошибки ввода, некорректная интеграция систем, сбои оборудования, устаревшие методы сбора данных, отсутствие валидации на этапе ввода или даже преднамеренное искажение информации. Особенно уязвимы в этом плане синтетические датасеты.

Почему GIGO особенно критичен для ИИ

В эпоху Big Data GIGO становится еще более коварным. Огромные объемы данных, поступающие из множества источников (IoT-устройства, социальные сети, транзакционные системы), часто не проходят должной проверки качества. Кумулятивному эффекту способствуют особенности ИИ:
масштаб: модели обрабатывают огромные объемы данных, а значит, даже небольшие ошибки в данных могут быть многократно усилены;
автоматизация: ИИ-системы часто принимают решения или выполняют действия без прямого участия человека. Если эти решения основаны на «мусоре», последствия могут быть серьезными и труднообратимыми;
«черный ящик»: для сложных моделей глубокого обучения часто трудно понять, где причина ошибок вывода — в архитектуре модели, алгоритме или низком качестве данных.

👉 Согласно оценкам Gartner, средний финансовый ущерб, наносимый низким качеством данных организациям, составляет около $15 млн ежегодно. Это включает в себя затраты на очистку, стандартизацию, дедупликацию данных, а также на переработку проектов, которые были основаны на ошибочных данных. До 80% времени дата-сайентистов может уходить на очистку и подготовку данных, а не на их анализ и моделирование, что является колоссальной потерей продуктивности.

👉 По данным IBM, низкое качество данных обходится экономике США в $3.1 трлн ежегодно. Неточные данные приводят к ошибочным аналитическим выводам в маркетинговых стратегиях, управлении ресурсами, ценообразовании или прогнозах спроса.

🎯 Ссылки:
Garbage in, garbage out (GIGO) | EBSCO Research Starters
Garbage In, Garbage Out | Towards Data Science
Gaining insights in datasets in the shade of “garbage in, garbage out” rationale: Feature space distribution fitting
Avoiding GIGO: Learnings from data collection in innovation research - ScienceDirect

#BigData #данные #ML

🚀 ©ТехноТренды
LLM в задачах ASR: новые возможности для бизнеса и технологий

Большие языковые модели (LLM) давно перестали быть инструментом исключительно для обработки текста. Сегодня они находят всё большее применение в задачах, связанных с голосом — от анализа синтеза речи и клонирования голоса до оценки качества TTS-систем.

📌 VoiceBench — это сравнительный фреймворк, в котором LLM используются для оценки качества синтезированной речи. Он предлагает единый подход, при котором GPT-модель получает текст и аудио, и генерирует оценку по ряду метрик: естественность, выразительность, интонация, отсутствие артефактов.

Такой подход снимает необходимость в ручной аннотации и субъективных опросах, заменяя их на более масштабируемую и реплицируемую LLM-оценку. Это позволяет оптимизировать процессы R&D и контроля качества в разработке голосовых систем, сокращая издержки и ускоряя вывод продуктов на рынок.

👉 Проект VoiceBench на GitHub

📌 TTSizer — это инструмент, который позволяет извлекать стили, эмоции и характеристики из речи с помощью LLM. Его интересная особенность — использование промптов (см. prompt_template.txt) для интерпретации аудиофайлов. Промпты оформлены в виде задач на «понимание голоса», где LLM выступает не только как классификатор, но и как объясняющая модель.

Например, LLM может быть предложено описать эмоциональное состояние говорящего, определить интонационные особенности или выделить специфические характеристики голоса (тембр, предполагаемый возраст, пол).

💡 Ключевая идея: LLM можно использовать как универсальный интерфейс для понимания и интерпретации аудио. В связке с аудиоэмбеддерами (например, из Whisper или HuBERT) модель может понимать не только что сказано, но и как это сказано.

👉 Проект TTSizer на GitHub
👉 Пример промпта для TTSizer

🛠 LLM становится мостом между аудио и смыслом. Интеграция LLM в задачи ASR и аудиоанализа открывает новые перспективы для внедрения синтезированной речи в продуктах и сервисах.

🎯 Возможное применение:

Анализ интонации и эмоционального состояния. Применение в контакт-центрах для автоматического выявления проблемных звонков, анализа настроения клиентов и оптимизации скриптов взаимодействия.
Улучшение обратной связи при ML. Предоставление детализированного, контекстно-обогащенного фидбэка сокращает время и повышает качество обучения TTS и Voice Cloning систем.
Персонализация синтеза речи. Разработка голосовых ассистентов и интерфейсов с адаптивным стилем и тембром, соответствующим предпочтениям пользователя или контексту.

И это только начало. Интеграция LLM в аудиоанализ и ASR-системы — одно из стратегических направлений развития ИИ. Эти технологии не только оптимизируют существующие процессы, но и создают фундамент для качественно новых решений в области голосовых интерфейсов и обработки аудиоданных, повышая их интеллектуальность и расширяя сферу практического применения.

#LLM #ASR #Voice_cloning #TTS

🚀 ©ТехноТренды
Forwarded from КриптоЛина (Элина Сидоренко)
Дорогие коллеги! 10 июля 2025 года проводим III АКАДЕМИЧЕСКИЕ СЛУШАНИЯ совместно с МГИМО, Белым Интернетом, СПЧ при Президенте РФ, Платформой Забизнес. На этот раз обсуждаем новый закон, вводящий уголовную ответственность дропперов. Мероприятие пройдет в гибридном формате. Вся информация в письме-приглашении ниже. Регистрацию можно пройти здесь. С нетерпением ждем Вас на обсуждении этой важной темы! Закон вступает в силу уже 5 июля! Остается мало времени для того, чтобы правильно оценить и предупредить деятельность дропперов.
Сотни миллионов за мозги: Big Tech в погоне за AI-талантами

В новостях только и разговоров, что о переманивании AI-разработчиков. Ведущие профессионалы получают трансферы больше, чем футбольные суперзвезды. Что происходит — Цукерберги и Альтманы сошли с ума, или на планете реально возникла технологическая сверхэлита?

💰 Big Tech открывает кошельки настежь

На глобальном рынке труда — беспрецедентная конкуренция за специалистов по искусственному интеллекту. Например, Meta* при создании Superintelligence Labs предложила ведущим сотрудникам пакеты компенсаций до $300 млн за четыре года (свыше $100 млн — только за первый год). По данным Wired, как минимум 10 столь же головокружительных офферов получили сотрудники OpenAI.

Аналогичные пряники предлагают Google DeepMind, Anthropic и NVIDIA. Базовые зарплаты здесь превышают $300 тыс., к которым добавляются бонусы и опционы. Даже Netflix, Amazon и Tesla включились в гонку .

💵 Рекордные бюджеты на исследования и разработки

Зарплатный ажиотаж поддерживается рекордными бюджетами на R&D. В 2025 году четверка лидеров — Meta*, Google, Amazon и Microsoft — намерена потратить около $320 млрд на развитие AI-инфраструктуры (более чем вдвое выше уровня двухлетней давности). Эти средства направляются не только на оборудование, но и на закупку талантов через сложные компенсационные схемы, включающие в себя совокупность бонусов, акций, опционов и долгосрочных выплат. В Meta*, например, ведущие специалисты уровня E7 получают порядка $1,5 млн в год, большая часть которых приходится на доли в компании.

💸 Стартапы конкурируют с грандами

AI-стартапы становятся серьезными игроками на рынке талантов. Они не могут предложить таких же окладов, как лидеры рынка, но обещают значительную долю в бизнесе. Если проект выстрелит, эта доля может принести состояние. Примеры xAI и Mistral AI подтверждают, что новые компании могут стать «единорогами», т.е. выйти на $1 млрд капитализации всего за несколько месяцев. Такая скорость обогащения делает опционы от стартапов привлекательным вариантом даже для тех, кто получает восьмизначные офферы от мейджоров.

К тому же для амбициозных профессионалов важным фактором является возможность создать в стартапе нечто революционное, что вряд ли получится в стенах корпорации.

📈 Изменения на рынке труда

Рынок труда в сфере AI буквально перекраивается, и это выглядит даже подозрительно. Шестизначные зарплаты, ранее считавшиеся невероятным исключением, становятся нормой. В индустрии появились свои «суперзвезды»: за лучших специалистов борются лидеры рынка, а те имеют возможность выбирать между гарантированными миллионами в корпорациях и потенциальным джекпотом в стартапах. Для них открывается доступ к ресурсам, влиянию на ключевые проекты и карьерным высотам, сравнимый с топ-менеджментом крупных компаний. Но надолго ли такой праздник?

🎯 Последствия и перспективы

Хайп уже начал создавать проблемы. Университеты и исследовательские центры сталкиваются с «утечкой мозгов», поскольку не могут конкурировать с финансовыми возможностями Big Tech.

С другой стороны, AI-бум стимулирует образование и инвестиции в человеческий капитал. Узкие специалисты теперь ощущают свою ценность, что может привлечь в эту сферу еще больше талантов. Как мы и отмечали, ИИ не вытесняет специалистов, а трансформирует среду, создавая новые ниши. Потенциально в выигрыше все участники рынка, готовые развиваться и осваивать новые технологии.

В целом тренд выглядит так: AI-специалисты — новый сверхценный актив. Насколько это серьезно, свидетельствует дискуссия «Передовые технологии для новой геополитической эры» с участием Кондолизы Райс, прошедшая в феврале в Стэнфорде. Тот же Стэнфордский институт в своих отчетах фиксирует, что ИИ становится приоритетным направлением в мире, и спрос на AI-инженеров опережает предложение. Ажиотаж вокруг их найма отражает то, какую огромную ставку делает индустрия на искусственный интеллект. И пока эта ставка оправдывает себя, зарплаты будут только расти.

————————
* Признана экстремистской и запрещена на территории РФ.

#BigData #рынок_труда #ИИ

🚀 ©ТехноТренды
Новые open-source языковые модели за последние пару недель

В 2025 году наблюдается устойчивый переход от масштабных закрытых решений к более гибким, эффективным и доступным open-source альтернативам, в том числе малым моделям (SLM) и системам для Edge-устройств, о чем мы регулярно пишем. Новые разработки не только демонстрируют рост производительности, но и адаптируются под специфические потребности различных отраслей.

Основные тенденции в разработке моделей:
• оптимизация вычислительных ресурсов (один из ключевых трендов современности),
• развитие архитектур типа Mixture-of-Experts (MoE), которые делят большую модель на меньшие, специализированные подсети, называемые «экспертами»,
• расширение контекстных возможностей,
• фокус на специализацию, конкретные сценарии использования — от юридического анализа до сложного логического рассуждения.

В этом контексте особенно интересно наблюдать за особенностями новых open-source решений, которые выкатываются буквально каждые несколько дней.

Gemma 3n от Google DeepMind — открытая модель (~5 млрд и 8 млрд параметров) для on-device использования. Поддерживает мультимoдальный ввод (текст, изображения, аудио, видео) и обучена на 140+ языках. Благодаря новому архитектурному решению MatFormer эффективное число параметров сокращено до ~2B/4B (память ~2–3 ГБ VRAM) , при этом качество остаётся высоким (модель E4B набрала >1300 Elo на LMArena — впервые для модели <10B) .

Tencent Hunyuan-A13B-Instruct — 13 млрд «активных» параметров (всего 80 млрд, архитектура MoE). Универсальная LLM общего назначения с открытыми весами, обученная следовать инструкциям. Поддерживает контекст до 256k токенов и имеет режимы быстрого/медленного «мышления». Оптимизирована под агентные задачи: показывает лидирующие результаты на бенчмарках вроде BFCL-v3 и τ-Bench. Для эффективного инференса применяет оптимизированное внимание (GQA). Выпускается также в квантованных версиях (FP8, GPTQ и др.) .

MiniMax M1 — новая открытая LLM от китайского стартапа MiniMax с рекордным контекстом ~1 000 000 токенов (ввод) и до 80k токенов вывода. Использует гибридную архитектуру MoE с 456 млрд параметров (45,9 млрд активных на токен). Модель ориентирована на сложное многошаговое рассуждение и генерацию кода: например, набирает ~86% на математическом конкурсе AIME 2024 и 65% на LiveCodeBench. По ряду сложных задач M1 превосходит предыдущих open-source лидеров (DeepSeek R1, Qwen3) и заметно сокращает разрыв с закрытыми моделями.

SUSE Cavil-Qwen3-4B — специализированная 4-миллиардная LLM для юридического текста, открытая компанией SUSE. Является LoRA-дообучением модели Qwen3 (4B) для поиска лицензий и других легальных атрибутов в коде и документации. Модель распространяется под Apache 2.0 и работает на потребительских GPU (баланс производительности и деплоймента) .

Dhanishtha 2.0 Preview — экспериментальная открытая LLM с «промежуточным мышлением». Умеет несколько раз переосмысливать и уточнять свой ответ, вставляя рассуждения между репликами. Такой подход экономит до ~79% токенов по сравнению с классическим развернутым мышлением (напр., у DeepSeek R1). Модель пока в стадии превью, но ее можно протестировать — код и веса доступны открыто.

👉 Тренды указывают на стремительное сближение возможностей открытых и коммерческих систем ИИ. Основным драйвером процесса служит ориентация на реальные потребности бизнеса и сообщества: от гонки за формальными численными показателями идет переориентация на конкретные задачи. Всё это создает условия для еще более активного внедрения ИИ в корпоративные и государственные процессы.

🔥 Параллельно идет переосмысление цифрового ландшафта. Ключевыми факторами успеха становятся открытость, интерпретируемость и энергоэффективность решений на основе искусственного интеллекта.

#LLM #SLM #тренды

🚀 ©ТехноТренды
1
🚀 Технодайджест: о чем писала отечественная и мировая пресса на прошлой неделе

⚡️ Минпромторг планирует взимать сбор с производителей и импортеров электроники для поддержки отечественной промышленности. Платить будут все, но российским производителям средства будут возвращаться.

⚡️ Российский IT-бизнес ищет выход на зарубежные рынки и не находит. Институт цифровых атташе оказался неэффективен.

⚡️ Oracle согласилась помочь OpenAI в реализации проекта Stargate. По условиям сделки OpenAI получит около 4,5 гигаватт мощности датацентров Oracle в США.

⚡️ Сэм Альтман выступил с программной статьей «Миссионеры победят наемников», в которой критикует Марка Цукерберга за перекупку ценных IT-кадров и предрекает угрозу для индустрии ИИ. Что стоит за этим спором гигантов, читайте в нашем обзоре.

⚡️ Растущий спрос на цифровых ассистентов вовлекает в этот сегмент рынка новых игроков. Разработчик сервиса видео-конференц-связи IVA Technologies намерен вложить 500 млн руб. в разработку собственных ИИ-продуктов.

⚡️ «Алиса» стала бесплатной. «Яндекс» отменил плату за большинство функций своей нейросети.

#дайджест

🚀 ©ТехноТренды
Роботизация малых складов: как повысить эффективность и снизить затраты

Складская сфера задыхается: обороты товаров растут быстрее, чем возможности обслуживания, в первую очередь кадровый ресурс. Дефицит складского персонала (кладовщиков, логистиков, операторов техники) стоит очень остро. А работать надо всё быстрее, точнее и эффективнее.

В таких условиях автоматизация склада — не роскошь, а очевидный и неизбежный путь для каждого предприятия, которое хочет устойчиво развиваться.

🎯 Тренд времени: спрос на безлюдный склад

Amazon (см. видео № 1) уже разместил на своих складах более 1 млн роботов и ежегодно закупает по 150–200 тысяч новых. По прогнозам, через 2–3 года роботы составят половину складского персонала.

Небольшие фирмы (онлайн-магазины, доставщики, производственники, перевозчики) сталкиваются с теми же проблемами. Владельцы пунктов выдачи заказов жалуются на сложность найма: люди работают по месяцу и увольняются. Отсюда высокий спрос на формат «безлюдного склада», где вкалывают роботы, а человек занимается только организацией процесса.

К счастью, технологии очень вовремя достигли нужного уровня. Современные машины оснащены искусственным интеллектом, способны к самообучению и быстро адаптируются к новым задачам. Стоимость роботов при этом за последние пять лет снизилась на 30% (Forbes), что делает их более доступными для малого и среднего бизнеса.

🎯 Технологии роботизации: возможности и варианты реализации

На сегодня существуют различные варианты роботов, способных выполнять складские операции.

👉 На видео № 2 показаны роботы от компании Mowitoавтоматические погрузчики, оснащенные компьютерным зрением. Они умеют перемещаться по рельсовым направляющим к любому месту склада и поштучно брать товар из блока хранения.

👉 Также постоянно разрабатываются модели с автономной навигацией, способные свободно передвигаться внутри и вне складских помещений. Такие роботы могут совмещать функции кладовщика и курьера-доставщика.

👉 Существуют и мобильные роботы-манипуляторы (в том числе и гуманоидного типа), которые могут не только брать товар, но сортировать и упаковывать его, а также взаимодействовать с другими элементами системы логистики.

👉 Хороший эффект дает сочетание парка роботов с интеллектуальной системой управления складом в единой экосистеме. Здесь есть и отечественные примеры. Компания «СТА Карго», которая занимается хранением, обработкой и доставкой товаров для других бизнесов, внедрила у себя систему умной инвентаризации «Яндекс Роботикс» — эффективность складских процессов выросла до 96%.

🎯 Роботизация + адресное хранение: как максимально повысить КПД склада

Адресная система хранения основана на принципе уникального расположения каждой позиции на складе, что позволяет точно и быстро находить нужный товар.

Современные решения включают использование штрих- и QR-кодов, RFID-меток, а также ПО, обеспечивающее полный цикл учета и отслеживания движения товаров. Некоторые из них поддерживают интеграцию с ERP-системами и позволяют автоматически обновлять информацию о наличии товаров в реальном времени.

Кроме того, ИИ-решения позволяют рационально использовать каждый квадратный метр складского пространства, что особенно актуально для городских условий, где стоимость аренды велика. Например, небольшой онлайн-магазин, внедрив систему автоматической комплектации заказов, может более чем вдвое повысить пропускную способность склада при тех же площадях и сократить время доставки до клиента.

🎯 Вывод: фиксируем тренды

Мы видим, как удачно сошлись два фундаментальных драйвера: прогресс технологий и растущий запрос бизнеса на улучшение логистики и решение кадровой проблемы. Роботы и AI-комплексы постоянно дешевеют, что положительно влияет на сроки окупаемости инвестиций: от 2-3 лет до менее 1 года. Появляются всё новые передовые ИИ-системы, которые могут быть внедрены даже на небольших складах. Самое время для начала перехода к автоматизации — ведь кто раньше воспользуется моментом, тот быстрее получит конкурентное преимущество.

#складские_роботы #роботизация #видео

🚀 ©ТехноТренды
Матрешка и искусственный интеллект: Google научил модель прятаться внутри самой себя

Когда слышишь слово «матрешка», вряд ли первая ассоциация — ИИ. А зря. Новая модель Gemma 3n от Google реализовала именно этот архитектурный принцип, сделав его основой эффективности. И это не метафора, а легитимный и довольно старый термин: Matryoshka Embedding Model. Не иначе Сергей Брин подсказал ))

🪆Новая матрешка в нашем сельпо

Мы часто пишем об оптимизации моделей (1, 2, 3) — это один из важных трендов на фоне развития EdgeAI. Недавний релиз от Google стал одним из самых инновационных технологических прорывов года. Gemma3n — первая модель «матрешки» промышленного уровня.

На первый взгляд может показаться, что это обычная just one more LLM (их сейчас как пирожки пекут). Но вот в чем фишка: эта модель спокойно работает на вашем айфоне и при этом обеспечивает производительность на уровне лидеров рынка, таких как Claude 3.7 Sonnet и Llama 4. Кое у кого появился повод для паники.

В мульмодальной Gemma 3n включена обработка аудио (плюс к возможностям текста и зрения в версии 3.5). Каждый компонент интегрирует надежные исследовательские модели: Universal Speech Model для аудио, MobileNet v4 для зрения и MatFormer для текста. 

Модель доступна в двух размерах:
E2B (2 млрд параметров) — требует всего 2GB памяти
E4B (4 млрд параметров) — 3GB памяти
При этом фактическое количество параметров составляет 5B и 8B соответственно, но благодаря архитектурным инновациям модель компактно упакована «сама в себя».

Это прорывное решение для EdgeAI. Теперь вы можете использовать мощный ИИ непосредственно на устройстве, без необходимости в облачных серверах или сложной настройке GPU. Прозреваем новый глобальный захват рынка «корпорацией добра» и новые антимонопольные иски 😉

🔧 Как это работает — объясняем наглядно

Принцип матрешки — «одна в другой». То же самое в Google DeepMind сделали с искусственным интеллектом. Архитектура MatFormer (Matryoshka Transformer) представляет собой вложенный трансформер для эластичного вывода: большая модель содержит меньшие, полностью функциональные версии себя. Устройство на ходу выбирает нужную, в зависимости от потребности момента: один вектор может обрабатываться на нескольких уровнях понимания.

💬 Что происходит при выводе?
Матрешечная модель обучена создавать векторы, в которых самые важные данные находятся в начале. (Этот подход, называемый Matryoshka Representation Learning, не нов — более подробно см. в статье). При этом качественные представления создаются не только для полного размера, но и для усеченных. Можно обрезать вектор — и модель всё равно вас поймет и выдаст валидный ответ.

Получить короткий вектор так же быстро, как длинный, но при этом нужно меньше памяти и вычислений. Работает как режимы экономии батареи на телефоне:
• быстро, но не слишком умно
• сбалансировано
• полный интеллект на максималках.

Пример. Представьте, что модель распознаёт картинку с котом:
• Вектор = 64: «Это кошка»
• Вектор = 256: «Это домашняя кошка в интерьере»
• Вектор = 768: «Это взрослый кот породы табби, лежит на подоконнике в солнечный день».
Чем больше вектор, тем точнее описание.

То есть одна и та же модель:
• Может работать как маленькая, средняя и большая;
• Не нуждается в дроблении на разные версии;
• Масштабируется под любое железо — от смартфона до серверов.

А главное — меньше ресурсов, меньше затрат, меньше головной боли для CTO и DevOps.

💡 Вывод

Google снова тихо затащил. Пока остальные кидают на ИИ все доступные ресурсы, здесь учат модели быть гибче, а не тяжелее. И это один из главных трендов волны EdgeAI.

Полезные ссылки для тех, кто хочет «под капот»:
🔗 Введение в Matryoshka Embedding Models на Hugging Face
🔗 Официальная дока Gemma 3n от Google

#EdgeAI #ML #LLM #Google

🚀 ©ТехноТренды
2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Технодайджест: делимся новостями, которые привлекли наше внимание на прошлой неделе

⚡️ Спросите Гордона (не Фримена)! Разработчики Docker выкатили Ask Gordon — персонального ИИ-помощника, интегрированного в Docker Desktop и Docker CLI. Ассистент может анализировать локальную среду, включая исходный код, Dockerfile и образы, и выдавать полезные персонализированные рекомендации.

⚡️ Илон Маск представил Grok 4. По словам главы xAI, новая модель обладает знаниями на уровне Ph.D. во всех областях. В бенчмарке «Последний экзамен человечества» базовый Grok 4 набрал 41% баллов, опередив OpenAI o3, а модель Grok 4 Heavy, способная к параллельному анализу, — 50,7%. Подписка на тяжелого «доктора философии» обойдется в $300/месяц.

⚡️ Говоря о Grok 4, нельзя умолчать и о МехаГитлере 🤷‍♂️ 😂 Свежевыпущенный ИИ оказался крайне резок в суждениях и успел наговорить лишнего, прежде чем его пропатчили (не иначе, схватил беспокойный ген Илона). Скандал, как ни странно, не помешал xAI получить от инвесторов еще $ 2 млрд — но заодно напомнил, что даже самые дорогие и продвинутые проприетарные модели не застрахованы от системных проблем в обучении.

⚡️ Новости венчура. Российская ГК «Пиклема», поставщик IT-продуктов для горнодобывающей отрасли, привлекла 1 млрд рублей инвестиций. Инвесторы — «Основа капитал» и Kama Flow. Средства должны пойти на создание полноценной цифровой экосистемы, объединяющей горнодобывающие компании, поставщиков оборудования и разработчиков ПО, тем самым ускоряя автоматизацию горнорудной промышленности.

⚡️ NVIDIA подвинула Apple. Главный производитель GPU обновил мировые рекорды капитализации. Рыночная стоимость NVIDIA впервые в истории превысила $4 трлн — больше, чем общая стоимость всех публичных компаний Великобритании. За последние четыре года лидер рынка видеочипов подорожал почти в восемь раз (!!!) — мы с вами знаем, благодаря чему.

⚡️ Запрограммируй себе питомца. На HuggingFace представили Reachy Mini (см. видео) — домашнего робота-компаньона величиной с электрочайник. Няшный Ричи обладает опенсорсным AI с 15-ю предустановленными моделями поведения, полностью программируется на Python (обещают также JavaScript и Scratch) и предназначен для начального вхождения в робототехнику, творческого кодинга и экспериментов с ИИ. Кабельная лайт-версия стоит $299, комплектация на аккумуляторах и с лазерами из глаз — $450.

#дайджест

🚀 ©ТехноТренды
Представляем агент ChatGPT: соединяем исследования и действия

Openai молодцы 👏 Задумка на поверхности лежит. Если агент еще научится на телефонные звонки отвечать, звонить и записывать на прием и выполнять полную функцию секретаря. Это будет хороший переворот в рабочих и домашних процессах.

🚀 ©ТехноТренды
Вы уверены, что ИИ ускоряет вашу работу? О чем говорят реальные тесты

10 июля METR опубликовал интересное исследование, показывающее, как AI-инструменты влияют на производительность опытных разработчиков open-source проектов.

В рамках рандомизированного контролируемого теста 16 опытных программеров выполняли задания в своих репозиториях — с использованием ИИ и без. Испытуемые могли использовать современные ассистенты, такие как Cursor Pro с Claude 3.5/3.7 Sonnet, либо работать без генеративного AI. Всего за время эксперимента было выполнено 246 задач разной сложности, из них 136 — с участием AI.

В отличие от традиционных бенчмарков, где задачи упрощены и формализованы, METR использовал реальные задачи, реальных специалистов и реальные open-source проекты. Это делает исследование более релевантным для оценки влияния ИИ на профессиональную деятельность.

Ключевые результаты

🔸 Как показали метрики, с применением ИИ разработчики работали на 19% дольше, чем без него. Причем эффект сохранялся независимо от используемого инструмента: agentic mode, TAB или ручной ввод в ChatGPT — всегда расходуется лишнее время.

🔸 Интересно и то, что субъективно программисты этого не ощущали. Разработчики ожидали, что ИИ ускорит их работу на 24%, и даже после завершения задач были уверены, что ИИ помог им на 20%.

В чем причина неэффективности ИИ?

Плохая интеграция ИИ в рабочие процессы. ИИ-инструменты не всегда учитывают специфику проектов и требуют дополнительной настройки.
Ошибки в генерации кода. ИИ может выдавать неверные или неполные решения, которые требуют проверки и коррекции — а на это уходит время.
• Недостаток опыта работы с ИИ. До эксперимента многие участники не использовали Cursor. И хотя предварительно прошли курс обучения, их опыт работы с этим инструментом составлял менее 50 часов, что может указывать на недостаточную адаптацию к таким системам.

Выводы и прогнозы

Исследование METR не отрицает потенциала ИИ. Оно лишь подчеркивает, что современные AI-ассистенты еще не оптимально интегрированы в профессиональные процессы. Необходима дальнейшая работа по оптимизации взаимодействия человека и ИИ, интеграции LLM в существующие инфраструктуры, новые подходы к тестированию, документированию и ревью кода.

Также, как отмечают авторы, это исследование — «снимок» состояния ИИ на начало 2025 года. С улучшением архитектур, методов подсказок, персонализации и обучения ИИ на конкретных проектах эффективность LLM может значительно вырасти.

Наш комментарий

👉 Явный контраст с другими бенчмарками, обычно показывающими впечатляющую эффективность ИИ на стандартизированных задачах (см., например, отчет Innovation Endeavors). В реальных условиях при высоких требованиях к качеству кода и сложных задачах ИИ пока не оправдывает ожиданий.

🔥 Не менее интересно и выявившееся когнитивное искажение разработчиков. Что это: очарованность магией ИИ или завышенная оценка собственной эффективности?

С другой стороны, есть исследования, показывающие реальное положительное влияние ИИ на производительность программистов — в первую очередь джуниоров и мидлов. Например, ИИ-ассистенты реально помогают неопытным программистам быстрее находить решения и избегать типичных ошибок (см. отчет Роберта Солоу «AI and the Productivity Puzzle», 2024).

Тесты METR также полностью подтверждают первые наблюдения практику такого явления, как вайбкодинг. Безусловно, в рутинных задачах на написания «быстрорешений» MVP, малых скриптов или кусков кода LLM хорошо помогают.

Другое дело, когда нужно сделать полноценный проект или же обеспечить дописание и поддержку существующего проекта. За LLM нужно проводить код-ревью, и это может быть труднее и дольше, чем кодить с нуля. Часто приходится корректировать промпты, прежде чем LLM сможет написать нормальный код.

Таким образом, высокоуровневый ИИ может хорошо показать себя в проектах, где LLM применяется с нуля и полностью исключено человеческое участие... эдакое программирование «человеческим языком», без сложных команд и конструкций типа try catch.

#AI #программирование #тренды

🚀 ©ТехноТренды
Инвестиции в ИИ-стартапы: тренды и прогнозы 2025 года

Искусственный интеллект продолжает оставаться одним из самых привлекательных секторов для венчурных инвестиций. Мы уже приводили ссылки на исследования по 2024 году — вложения растут как в разработку ПО, так и в вычислительные мощности.

В 2025-м тенденция сохраняется: на сектор ИИ пришлось почти $60 млрд, или 53% от общего объема венчурного финансирования. Особенным вниманием пользуются здравоохранение, био- и «зеленые» технологии, автоматизация юридических процессов, а также «белый слон» индустрии — генеративные LLM.

По данным Crunchbase, в Q1'2025 глобальные венчурные инвестиции достигли $113 млрд — самый высокий показатель с 2022 года. Однако треть этой суммы — $40 млрд — пришлась всего на один раунд: инвестиции в OpenAI.

И это не случайность, а тенденция: объем инвестиций растет, но количество сделок сокращается.

«Имеющим прибавится, у не имеющих отнимется»

Как показывают цифры, интерес инвесторов смещается в сторону крупных, зрелых компаний, тогда как молодым стартапам становится всё труднее находить финансирование. Грубо говоря, деньги дают тем, у кого они уже и так есть (одно из ярких исключений — мощно стартовавший сольный проект Миры Мурати), а таких меньшинство. Посмотрите на диаграммы Crunchbase:

📈 инвестиции в late-stage компании увеличились более чем на 30 % по сравнению с предыдущим кварталом и на 147 % по сравнению с прошлым годом и составили $81 млрд;

📉 напротив, объем начального финансирования seed-проектов упал до $7,2 млрд, а глобальные инвестиции на ранних стадиях сократились до $24 млрд — самый низкий уровень за последние пять кварталов.

Инсайдеры отрасли также отмечают изменения в структуре и содержании сделок. Оценка стоимости на seed-стадии снизилась на 30 % по сравнению с недавними пиковыми значениями, а сроки выхода увеличились до 12 лет и более.

👉 О чем это говорит? Хайп вокруг ИИ проходит, инвесторы начинают вести себя более прагматично и предпочитают вкладываться в проверенные модели с четким путем к монетизации, особенно в секторе ИИ.

Специализация и «буткэмп»

Один из ключевых трендов — переход от универсальных фондов к узкоспециализированным. В 2025 году многие компании сделали ставку на развитие нишевых проектов, особенно в мире технологий. И инвесторы тоже предпочитают фокусироваться на конкретных отраслях или даже на узкоспециализированных модных направлениях: климатические технологии, генная терапия, femtech (продукты, специально разработанные для женского здоровья).

Также развивается практика «буткэмп-фаундинга» — создание небольших инвестфондов, ориентированных на очень ранние проекты. Такие структуры предлагают стартапам более персонализированный подход, включая менторство, доступ к сетям и операционную поддержку. Для ИИ-стартапов, которым часто требуется длительный путь до выхода на рынок, это может стать важным преимуществом.

Демократизация инвестиций и private wealth

Ответом индустрии на скептицизм корпоративных инвесторов стали крауд-инвестинг и токенизация. Этакий метод «народной стройки», за счет которой seed- и early-stage проекты могут дотянуть до late-стадии, начать получать прибыль и раздавать дивиденды.

Растет и сектор private wealth (высоколиквидные индивидуальные инвесторы и семейные офисы): по оценкам Belasko UK Limited, к 2033 году объем частных венчурных вложений достигнет $7 трлн.

Прогнозы и вызовы на 2025 год

К концу 2025 года ожидается увеличение сделок M&A в секторе, особенно среди AI-проектов. Также прогнозируется возвращение «единорогов» — стартапов с оценкой свыше $1 млрд, особенно в Европе. С другой стороны, рост процентных ставок, геополитическая нестабильность, возможное замедление экономики и постепенное охлаждение ИИ-энтузиазма могут существенно сократить число стартапов.

#венчур #инвестиции #AI #стартапы #тренды

🚀 ©ТехноТренды
Media is too big
VIEW IN TELEGRAM
На видео выше — реклама несуществующей канатной дороги Куак-Хулу (Малайзия). Пара пожилых супругов из Куала-Лумпура захотела сервиса и экзотики и поехала за 300 км. Уже в отеле стали спрашивать, где тут деревня Заманиловка знаменитая канатная дорога. Оказалось, местные впервые о ней слышат, а видео сгенерировано нейросетью. Люди, поверив fake news, поехали в несуществующее место, потратили время и деньги.

Ну что сказать, таких случаев будет всё больше. Дипфейки в наше время становятся обыденностью. Придется привыкать, что такой же обыденностью для нас станет цифровая гигиена: не верить глазам и ушам, перепроверять любую информацию и не принимать скоропалительных решений.

Наш канал — не фейк 😉 Оставайтесь с нами!

#deepfake #нейровидео #кибербезопасность

🚀 ©ТехноТренды
🚀 Технодайджест: трендовые новости, которые привлекли наше внимание на прошлой неделе

⚡️ Мировой рынок ИИ в сфере домашней автоматизации к 2029 году вырастет до $75,16 млрд (более чем втрое с 2024-го), а среднегодовой темп роста составит 29,65 % — гласит новый отчет ResearchAndMarkets. Главными драйверами роста названы внедрение интеллектуальных устройств (EdgeAI) и облачных сервисов. Среди ключевых игроков — Google, Apple и Amazon.

⚡️ Команда разработчиков Т-Банка представила T-pro 2.0 — серию гибридных рассуждающих моделей на основе Qwen 3 32B. Новые LLM показывают неплохие результаты в русскоязычных бенчмарках, превосходя базовую Qwen 3 по всем ключевым метрикам. Посмотреть подробности, а также потрогать руками можно на HuggingFace.

⚡️ Thinking Machines Lab, стартап бывшего техдиректора OpenAI Миры Мурати (о ее уходе на «вольные хлеба» мы писали в феврале) привлек $2 млрд в «посевном» раунде. Среди инвесторов — Nvidia, Accel, AMD, Cisco и др. При этом Мира до сих пор не раскрыла деталей проекта, но предполагается, что это будет опенсорсный «убийца GPT».

⚡️ В Кремниевой долине продолжается безумная гонка за топовыми разработчиками AI, пишет WP (см. наш разбор причин и следствий этого ажиотажа). За переход из одной компании в другую предлагаются суммы, «на которые можно основать династии». При этом большинство ИИ-специалистов сейчас живет в Китае, и большой вопрос, окупятся ли расходы американцев на «перекупку мозгов» друг у друга.

⚡️ Глава OpenAI Сэм Альтман предупреждает о грядущем «кризисе мошенничества» вокруг пользовательских аккаунтов — злоумышленники «очень скоро» начнут массово использовать ИИ для кражи учетных записей в интернете. Источник угрозы — цифровая идентификация голоса при подтверждении личности для доступа к финансовым транзакциям. Защита от voice cloning становится всё актуальнее.

⚡️ Исследователи из нескольких ведущих университетов США и Amazon GenAI представили Energy-Based Transformer (EBT) — новую архитектуру искусственного интеллекта, предназначенную для аналитического мышления. Она существенно лучше в решении языковых задач и обработке изображений, чем обычные трансформеры, но при этом требует в 3,3–6,6 раза больше вычислительной мощности для обучения.

#дайджест

🚀 ©ТехноТренды