🚀 Техноитоги недели: топ‑10 трендов, которые нельзя пропустить
🥇 OpenAI заключила контракт с Пентагоном на $200 млн
OpenAI будет разрабатывать ИИ для оборонных задач: планирование, киберзащита, логистика. Это первый в истории компании контракт военного назначения — с запуском платформы OpenAI for Government.
📎 Подробнее
🥈 Apple тестирует замену Siri на ChatGPT или Claude
Компания ведёт переговоры с OpenAI и Anthropic: ИИ‑ассистент может получить «новый мозг». При этом параллельно Apple разрабатывает собственную LLM для релиза в 2026 году.
📎 Источник
🥉 Microsoft представила ИИ, который диагностирует болезни лучше врачей
ИИ‑система Microsoft показала точность 85% на сложных кейсах против 20% у людей. Модель использует «цепочку дебатов» между агентами и вскоре будет интегрирована в Copilot.
📎 Источник (FT)
🦾 В Пекине прошёл первый футбольный матч между автономными гуманоидными роботами
Без участия людей: роботы предсказывали траектории, падали, забивали. Результат — 5:3, но пока больше комично, чем угрожающе.
📎 Читать в Bloomberg
🛰️ ESA представило план освоения Луны и Марса до 2040 года
Автономные роботы, добыча ресурсов, защита от космического мусора и сотрудничество с NASA. Ключевая ставка — на Terrae Novae и устойчивую инфраструктуру.
📎 Детали
🧠 Apple выложила Sage‑Mixtral 8x7B — дообученную LLM с лицензией Apache
Это open-source fine-tune мощной модели Mixtral. Можно применять в бизнесе, проектах, интеграциях — без ограничений.
📎 Смотреть на Hugging Face
🇺🇸 Самые «ленивые» программисты — в США: 30% кода пишут ИИ
Исследование GitHub: американские разработчики используют ИИ в 3 раза чаще, чем китайские. «Вайб-кодинг» — новая реальность.
📎 Читать на CNews
🧑💻 Apple внедрит Claude в Xcode — ИИ будет писать код за вас
Компания тестирует интеграцию Claude Sonnet для автогенерации кода и подсказок. Это может полностью изменить разработку на Mac.
📎 Источник
🌍 ИИ от Lloyds Bank освобождает 14 часов времени в неделю — но только для богатых
AI‑помощники, дроны, автоматизация — всё это экономит время, но доступно пока не всем. Налицо цифровое неравенство.
📎 Подробности
🔐 Cloudflare начал блокировать AI‑ботов по умолчанию
Боты вроде GPTBot и ClaudeBot будут ограничены. Издатели теперь могут получать оплату за использование их данных AI‑системами.
📎 The Verge
🚀 ©ТехноТренды
🥇 OpenAI заключила контракт с Пентагоном на $200 млн
OpenAI будет разрабатывать ИИ для оборонных задач: планирование, киберзащита, логистика. Это первый в истории компании контракт военного назначения — с запуском платформы OpenAI for Government.
📎 Подробнее
🥈 Apple тестирует замену Siri на ChatGPT или Claude
Компания ведёт переговоры с OpenAI и Anthropic: ИИ‑ассистент может получить «новый мозг». При этом параллельно Apple разрабатывает собственную LLM для релиза в 2026 году.
📎 Источник
🥉 Microsoft представила ИИ, который диагностирует болезни лучше врачей
ИИ‑система Microsoft показала точность 85% на сложных кейсах против 20% у людей. Модель использует «цепочку дебатов» между агентами и вскоре будет интегрирована в Copilot.
📎 Источник (FT)
🦾 В Пекине прошёл первый футбольный матч между автономными гуманоидными роботами
Без участия людей: роботы предсказывали траектории, падали, забивали. Результат — 5:3, но пока больше комично, чем угрожающе.
📎 Читать в Bloomberg
🛰️ ESA представило план освоения Луны и Марса до 2040 года
Автономные роботы, добыча ресурсов, защита от космического мусора и сотрудничество с NASA. Ключевая ставка — на Terrae Novae и устойчивую инфраструктуру.
📎 Детали
🧠 Apple выложила Sage‑Mixtral 8x7B — дообученную LLM с лицензией Apache
Это open-source fine-tune мощной модели Mixtral. Можно применять в бизнесе, проектах, интеграциях — без ограничений.
📎 Смотреть на Hugging Face
🇺🇸 Самые «ленивые» программисты — в США: 30% кода пишут ИИ
Исследование GitHub: американские разработчики используют ИИ в 3 раза чаще, чем китайские. «Вайб-кодинг» — новая реальность.
📎 Читать на CNews
🧑💻 Apple внедрит Claude в Xcode — ИИ будет писать код за вас
Компания тестирует интеграцию Claude Sonnet для автогенерации кода и подсказок. Это может полностью изменить разработку на Mac.
📎 Источник
🌍 ИИ от Lloyds Bank освобождает 14 часов времени в неделю — но только для богатых
AI‑помощники, дроны, автоматизация — всё это экономит время, но доступно пока не всем. Налицо цифровое неравенство.
📎 Подробности
🔐 Cloudflare начал блокировать AI‑ботов по умолчанию
Боты вроде GPTBot и ClaudeBot будут ограничены. Издатели теперь могут получать оплату за использование их данных AI‑системами.
📎 The Verge
🚀 ©ТехноТренды
❤1
Forwarded from Data Secrets
«Слева Роналду, Реал Мадрид потратил 80 млн долларов, чтобы он перешел к ним из Манчестер Юнайтед.
Справа — Цзяхуэй Юй, Meta заплатила 100 млн долларов, чтобы он перешел к ним из OpenAI»
Ну и кто тут теперь настоящая звезда?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
GIGO: проблема качества данных в эпоху цифровой трансформации
GIGO (Garbage In, Garbage Out, «мусор на входе, мусор на выходе») — формула, выведенная программистом IBM Джорджем Фюшелем еще в эпоху перфокарт: если на вход системы подаются некачественные данные, то и выходные результаты будут неточными, бесполезными и даже вредными.
В контексте обучения моделей ИИ и машинного обучения феномен GIGO проявляется особенно остро.
Откуда берется «мусор»?
Феномен GIGO — прямое отражение причинно-следственной связи в обработке информации. «Мусором» на входе могут быть данные:
• некорректно размеченные: если изображения кошек ошибочно помечены как собаки, или спам-письма как легитимные, модель будет учиться на этих ошибках;
• неконсистентные: различия в представлении одних и тех же сущностей (например, «Нью-Йорк», «Нью Йорк», «NYC») в обучающем наборе сбивают модель с толку;
• смещенные: если обучающий датасет содержит нерелевантные данные, модель будет воспроизводить и даже усиливать эти смещения;
• а также неполные, зашумленные, устаревшие, дублирующиеся и т.п.
Источниками «мусора» могут быть ошибки ввода, некорректная интеграция систем, сбои оборудования, устаревшие методы сбора данных, отсутствие валидации на этапе ввода или даже преднамеренное искажение информации. Особенно уязвимы в этом плане синтетические датасеты.
Почему GIGO особенно критичен для ИИ
В эпоху Big Data GIGO становится еще более коварным. Огромные объемы данных, поступающие из множества источников (IoT-устройства, социальные сети, транзакционные системы), часто не проходят должной проверки качества. Кумулятивному эффекту способствуют особенности ИИ:
• масштаб: модели обрабатывают огромные объемы данных, а значит, даже небольшие ошибки в данных могут быть многократно усилены;
• автоматизация: ИИ-системы часто принимают решения или выполняют действия без прямого участия человека. Если эти решения основаны на «мусоре», последствия могут быть серьезными и труднообратимыми;
• «черный ящик»: для сложных моделей глубокого обучения часто трудно понять, где причина ошибок вывода — в архитектуре модели, алгоритме или низком качестве данных.
👉 Согласно оценкам Gartner, средний финансовый ущерб, наносимый низким качеством данных организациям, составляет около $15 млн ежегодно. Это включает в себя затраты на очистку, стандартизацию, дедупликацию данных, а также на переработку проектов, которые были основаны на ошибочных данных. До 80% времени дата-сайентистов может уходить на очистку и подготовку данных, а не на их анализ и моделирование, что является колоссальной потерей продуктивности.
👉 По данным IBM, низкое качество данных обходится экономике США в $3.1 трлн ежегодно. Неточные данные приводят к ошибочным аналитическим выводам в маркетинговых стратегиях, управлении ресурсами, ценообразовании или прогнозах спроса.
🎯 Ссылки:
• Garbage in, garbage out (GIGO) | EBSCO Research Starters
• Garbage In, Garbage Out | Towards Data Science
• Gaining insights in datasets in the shade of “garbage in, garbage out” rationale: Feature space distribution fitting
• Avoiding GIGO: Learnings from data collection in innovation research - ScienceDirect
#BigData #данные #ML
🚀 ©ТехноТренды
GIGO (Garbage In, Garbage Out, «мусор на входе, мусор на выходе») — формула, выведенная программистом IBM Джорджем Фюшелем еще в эпоху перфокарт: если на вход системы подаются некачественные данные, то и выходные результаты будут неточными, бесполезными и даже вредными.
В контексте обучения моделей ИИ и машинного обучения феномен GIGO проявляется особенно остро.
Откуда берется «мусор»?
Феномен GIGO — прямое отражение причинно-следственной связи в обработке информации. «Мусором» на входе могут быть данные:
• некорректно размеченные: если изображения кошек ошибочно помечены как собаки, или спам-письма как легитимные, модель будет учиться на этих ошибках;
• неконсистентные: различия в представлении одних и тех же сущностей (например, «Нью-Йорк», «Нью Йорк», «NYC») в обучающем наборе сбивают модель с толку;
• смещенные: если обучающий датасет содержит нерелевантные данные, модель будет воспроизводить и даже усиливать эти смещения;
• а также неполные, зашумленные, устаревшие, дублирующиеся и т.п.
Источниками «мусора» могут быть ошибки ввода, некорректная интеграция систем, сбои оборудования, устаревшие методы сбора данных, отсутствие валидации на этапе ввода или даже преднамеренное искажение информации. Особенно уязвимы в этом плане синтетические датасеты.
Почему GIGO особенно критичен для ИИ
В эпоху Big Data GIGO становится еще более коварным. Огромные объемы данных, поступающие из множества источников (IoT-устройства, социальные сети, транзакционные системы), часто не проходят должной проверки качества. Кумулятивному эффекту способствуют особенности ИИ:
• масштаб: модели обрабатывают огромные объемы данных, а значит, даже небольшие ошибки в данных могут быть многократно усилены;
• автоматизация: ИИ-системы часто принимают решения или выполняют действия без прямого участия человека. Если эти решения основаны на «мусоре», последствия могут быть серьезными и труднообратимыми;
• «черный ящик»: для сложных моделей глубокого обучения часто трудно понять, где причина ошибок вывода — в архитектуре модели, алгоритме или низком качестве данных.
👉 Согласно оценкам Gartner, средний финансовый ущерб, наносимый низким качеством данных организациям, составляет около $15 млн ежегодно. Это включает в себя затраты на очистку, стандартизацию, дедупликацию данных, а также на переработку проектов, которые были основаны на ошибочных данных. До 80% времени дата-сайентистов может уходить на очистку и подготовку данных, а не на их анализ и моделирование, что является колоссальной потерей продуктивности.
👉 По данным IBM, низкое качество данных обходится экономике США в $3.1 трлн ежегодно. Неточные данные приводят к ошибочным аналитическим выводам в маркетинговых стратегиях, управлении ресурсами, ценообразовании или прогнозах спроса.
🎯 Ссылки:
• Garbage in, garbage out (GIGO) | EBSCO Research Starters
• Garbage In, Garbage Out | Towards Data Science
• Gaining insights in datasets in the shade of “garbage in, garbage out” rationale: Feature space distribution fitting
• Avoiding GIGO: Learnings from data collection in innovation research - ScienceDirect
#BigData #данные #ML
🚀 ©ТехноТренды
EBSCO Information Services, Inc. | www.ebsco.com
Garbage in, garbage out (GIGO) | EBSCO
"Garbage in, garbage out" (GIGO) is a principle in computer programming and mathematics emphasizing that the quality of output is directly linked to the quality of input. This concept asserts that if a system receives flawed or incomplete data, the results…
LLM в задачах ASR: новые возможности для бизнеса и технологий
Большие языковые модели (LLM) давно перестали быть инструментом исключительно для обработки текста. Сегодня они находят всё большее применение в задачах, связанных с голосом — от анализа синтеза речи и клонирования голоса до оценки качества TTS-систем.
📌 VoiceBench — это сравнительный фреймворк, в котором LLM используются для оценки качества синтезированной речи. Он предлагает единый подход, при котором GPT-модель получает текст и аудио, и генерирует оценку по ряду метрик: естественность, выразительность, интонация, отсутствие артефактов.
Такой подход снимает необходимость в ручной аннотации и субъективных опросах, заменяя их на более масштабируемую и реплицируемую LLM-оценку. Это позволяет оптимизировать процессы R&D и контроля качества в разработке голосовых систем, сокращая издержки и ускоряя вывод продуктов на рынок.
👉 Проект VoiceBench на GitHub
📌 TTSizer — это инструмент, который позволяет извлекать стили, эмоции и характеристики из речи с помощью LLM. Его интересная особенность — использование промптов (см. prompt_template.txt) для интерпретации аудиофайлов. Промпты оформлены в виде задач на «понимание голоса», где LLM выступает не только как классификатор, но и как объясняющая модель.
Например, LLM может быть предложено описать эмоциональное состояние говорящего, определить интонационные особенности или выделить специфические характеристики голоса (тембр, предполагаемый возраст, пол).
💡 Ключевая идея: LLM можно использовать как универсальный интерфейс для понимания и интерпретации аудио. В связке с аудиоэмбеддерами (например, из Whisper или HuBERT) модель может понимать не только что сказано, но и как это сказано.
👉 Проект TTSizer на GitHub
👉 Пример промпта для TTSizer
🛠 LLM становится мостом между аудио и смыслом. Интеграция LLM в задачи ASR и аудиоанализа открывает новые перспективы для внедрения синтезированной речи в продуктах и сервисах.
🎯 Возможное применение:
• Анализ интонации и эмоционального состояния. Применение в контакт-центрах для автоматического выявления проблемных звонков, анализа настроения клиентов и оптимизации скриптов взаимодействия.
• Улучшение обратной связи при ML. Предоставление детализированного, контекстно-обогащенного фидбэка сокращает время и повышает качество обучения TTS и Voice Cloning систем.
• Персонализация синтеза речи. Разработка голосовых ассистентов и интерфейсов с адаптивным стилем и тембром, соответствующим предпочтениям пользователя или контексту.
И это только начало. Интеграция LLM в аудиоанализ и ASR-системы — одно из стратегических направлений развития ИИ. Эти технологии не только оптимизируют существующие процессы, но и создают фундамент для качественно новых решений в области голосовых интерфейсов и обработки аудиоданных, повышая их интеллектуальность и расширяя сферу практического применения.
#LLM #ASR #Voice_cloning #TTS
🚀 ©ТехноТренды
Большие языковые модели (LLM) давно перестали быть инструментом исключительно для обработки текста. Сегодня они находят всё большее применение в задачах, связанных с голосом — от анализа синтеза речи и клонирования голоса до оценки качества TTS-систем.
📌 VoiceBench — это сравнительный фреймворк, в котором LLM используются для оценки качества синтезированной речи. Он предлагает единый подход, при котором GPT-модель получает текст и аудио, и генерирует оценку по ряду метрик: естественность, выразительность, интонация, отсутствие артефактов.
Такой подход снимает необходимость в ручной аннотации и субъективных опросах, заменяя их на более масштабируемую и реплицируемую LLM-оценку. Это позволяет оптимизировать процессы R&D и контроля качества в разработке голосовых систем, сокращая издержки и ускоряя вывод продуктов на рынок.
👉 Проект VoiceBench на GitHub
📌 TTSizer — это инструмент, который позволяет извлекать стили, эмоции и характеристики из речи с помощью LLM. Его интересная особенность — использование промптов (см. prompt_template.txt) для интерпретации аудиофайлов. Промпты оформлены в виде задач на «понимание голоса», где LLM выступает не только как классификатор, но и как объясняющая модель.
Например, LLM может быть предложено описать эмоциональное состояние говорящего, определить интонационные особенности или выделить специфические характеристики голоса (тембр, предполагаемый возраст, пол).
💡 Ключевая идея: LLM можно использовать как универсальный интерфейс для понимания и интерпретации аудио. В связке с аудиоэмбеддерами (например, из Whisper или HuBERT) модель может понимать не только что сказано, но и как это сказано.
👉 Проект TTSizer на GitHub
👉 Пример промпта для TTSizer
🛠 LLM становится мостом между аудио и смыслом. Интеграция LLM в задачи ASR и аудиоанализа открывает новые перспективы для внедрения синтезированной речи в продуктах и сервисах.
🎯 Возможное применение:
• Анализ интонации и эмоционального состояния. Применение в контакт-центрах для автоматического выявления проблемных звонков, анализа настроения клиентов и оптимизации скриптов взаимодействия.
• Улучшение обратной связи при ML. Предоставление детализированного, контекстно-обогащенного фидбэка сокращает время и повышает качество обучения TTS и Voice Cloning систем.
• Персонализация синтеза речи. Разработка голосовых ассистентов и интерфейсов с адаптивным стилем и тембром, соответствующим предпочтениям пользователя или контексту.
И это только начало. Интеграция LLM в аудиоанализ и ASR-системы — одно из стратегических направлений развития ИИ. Эти технологии не только оптимизируют существующие процессы, но и создают фундамент для качественно новых решений в области голосовых интерфейсов и обработки аудиоданных, повышая их интеллектуальность и расширяя сферу практического применения.
#LLM #ASR #Voice_cloning #TTS
🚀 ©ТехноТренды
Forwarded from КриптоЛина (Элина Сидоренко)
Дорогие коллеги! 10 июля 2025 года проводим III АКАДЕМИЧЕСКИЕ СЛУШАНИЯ совместно с МГИМО, Белым Интернетом, СПЧ при Президенте РФ, Платформой Забизнес. На этот раз обсуждаем новый закон, вводящий уголовную ответственность дропперов. Мероприятие пройдет в гибридном формате. Вся информация в письме-приглашении ниже. Регистрацию можно пройти здесь. С нетерпением ждем Вас на обсуждении этой важной темы! Закон вступает в силу уже 5 июля! Остается мало времени для того, чтобы правильно оценить и предупредить деятельность дропперов.
Сотни миллионов за мозги: Big Tech в погоне за AI-талантами
В новостях только и разговоров, что о переманивании AI-разработчиков. Ведущие профессионалы получают трансферы больше, чем футбольные суперзвезды. Что происходит — Цукерберги и Альтманы сошли с ума, или на планете реально возникла технологическая сверхэлита?
💰 Big Tech открывает кошельки настежь
На глобальном рынке труда — беспрецедентная конкуренция за специалистов по искусственному интеллекту. Например, Meta* при создании Superintelligence Labs предложила ведущим сотрудникам пакеты компенсаций до $300 млн за четыре года (свыше $100 млн — только за первый год). По данным Wired, как минимум 10 столь же головокружительных офферов получили сотрудники OpenAI.
Аналогичные пряники предлагают Google DeepMind, Anthropic и NVIDIA. Базовые зарплаты здесь превышают $300 тыс., к которым добавляются бонусы и опционы. Даже Netflix, Amazon и Tesla включились в гонку .
💵 Рекордные бюджеты на исследования и разработки
Зарплатный ажиотаж поддерживается рекордными бюджетами на R&D. В 2025 году четверка лидеров — Meta*, Google, Amazon и Microsoft — намерена потратить около $320 млрд на развитие AI-инфраструктуры (более чем вдвое выше уровня двухлетней давности). Эти средства направляются не только на оборудование, но и на закупку талантов через сложные компенсационные схемы, включающие в себя совокупность бонусов, акций, опционов и долгосрочных выплат. В Meta*, например, ведущие специалисты уровня E7 получают порядка $1,5 млн в год, большая часть которых приходится на доли в компании.
💸 Стартапы конкурируют с грандами
AI-стартапы становятся серьезными игроками на рынке талантов. Они не могут предложить таких же окладов, как лидеры рынка, но обещают значительную долю в бизнесе. Если проект выстрелит, эта доля может принести состояние. Примеры xAI и Mistral AI подтверждают, что новые компании могут стать «единорогами», т.е. выйти на $1 млрд капитализации всего за несколько месяцев. Такая скорость обогащения делает опционы от стартапов привлекательным вариантом даже для тех, кто получает восьмизначные офферы от мейджоров.
К тому же для амбициозных профессионалов важным фактором является возможность создать в стартапе нечто революционное, что вряд ли получится в стенах корпорации.
📈 Изменения на рынке труда
Рынок труда в сфере AI буквально перекраивается, и это выглядит даже подозрительно. Шестизначные зарплаты, ранее считавшиеся невероятным исключением, становятся нормой. В индустрии появились свои «суперзвезды»: за лучших специалистов борются лидеры рынка, а те имеют возможность выбирать между гарантированными миллионами в корпорациях и потенциальным джекпотом в стартапах. Для них открывается доступ к ресурсам, влиянию на ключевые проекты и карьерным высотам, сравнимый с топ-менеджментом крупных компаний. Но надолго ли такой праздник?
🎯 Последствия и перспективы
Хайп уже начал создавать проблемы. Университеты и исследовательские центры сталкиваются с «утечкой мозгов», поскольку не могут конкурировать с финансовыми возможностями Big Tech.
С другой стороны, AI-бум стимулирует образование и инвестиции в человеческий капитал. Узкие специалисты теперь ощущают свою ценность, что может привлечь в эту сферу еще больше талантов. Как мы и отмечали, ИИ не вытесняет специалистов, а трансформирует среду, создавая новые ниши. Потенциально в выигрыше все участники рынка, готовые развиваться и осваивать новые технологии.
В целом тренд выглядит так: AI-специалисты — новый сверхценный актив. Насколько это серьезно, свидетельствует дискуссия «Передовые технологии для новой геополитической эры» с участием Кондолизы Райс, прошедшая в феврале в Стэнфорде. Тот же Стэнфордский институт в своих отчетах фиксирует, что ИИ становится приоритетным направлением в мире, и спрос на AI-инженеров опережает предложение. Ажиотаж вокруг их найма отражает то, какую огромную ставку делает индустрия на искусственный интеллект. И пока эта ставка оправдывает себя, зарплаты будут только расти.
————————
* Признана экстремистской и запрещена на территории РФ.
#BigData #рынок_труда #ИИ
🚀 ©ТехноТренды
В новостях только и разговоров, что о переманивании AI-разработчиков. Ведущие профессионалы получают трансферы больше, чем футбольные суперзвезды. Что происходит — Цукерберги и Альтманы сошли с ума, или на планете реально возникла технологическая сверхэлита?
💰 Big Tech открывает кошельки настежь
На глобальном рынке труда — беспрецедентная конкуренция за специалистов по искусственному интеллекту. Например, Meta* при создании Superintelligence Labs предложила ведущим сотрудникам пакеты компенсаций до $300 млн за четыре года (свыше $100 млн — только за первый год). По данным Wired, как минимум 10 столь же головокружительных офферов получили сотрудники OpenAI.
Аналогичные пряники предлагают Google DeepMind, Anthropic и NVIDIA. Базовые зарплаты здесь превышают $300 тыс., к которым добавляются бонусы и опционы. Даже Netflix, Amazon и Tesla включились в гонку .
💵 Рекордные бюджеты на исследования и разработки
Зарплатный ажиотаж поддерживается рекордными бюджетами на R&D. В 2025 году четверка лидеров — Meta*, Google, Amazon и Microsoft — намерена потратить около $320 млрд на развитие AI-инфраструктуры (более чем вдвое выше уровня двухлетней давности). Эти средства направляются не только на оборудование, но и на закупку талантов через сложные компенсационные схемы, включающие в себя совокупность бонусов, акций, опционов и долгосрочных выплат. В Meta*, например, ведущие специалисты уровня E7 получают порядка $1,5 млн в год, большая часть которых приходится на доли в компании.
💸 Стартапы конкурируют с грандами
AI-стартапы становятся серьезными игроками на рынке талантов. Они не могут предложить таких же окладов, как лидеры рынка, но обещают значительную долю в бизнесе. Если проект выстрелит, эта доля может принести состояние. Примеры xAI и Mistral AI подтверждают, что новые компании могут стать «единорогами», т.е. выйти на $1 млрд капитализации всего за несколько месяцев. Такая скорость обогащения делает опционы от стартапов привлекательным вариантом даже для тех, кто получает восьмизначные офферы от мейджоров.
К тому же для амбициозных профессионалов важным фактором является возможность создать в стартапе нечто революционное, что вряд ли получится в стенах корпорации.
📈 Изменения на рынке труда
Рынок труда в сфере AI буквально перекраивается, и это выглядит даже подозрительно. Шестизначные зарплаты, ранее считавшиеся невероятным исключением, становятся нормой. В индустрии появились свои «суперзвезды»: за лучших специалистов борются лидеры рынка, а те имеют возможность выбирать между гарантированными миллионами в корпорациях и потенциальным джекпотом в стартапах. Для них открывается доступ к ресурсам, влиянию на ключевые проекты и карьерным высотам, сравнимый с топ-менеджментом крупных компаний. Но надолго ли такой праздник?
🎯 Последствия и перспективы
Хайп уже начал создавать проблемы. Университеты и исследовательские центры сталкиваются с «утечкой мозгов», поскольку не могут конкурировать с финансовыми возможностями Big Tech.
С другой стороны, AI-бум стимулирует образование и инвестиции в человеческий капитал. Узкие специалисты теперь ощущают свою ценность, что может привлечь в эту сферу еще больше талантов. Как мы и отмечали, ИИ не вытесняет специалистов, а трансформирует среду, создавая новые ниши. Потенциально в выигрыше все участники рынка, готовые развиваться и осваивать новые технологии.
В целом тренд выглядит так: AI-специалисты — новый сверхценный актив. Насколько это серьезно, свидетельствует дискуссия «Передовые технологии для новой геополитической эры» с участием Кондолизы Райс, прошедшая в феврале в Стэнфорде. Тот же Стэнфордский институт в своих отчетах фиксирует, что ИИ становится приоритетным направлением в мире, и спрос на AI-инженеров опережает предложение. Ажиотаж вокруг их найма отражает то, какую огромную ставку делает индустрия на искусственный интеллект. И пока эта ставка оправдывает себя, зарплаты будут только расти.
————————
* Признана экстремистской и запрещена на территории РФ.
#BigData #рынок_труда #ИИ
🚀 ©ТехноТренды
Новые open-source языковые модели за последние пару недель
В 2025 году наблюдается устойчивый переход от масштабных закрытых решений к более гибким, эффективным и доступным open-source альтернативам, в том числе малым моделям (SLM) и системам для Edge-устройств, о чем мы регулярно пишем. Новые разработки не только демонстрируют рост производительности, но и адаптируются под специфические потребности различных отраслей.
Основные тенденции в разработке моделей:
• оптимизация вычислительных ресурсов (один из ключевых трендов современности),
• развитие архитектур типа Mixture-of-Experts (MoE), которые делят большую модель на меньшие, специализированные подсети, называемые «экспертами»,
• расширение контекстных возможностей,
• фокус на специализацию, конкретные сценарии использования — от юридического анализа до сложного логического рассуждения.
В этом контексте особенно интересно наблюдать за особенностями новых open-source решений, которые выкатываются буквально каждые несколько дней.
✅ Gemma 3n от Google DeepMind — открытая модель (~5 млрд и 8 млрд параметров) для on-device использования. Поддерживает мультимoдальный ввод (текст, изображения, аудио, видео) и обучена на 140+ языках. Благодаря новому архитектурному решению MatFormer эффективное число параметров сокращено до ~2B/4B (память ~2–3 ГБ VRAM) , при этом качество остаётся высоким (модель E4B набрала >1300 Elo на LMArena — впервые для модели <10B) .
✅ Tencent Hunyuan-A13B-Instruct — 13 млрд «активных» параметров (всего 80 млрд, архитектура MoE). Универсальная LLM общего назначения с открытыми весами, обученная следовать инструкциям. Поддерживает контекст до 256k токенов и имеет режимы быстрого/медленного «мышления». Оптимизирована под агентные задачи: показывает лидирующие результаты на бенчмарках вроде BFCL-v3 и τ-Bench. Для эффективного инференса применяет оптимизированное внимание (GQA). Выпускается также в квантованных версиях (FP8, GPTQ и др.) .
✅ MiniMax M1 — новая открытая LLM от китайского стартапа MiniMax с рекордным контекстом ~1 000 000 токенов (ввод) и до 80k токенов вывода. Использует гибридную архитектуру MoE с 456 млрд параметров (45,9 млрд активных на токен). Модель ориентирована на сложное многошаговое рассуждение и генерацию кода: например, набирает ~86% на математическом конкурсе AIME 2024 и 65% на LiveCodeBench. По ряду сложных задач M1 превосходит предыдущих open-source лидеров (DeepSeek R1, Qwen3) и заметно сокращает разрыв с закрытыми моделями.
✅ SUSE Cavil-Qwen3-4B — специализированная 4-миллиардная LLM для юридического текста, открытая компанией SUSE. Является LoRA-дообучением модели Qwen3 (4B) для поиска лицензий и других легальных атрибутов в коде и документации. Модель распространяется под Apache 2.0 и работает на потребительских GPU (баланс производительности и деплоймента) .
✅ Dhanishtha 2.0 Preview — экспериментальная открытая LLM с «промежуточным мышлением». Умеет несколько раз переосмысливать и уточнять свой ответ, вставляя рассуждения между репликами. Такой подход экономит до ~79% токенов по сравнению с классическим развернутым мышлением (напр., у DeepSeek R1). Модель пока в стадии превью, но ее можно протестировать — код и веса доступны открыто.
👉 Тренды указывают на стремительное сближение возможностей открытых и коммерческих систем ИИ. Основным драйвером процесса служит ориентация на реальные потребности бизнеса и сообщества: от гонки за формальными численными показателями идет переориентация на конкретные задачи. Всё это создает условия для еще более активного внедрения ИИ в корпоративные и государственные процессы.
🔥 Параллельно идет переосмысление цифрового ландшафта. Ключевыми факторами успеха становятся открытость, интерпретируемость и энергоэффективность решений на основе искусственного интеллекта.
#LLM #SLM #тренды
🚀 ©ТехноТренды
В 2025 году наблюдается устойчивый переход от масштабных закрытых решений к более гибким, эффективным и доступным open-source альтернативам, в том числе малым моделям (SLM) и системам для Edge-устройств, о чем мы регулярно пишем. Новые разработки не только демонстрируют рост производительности, но и адаптируются под специфические потребности различных отраслей.
Основные тенденции в разработке моделей:
• оптимизация вычислительных ресурсов (один из ключевых трендов современности),
• развитие архитектур типа Mixture-of-Experts (MoE), которые делят большую модель на меньшие, специализированные подсети, называемые «экспертами»,
• расширение контекстных возможностей,
• фокус на специализацию, конкретные сценарии использования — от юридического анализа до сложного логического рассуждения.
В этом контексте особенно интересно наблюдать за особенностями новых open-source решений, которые выкатываются буквально каждые несколько дней.
✅ Gemma 3n от Google DeepMind — открытая модель (~5 млрд и 8 млрд параметров) для on-device использования. Поддерживает мультимoдальный ввод (текст, изображения, аудио, видео) и обучена на 140+ языках. Благодаря новому архитектурному решению MatFormer эффективное число параметров сокращено до ~2B/4B (память ~2–3 ГБ VRAM) , при этом качество остаётся высоким (модель E4B набрала >1300 Elo на LMArena — впервые для модели <10B) .
✅ Tencent Hunyuan-A13B-Instruct — 13 млрд «активных» параметров (всего 80 млрд, архитектура MoE). Универсальная LLM общего назначения с открытыми весами, обученная следовать инструкциям. Поддерживает контекст до 256k токенов и имеет режимы быстрого/медленного «мышления». Оптимизирована под агентные задачи: показывает лидирующие результаты на бенчмарках вроде BFCL-v3 и τ-Bench. Для эффективного инференса применяет оптимизированное внимание (GQA). Выпускается также в квантованных версиях (FP8, GPTQ и др.) .
✅ MiniMax M1 — новая открытая LLM от китайского стартапа MiniMax с рекордным контекстом ~1 000 000 токенов (ввод) и до 80k токенов вывода. Использует гибридную архитектуру MoE с 456 млрд параметров (45,9 млрд активных на токен). Модель ориентирована на сложное многошаговое рассуждение и генерацию кода: например, набирает ~86% на математическом конкурсе AIME 2024 и 65% на LiveCodeBench. По ряду сложных задач M1 превосходит предыдущих open-source лидеров (DeepSeek R1, Qwen3) и заметно сокращает разрыв с закрытыми моделями.
✅ SUSE Cavil-Qwen3-4B — специализированная 4-миллиардная LLM для юридического текста, открытая компанией SUSE. Является LoRA-дообучением модели Qwen3 (4B) для поиска лицензий и других легальных атрибутов в коде и документации. Модель распространяется под Apache 2.0 и работает на потребительских GPU (баланс производительности и деплоймента) .
✅ Dhanishtha 2.0 Preview — экспериментальная открытая LLM с «промежуточным мышлением». Умеет несколько раз переосмысливать и уточнять свой ответ, вставляя рассуждения между репликами. Такой подход экономит до ~79% токенов по сравнению с классическим развернутым мышлением (напр., у DeepSeek R1). Модель пока в стадии превью, но ее можно протестировать — код и веса доступны открыто.
👉 Тренды указывают на стремительное сближение возможностей открытых и коммерческих систем ИИ. Основным драйвером процесса служит ориентация на реальные потребности бизнеса и сообщества: от гонки за формальными численными показателями идет переориентация на конкретные задачи. Всё это создает условия для еще более активного внедрения ИИ в корпоративные и государственные процессы.
🔥 Параллельно идет переосмысление цифрового ландшафта. Ключевыми факторами успеха становятся открытость, интерпретируемость и энергоэффективность решений на основе искусственного интеллекта.
#LLM #SLM #тренды
🚀 ©ТехноТренды
❤1
🚀 Технодайджест: о чем писала отечественная и мировая пресса на прошлой неделе
⚡️ Минпромторг планирует взимать сбор с производителей и импортеров электроники для поддержки отечественной промышленности. Платить будут все, но российским производителям средства будут возвращаться.
⚡️ Российский IT-бизнес ищет выход на зарубежные рынки и не находит. Институт цифровых атташе оказался неэффективен.
⚡️ Oracle согласилась помочь OpenAI в реализации проекта Stargate. По условиям сделки OpenAI получит около 4,5 гигаватт мощности датацентров Oracle в США.
⚡️ Сэм Альтман выступил с программной статьей «Миссионеры победят наемников», в которой критикует Марка Цукерберга за перекупку ценных IT-кадров и предрекает угрозу для индустрии ИИ. Что стоит за этим спором гигантов, читайте в нашем обзоре.
⚡️ Растущий спрос на цифровых ассистентов вовлекает в этот сегмент рынка новых игроков. Разработчик сервиса видео-конференц-связи IVA Technologies намерен вложить 500 млн руб. в разработку собственных ИИ-продуктов.
⚡️ «Алиса» стала бесплатной. «Яндекс» отменил плату за большинство функций своей нейросети.
#дайджест
🚀 ©ТехноТренды
⚡️ Минпромторг планирует взимать сбор с производителей и импортеров электроники для поддержки отечественной промышленности. Платить будут все, но российским производителям средства будут возвращаться.
⚡️ Российский IT-бизнес ищет выход на зарубежные рынки и не находит. Институт цифровых атташе оказался неэффективен.
⚡️ Oracle согласилась помочь OpenAI в реализации проекта Stargate. По условиям сделки OpenAI получит около 4,5 гигаватт мощности датацентров Oracle в США.
⚡️ Сэм Альтман выступил с программной статьей «Миссионеры победят наемников», в которой критикует Марка Цукерберга за перекупку ценных IT-кадров и предрекает угрозу для индустрии ИИ. Что стоит за этим спором гигантов, читайте в нашем обзоре.
⚡️ Растущий спрос на цифровых ассистентов вовлекает в этот сегмент рынка новых игроков. Разработчик сервиса видео-конференц-связи IVA Technologies намерен вложить 500 млн руб. в разработку собственных ИИ-продуктов.
⚡️ «Алиса» стала бесплатной. «Яндекс» отменил плату за большинство функций своей нейросети.
#дайджест
🚀 ©ТехноТренды
Роботизация малых складов: как повысить эффективность и снизить затраты
Складская сфера задыхается: обороты товаров растут быстрее, чем возможности обслуживания, в первую очередь кадровый ресурс. Дефицит складского персонала (кладовщиков, логистиков, операторов техники) стоит очень остро. А работать надо всё быстрее, точнее и эффективнее.
В таких условиях автоматизация склада — не роскошь, а очевидный и неизбежный путь для каждого предприятия, которое хочет устойчиво развиваться.
🎯 Тренд времени: спрос на безлюдный склад
Amazon (см. видео № 1) уже разместил на своих складах более 1 млн роботов и ежегодно закупает по 150–200 тысяч новых. По прогнозам, через 2–3 года роботы составят половину складского персонала.
Небольшие фирмы (онлайн-магазины, доставщики, производственники, перевозчики) сталкиваются с теми же проблемами. Владельцы пунктов выдачи заказов жалуются на сложность найма: люди работают по месяцу и увольняются. Отсюда высокий спрос на формат «безлюдного склада», где вкалывают роботы, а человек занимается только организацией процесса.
К счастью, технологии очень вовремя достигли нужного уровня. Современные машины оснащены искусственным интеллектом, способны к самообучению и быстро адаптируются к новым задачам. Стоимость роботов при этом за последние пять лет снизилась на 30% (Forbes), что делает их более доступными для малого и среднего бизнеса.
🎯 Технологии роботизации: возможности и варианты реализации
На сегодня существуют различные варианты роботов, способных выполнять складские операции.
👉 На видео № 2 показаны роботы от компании Mowito — автоматические погрузчики, оснащенные компьютерным зрением. Они умеют перемещаться по рельсовым направляющим к любому месту склада и поштучно брать товар из блока хранения.
👉 Также постоянно разрабатываются модели с автономной навигацией, способные свободно передвигаться внутри и вне складских помещений. Такие роботы могут совмещать функции кладовщика и курьера-доставщика.
👉 Существуют и мобильные роботы-манипуляторы (в том числе и гуманоидного типа), которые могут не только брать товар, но сортировать и упаковывать его, а также взаимодействовать с другими элементами системы логистики.
👉 Хороший эффект дает сочетание парка роботов с интеллектуальной системой управления складом в единой экосистеме. Здесь есть и отечественные примеры. Компания «СТА Карго», которая занимается хранением, обработкой и доставкой товаров для других бизнесов, внедрила у себя систему умной инвентаризации «Яндекс Роботикс» — эффективность складских процессов выросла до 96%.
🎯 Роботизация + адресное хранение: как максимально повысить КПД склада
Адресная система хранения основана на принципе уникального расположения каждой позиции на складе, что позволяет точно и быстро находить нужный товар.
Современные решения включают использование штрих- и QR-кодов, RFID-меток, а также ПО, обеспечивающее полный цикл учета и отслеживания движения товаров. Некоторые из них поддерживают интеграцию с ERP-системами и позволяют автоматически обновлять информацию о наличии товаров в реальном времени.
Кроме того, ИИ-решения позволяют рационально использовать каждый квадратный метр складского пространства, что особенно актуально для городских условий, где стоимость аренды велика. Например, небольшой онлайн-магазин, внедрив систему автоматической комплектации заказов, может более чем вдвое повысить пропускную способность склада при тех же площадях и сократить время доставки до клиента.
🎯 Вывод: фиксируем тренды
Мы видим, как удачно сошлись два фундаментальных драйвера: прогресс технологий и растущий запрос бизнеса на улучшение логистики и решение кадровой проблемы. Роботы и AI-комплексы постоянно дешевеют, что положительно влияет на сроки окупаемости инвестиций: от 2-3 лет до менее 1 года. Появляются всё новые передовые ИИ-системы, которые могут быть внедрены даже на небольших складах. Самое время для начала перехода к автоматизации — ведь кто раньше воспользуется моментом, тот быстрее получит конкурентное преимущество.
#складские_роботы #роботизация #видео
🚀 ©ТехноТренды
Складская сфера задыхается: обороты товаров растут быстрее, чем возможности обслуживания, в первую очередь кадровый ресурс. Дефицит складского персонала (кладовщиков, логистиков, операторов техники) стоит очень остро. А работать надо всё быстрее, точнее и эффективнее.
В таких условиях автоматизация склада — не роскошь, а очевидный и неизбежный путь для каждого предприятия, которое хочет устойчиво развиваться.
🎯 Тренд времени: спрос на безлюдный склад
Amazon (см. видео № 1) уже разместил на своих складах более 1 млн роботов и ежегодно закупает по 150–200 тысяч новых. По прогнозам, через 2–3 года роботы составят половину складского персонала.
Небольшие фирмы (онлайн-магазины, доставщики, производственники, перевозчики) сталкиваются с теми же проблемами. Владельцы пунктов выдачи заказов жалуются на сложность найма: люди работают по месяцу и увольняются. Отсюда высокий спрос на формат «безлюдного склада», где вкалывают роботы, а человек занимается только организацией процесса.
К счастью, технологии очень вовремя достигли нужного уровня. Современные машины оснащены искусственным интеллектом, способны к самообучению и быстро адаптируются к новым задачам. Стоимость роботов при этом за последние пять лет снизилась на 30% (Forbes), что делает их более доступными для малого и среднего бизнеса.
🎯 Технологии роботизации: возможности и варианты реализации
На сегодня существуют различные варианты роботов, способных выполнять складские операции.
👉 На видео № 2 показаны роботы от компании Mowito — автоматические погрузчики, оснащенные компьютерным зрением. Они умеют перемещаться по рельсовым направляющим к любому месту склада и поштучно брать товар из блока хранения.
👉 Также постоянно разрабатываются модели с автономной навигацией, способные свободно передвигаться внутри и вне складских помещений. Такие роботы могут совмещать функции кладовщика и курьера-доставщика.
👉 Существуют и мобильные роботы-манипуляторы (в том числе и гуманоидного типа), которые могут не только брать товар, но сортировать и упаковывать его, а также взаимодействовать с другими элементами системы логистики.
👉 Хороший эффект дает сочетание парка роботов с интеллектуальной системой управления складом в единой экосистеме. Здесь есть и отечественные примеры. Компания «СТА Карго», которая занимается хранением, обработкой и доставкой товаров для других бизнесов, внедрила у себя систему умной инвентаризации «Яндекс Роботикс» — эффективность складских процессов выросла до 96%.
🎯 Роботизация + адресное хранение: как максимально повысить КПД склада
Адресная система хранения основана на принципе уникального расположения каждой позиции на складе, что позволяет точно и быстро находить нужный товар.
Современные решения включают использование штрих- и QR-кодов, RFID-меток, а также ПО, обеспечивающее полный цикл учета и отслеживания движения товаров. Некоторые из них поддерживают интеграцию с ERP-системами и позволяют автоматически обновлять информацию о наличии товаров в реальном времени.
Кроме того, ИИ-решения позволяют рационально использовать каждый квадратный метр складского пространства, что особенно актуально для городских условий, где стоимость аренды велика. Например, небольшой онлайн-магазин, внедрив систему автоматической комплектации заказов, может более чем вдвое повысить пропускную способность склада при тех же площадях и сократить время доставки до клиента.
🎯 Вывод: фиксируем тренды
Мы видим, как удачно сошлись два фундаментальных драйвера: прогресс технологий и растущий запрос бизнеса на улучшение логистики и решение кадровой проблемы. Роботы и AI-комплексы постоянно дешевеют, что положительно влияет на сроки окупаемости инвестиций: от 2-3 лет до менее 1 года. Появляются всё новые передовые ИИ-системы, которые могут быть внедрены даже на небольших складах. Самое время для начала перехода к автоматизации — ведь кто раньше воспользуется моментом, тот быстрее получит конкурентное преимущество.
#складские_роботы #роботизация #видео
🚀 ©ТехноТренды
Матрешка и искусственный интеллект: Google научил модель прятаться внутри самой себя
Когда слышишь слово «матрешка», вряд ли первая ассоциация — ИИ. А зря. Новая модель Gemma 3n от Google реализовала именно этот архитектурный принцип, сделав его основой эффективности. И это не метафора, а легитимный и довольно старый термин: Matryoshka Embedding Model. Не иначе Сергей Брин подсказал ))
🪆Новая матрешка в нашем сельпо
Мы часто пишем об оптимизации моделей (1, 2, 3) — это один из важных трендов на фоне развития EdgeAI. Недавний релиз от Google стал одним из самых инновационных технологических прорывов года. Gemma3n — первая модель «матрешки» промышленного уровня.
На первый взгляд может показаться, что это обычная just one more LLM (их сейчас как пирожки пекут). Но вот в чем фишка: эта модель спокойно работает на вашем айфоне и при этом обеспечивает производительность на уровне лидеров рынка, таких как Claude 3.7 Sonnet и Llama 4. Кое у кого появился повод для паники.
В мульмодальной Gemma 3n включена обработка аудио (плюс к возможностям текста и зрения в версии 3.5). Каждый компонент интегрирует надежные исследовательские модели: Universal Speech Model для аудио, MobileNet v4 для зрения и MatFormer для текста.
Модель доступна в двух размерах:
• E2B (2 млрд параметров) — требует всего 2GB памяти
• E4B (4 млрд параметров) — 3GB памяти
При этом фактическое количество параметров составляет 5B и 8B соответственно, но благодаря архитектурным инновациям модель компактно упакована «сама в себя».
Это прорывное решение для EdgeAI. Теперь вы можете использовать мощный ИИ непосредственно на устройстве, без необходимости в облачных серверах или сложной настройке GPU. Прозреваем новый глобальный захват рынка «корпорацией добра» и новые антимонопольные иски 😉
🔧 Как это работает — объясняем наглядно
Принцип матрешки — «одна в другой». То же самое в Google DeepMind сделали с искусственным интеллектом. Архитектура MatFormer (Matryoshka Transformer) представляет собой вложенный трансформер для эластичного вывода: большая модель содержит меньшие, полностью функциональные версии себя. Устройство на ходу выбирает нужную, в зависимости от потребности момента: один вектор может обрабатываться на нескольких уровнях понимания.
💬 Что происходит при выводе?
Матрешечная модель обучена создавать векторы, в которых самые важные данные находятся в начале. (Этот подход, называемый Matryoshka Representation Learning, не нов — более подробно см. в статье). При этом качественные представления создаются не только для полного размера, но и для усеченных. Можно обрезать вектор — и модель всё равно вас поймет и выдаст валидный ответ.
Получить короткий вектор так же быстро, как длинный, но при этом нужно меньше памяти и вычислений. Работает как режимы экономии батареи на телефоне:
• быстро, но не слишком умно
• сбалансировано
• полный интеллект на максималках.
Пример. Представьте, что модель распознаёт картинку с котом:
• Вектор = 64: «Это кошка»
• Вектор = 256: «Это домашняя кошка в интерьере»
• Вектор = 768: «Это взрослый кот породы табби, лежит на подоконнике в солнечный день».
Чем больше вектор, тем точнее описание.
То есть одна и та же модель:
• Может работать как маленькая, средняя и большая;
• Не нуждается в дроблении на разные версии;
• Масштабируется под любое железо — от смартфона до серверов.
А главное — меньше ресурсов, меньше затрат, меньше головной боли для CTO и DevOps.
💡 Вывод
Google снова тихо затащил. Пока остальные кидают на ИИ все доступные ресурсы, здесь учат модели быть гибче, а не тяжелее. И это один из главных трендов волны EdgeAI.
Полезные ссылки для тех, кто хочет «под капот»:
🔗 Введение в Matryoshka Embedding Models на Hugging Face
🔗 Официальная дока Gemma 3n от Google
#EdgeAI #ML #LLM #Google
🚀 ©ТехноТренды
Когда слышишь слово «матрешка», вряд ли первая ассоциация — ИИ. А зря. Новая модель Gemma 3n от Google реализовала именно этот архитектурный принцип, сделав его основой эффективности. И это не метафора, а легитимный и довольно старый термин: Matryoshka Embedding Model. Не иначе Сергей Брин подсказал ))
🪆Новая матрешка в нашем сельпо
Мы часто пишем об оптимизации моделей (1, 2, 3) — это один из важных трендов на фоне развития EdgeAI. Недавний релиз от Google стал одним из самых инновационных технологических прорывов года. Gemma3n — первая модель «матрешки» промышленного уровня.
На первый взгляд может показаться, что это обычная just one more LLM (их сейчас как пирожки пекут). Но вот в чем фишка: эта модель спокойно работает на вашем айфоне и при этом обеспечивает производительность на уровне лидеров рынка, таких как Claude 3.7 Sonnet и Llama 4. Кое у кого появился повод для паники.
В мульмодальной Gemma 3n включена обработка аудио (плюс к возможностям текста и зрения в версии 3.5). Каждый компонент интегрирует надежные исследовательские модели: Universal Speech Model для аудио, MobileNet v4 для зрения и MatFormer для текста.
Модель доступна в двух размерах:
• E2B (2 млрд параметров) — требует всего 2GB памяти
• E4B (4 млрд параметров) — 3GB памяти
При этом фактическое количество параметров составляет 5B и 8B соответственно, но благодаря архитектурным инновациям модель компактно упакована «сама в себя».
Это прорывное решение для EdgeAI. Теперь вы можете использовать мощный ИИ непосредственно на устройстве, без необходимости в облачных серверах или сложной настройке GPU. Прозреваем новый глобальный захват рынка «корпорацией добра» и новые антимонопольные иски 😉
🔧 Как это работает — объясняем наглядно
Принцип матрешки — «одна в другой». То же самое в Google DeepMind сделали с искусственным интеллектом. Архитектура MatFormer (Matryoshka Transformer) представляет собой вложенный трансформер для эластичного вывода: большая модель содержит меньшие, полностью функциональные версии себя. Устройство на ходу выбирает нужную, в зависимости от потребности момента: один вектор может обрабатываться на нескольких уровнях понимания.
💬 Что происходит при выводе?
Матрешечная модель обучена создавать векторы, в которых самые важные данные находятся в начале. (Этот подход, называемый Matryoshka Representation Learning, не нов — более подробно см. в статье). При этом качественные представления создаются не только для полного размера, но и для усеченных. Можно обрезать вектор — и модель всё равно вас поймет и выдаст валидный ответ.
Получить короткий вектор так же быстро, как длинный, но при этом нужно меньше памяти и вычислений. Работает как режимы экономии батареи на телефоне:
• быстро, но не слишком умно
• сбалансировано
• полный интеллект на максималках.
Пример. Представьте, что модель распознаёт картинку с котом:
• Вектор = 64: «Это кошка»
• Вектор = 256: «Это домашняя кошка в интерьере»
• Вектор = 768: «Это взрослый кот породы табби, лежит на подоконнике в солнечный день».
Чем больше вектор, тем точнее описание.
То есть одна и та же модель:
• Может работать как маленькая, средняя и большая;
• Не нуждается в дроблении на разные версии;
• Масштабируется под любое железо — от смартфона до серверов.
А главное — меньше ресурсов, меньше затрат, меньше головной боли для CTO и DevOps.
💡 Вывод
Google снова тихо затащил. Пока остальные кидают на ИИ все доступные ресурсы, здесь учат модели быть гибче, а не тяжелее. И это один из главных трендов волны EdgeAI.
Полезные ссылки для тех, кто хочет «под капот»:
🔗 Введение в Matryoshka Embedding Models на Hugging Face
🔗 Официальная дока Gemma 3n от Google
#EdgeAI #ML #LLM #Google
🚀 ©ТехноТренды
❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Технодайджест: делимся новостями, которые привлекли наше внимание на прошлой неделе
⚡️ Спросите Гордона (не Фримена)! Разработчики Docker выкатили Ask Gordon — персонального ИИ-помощника, интегрированного в Docker Desktop и Docker CLI. Ассистент может анализировать локальную среду, включая исходный код, Dockerfile и образы, и выдавать полезные персонализированные рекомендации.
⚡️ Илон Маск представил Grok 4. По словам главы xAI, новая модель обладает знаниями на уровне Ph.D. во всех областях. В бенчмарке «Последний экзамен человечества» базовый Grok 4 набрал 41% баллов, опередив OpenAI o3, а модель Grok 4 Heavy, способная к параллельному анализу, — 50,7%. Подписка на тяжелого «доктора философии» обойдется в $300/месяц.
⚡️ Говоря о Grok 4, нельзя умолчать и о МехаГитлере 🤷♂️ 😂 Свежевыпущенный ИИ оказался крайне резок в суждениях и успел наговорить лишнего, прежде чем его пропатчили (не иначе, схватил беспокойный ген Илона). Скандал, как ни странно, не помешал xAI получить от инвесторов еще $ 2 млрд — но заодно напомнил, что даже самые дорогие и продвинутые проприетарные модели не застрахованы от системных проблем в обучении.
⚡️ Новости венчура. Российская ГК «Пиклема», поставщик IT-продуктов для горнодобывающей отрасли, привлекла 1 млрд рублей инвестиций. Инвесторы — «Основа капитал» и Kama Flow. Средства должны пойти на создание полноценной цифровой экосистемы, объединяющей горнодобывающие компании, поставщиков оборудования и разработчиков ПО, тем самым ускоряя автоматизацию горнорудной промышленности.
⚡️ NVIDIA подвинула Apple. Главный производитель GPU обновил мировые рекорды капитализации. Рыночная стоимость NVIDIA впервые в истории превысила $4 трлн — больше, чем общая стоимость всех публичных компаний Великобритании. За последние четыре года лидер рынка видеочипов подорожал почти в восемь раз (!!!) — мы с вами знаем, благодаря чему.
⚡️ Запрограммируй себе питомца. На HuggingFace представили Reachy Mini (см. видео) — домашнего робота-компаньона величиной с электрочайник. Няшный Ричи обладает опенсорсным AI с 15-ю предустановленными моделями поведения, полностью программируется на Python (обещают также JavaScript и Scratch) и предназначен для начального вхождения в робототехнику, творческого кодинга и экспериментов с ИИ. Кабельная лайт-версия стоит $299, комплектация на аккумуляторахи с лазерами из глаз — $450.
#дайджест
🚀 ©ТехноТренды
⚡️ Спросите Гордона (не Фримена)! Разработчики Docker выкатили Ask Gordon — персонального ИИ-помощника, интегрированного в Docker Desktop и Docker CLI. Ассистент может анализировать локальную среду, включая исходный код, Dockerfile и образы, и выдавать полезные персонализированные рекомендации.
⚡️ Илон Маск представил Grok 4. По словам главы xAI, новая модель обладает знаниями на уровне Ph.D. во всех областях. В бенчмарке «Последний экзамен человечества» базовый Grok 4 набрал 41% баллов, опередив OpenAI o3, а модель Grok 4 Heavy, способная к параллельному анализу, — 50,7%. Подписка на тяжелого «доктора философии» обойдется в $300/месяц.
⚡️ Говоря о Grok 4, нельзя умолчать и о МехаГитлере 🤷♂️ 😂 Свежевыпущенный ИИ оказался крайне резок в суждениях и успел наговорить лишнего, прежде чем его пропатчили (не иначе, схватил беспокойный ген Илона). Скандал, как ни странно, не помешал xAI получить от инвесторов еще $ 2 млрд — но заодно напомнил, что даже самые дорогие и продвинутые проприетарные модели не застрахованы от системных проблем в обучении.
⚡️ Новости венчура. Российская ГК «Пиклема», поставщик IT-продуктов для горнодобывающей отрасли, привлекла 1 млрд рублей инвестиций. Инвесторы — «Основа капитал» и Kama Flow. Средства должны пойти на создание полноценной цифровой экосистемы, объединяющей горнодобывающие компании, поставщиков оборудования и разработчиков ПО, тем самым ускоряя автоматизацию горнорудной промышленности.
⚡️ NVIDIA подвинула Apple. Главный производитель GPU обновил мировые рекорды капитализации. Рыночная стоимость NVIDIA впервые в истории превысила $4 трлн — больше, чем общая стоимость всех публичных компаний Великобритании. За последние четыре года лидер рынка видеочипов подорожал почти в восемь раз (!!!) — мы с вами знаем, благодаря чему.
⚡️ Запрограммируй себе питомца. На HuggingFace представили Reachy Mini (см. видео) — домашнего робота-компаньона величиной с электрочайник. Няшный Ричи обладает опенсорсным AI с 15-ю предустановленными моделями поведения, полностью программируется на Python (обещают также JavaScript и Scratch) и предназначен для начального вхождения в робототехнику, творческого кодинга и экспериментов с ИИ. Кабельная лайт-версия стоит $299, комплектация на аккумуляторах
#дайджест
🚀 ©ТехноТренды
Представляем агент ChatGPT: соединяем исследования и действия
Openai молодцы 👏 Задумка на поверхности лежит. Если агент еще научится на телефонные звонки отвечать, звонить и записывать на прием и выполнять полную функцию секретаря. Это будет хороший переворот в рабочих и домашних процессах.
🚀 ©ТехноТренды
Openai молодцы 👏 Задумка на поверхности лежит. Если агент еще научится на телефонные звонки отвечать, звонить и записывать на прием и выполнять полную функцию секретаря. Это будет хороший переворот в рабочих и домашних процессах.
🚀 ©ТехноТренды
Вы уверены, что ИИ ускоряет вашу работу? О чем говорят реальные тесты
10 июля METR опубликовал интересное исследование, показывающее, как AI-инструменты влияют на производительность опытных разработчиков open-source проектов.
В рамках рандомизированного контролируемого теста 16 опытных программеров выполняли задания в своих репозиториях — с использованием ИИ и без. Испытуемые могли использовать современные ассистенты, такие как Cursor Pro с Claude 3.5/3.7 Sonnet, либо работать без генеративного AI. Всего за время эксперимента было выполнено 246 задач разной сложности, из них 136 — с участием AI.
В отличие от традиционных бенчмарков, где задачи упрощены и формализованы, METR использовал реальные задачи, реальных специалистов и реальные open-source проекты. Это делает исследование более релевантным для оценки влияния ИИ на профессиональную деятельность.
Ключевые результаты
🔸 Как показали метрики, с применением ИИ разработчики работали на 19% дольше, чем без него. Причем эффект сохранялся независимо от используемого инструмента: agentic mode, TAB или ручной ввод в ChatGPT — всегда расходуется лишнее время.
🔸 Интересно и то, что субъективно программисты этого не ощущали. Разработчики ожидали, что ИИ ускорит их работу на 24%, и даже после завершения задач были уверены, что ИИ помог им на 20%.
В чем причина неэффективности ИИ?
• Плохая интеграция ИИ в рабочие процессы. ИИ-инструменты не всегда учитывают специфику проектов и требуют дополнительной настройки.
• Ошибки в генерации кода. ИИ может выдавать неверные или неполные решения, которые требуют проверки и коррекции — а на это уходит время.
• Недостаток опыта работы с ИИ. До эксперимента многие участники не использовали Cursor. И хотя предварительно прошли курс обучения, их опыт работы с этим инструментом составлял менее 50 часов, что может указывать на недостаточную адаптацию к таким системам.
Выводы и прогнозы
Исследование METR не отрицает потенциала ИИ. Оно лишь подчеркивает, что современные AI-ассистенты еще не оптимально интегрированы в профессиональные процессы. Необходима дальнейшая работа по оптимизации взаимодействия человека и ИИ, интеграции LLM в существующие инфраструктуры, новые подходы к тестированию, документированию и ревью кода.
Также, как отмечают авторы, это исследование — «снимок» состояния ИИ на начало 2025 года. С улучшением архитектур, методов подсказок, персонализации и обучения ИИ на конкретных проектах эффективность LLM может значительно вырасти.
Наш комментарий
👉 Явный контраст с другими бенчмарками, обычно показывающими впечатляющую эффективность ИИ на стандартизированных задачах (см., например, отчет Innovation Endeavors). В реальных условиях при высоких требованиях к качеству кода и сложных задачах ИИ пока не оправдывает ожиданий.
🔥 Не менее интересно и выявившееся когнитивное искажение разработчиков. Что это: очарованность магией ИИ или завышенная оценка собственной эффективности?
С другой стороны, есть исследования, показывающие реальное положительное влияние ИИ на производительность программистов — в первую очередь джуниоров и мидлов. Например, ИИ-ассистенты реально помогают неопытным программистам быстрее находить решения и избегать типичных ошибок (см. отчет Роберта Солоу «AI and the Productivity Puzzle», 2024).
Тесты METR также полностью подтверждают первые наблюдения практику такого явления, как вайбкодинг. Безусловно, в рутинных задачах на написания «быстрорешений» MVP, малых скриптов или кусков кода LLM хорошо помогают.
Другое дело, когда нужно сделать полноценный проект или же обеспечить дописание и поддержку существующего проекта. За LLM нужно проводить код-ревью, и это может быть труднее и дольше, чем кодить с нуля. Часто приходится корректировать промпты, прежде чем LLM сможет написать нормальный код.
Таким образом, высокоуровневый ИИ может хорошо показать себя в проектах, где LLM применяется с нуля и полностью исключено человеческое участие... эдакое программирование «человеческим языком», без сложных команд и конструкций типа try catch.
#AI #программирование #тренды
🚀 ©ТехноТренды
10 июля METR опубликовал интересное исследование, показывающее, как AI-инструменты влияют на производительность опытных разработчиков open-source проектов.
В рамках рандомизированного контролируемого теста 16 опытных программеров выполняли задания в своих репозиториях — с использованием ИИ и без. Испытуемые могли использовать современные ассистенты, такие как Cursor Pro с Claude 3.5/3.7 Sonnet, либо работать без генеративного AI. Всего за время эксперимента было выполнено 246 задач разной сложности, из них 136 — с участием AI.
В отличие от традиционных бенчмарков, где задачи упрощены и формализованы, METR использовал реальные задачи, реальных специалистов и реальные open-source проекты. Это делает исследование более релевантным для оценки влияния ИИ на профессиональную деятельность.
Ключевые результаты
🔸 Как показали метрики, с применением ИИ разработчики работали на 19% дольше, чем без него. Причем эффект сохранялся независимо от используемого инструмента: agentic mode, TAB или ручной ввод в ChatGPT — всегда расходуется лишнее время.
🔸 Интересно и то, что субъективно программисты этого не ощущали. Разработчики ожидали, что ИИ ускорит их работу на 24%, и даже после завершения задач были уверены, что ИИ помог им на 20%.
В чем причина неэффективности ИИ?
• Плохая интеграция ИИ в рабочие процессы. ИИ-инструменты не всегда учитывают специфику проектов и требуют дополнительной настройки.
• Ошибки в генерации кода. ИИ может выдавать неверные или неполные решения, которые требуют проверки и коррекции — а на это уходит время.
• Недостаток опыта работы с ИИ. До эксперимента многие участники не использовали Cursor. И хотя предварительно прошли курс обучения, их опыт работы с этим инструментом составлял менее 50 часов, что может указывать на недостаточную адаптацию к таким системам.
Выводы и прогнозы
Исследование METR не отрицает потенциала ИИ. Оно лишь подчеркивает, что современные AI-ассистенты еще не оптимально интегрированы в профессиональные процессы. Необходима дальнейшая работа по оптимизации взаимодействия человека и ИИ, интеграции LLM в существующие инфраструктуры, новые подходы к тестированию, документированию и ревью кода.
Также, как отмечают авторы, это исследование — «снимок» состояния ИИ на начало 2025 года. С улучшением архитектур, методов подсказок, персонализации и обучения ИИ на конкретных проектах эффективность LLM может значительно вырасти.
Наш комментарий
👉 Явный контраст с другими бенчмарками, обычно показывающими впечатляющую эффективность ИИ на стандартизированных задачах (см., например, отчет Innovation Endeavors). В реальных условиях при высоких требованиях к качеству кода и сложных задачах ИИ пока не оправдывает ожиданий.
🔥 Не менее интересно и выявившееся когнитивное искажение разработчиков. Что это: очарованность магией ИИ или завышенная оценка собственной эффективности?
С другой стороны, есть исследования, показывающие реальное положительное влияние ИИ на производительность программистов — в первую очередь джуниоров и мидлов. Например, ИИ-ассистенты реально помогают неопытным программистам быстрее находить решения и избегать типичных ошибок (см. отчет Роберта Солоу «AI and the Productivity Puzzle», 2024).
Тесты METR также полностью подтверждают первые наблюдения практику такого явления, как вайбкодинг. Безусловно, в рутинных задачах на написания «быстрорешений» MVP, малых скриптов или кусков кода LLM хорошо помогают.
Другое дело, когда нужно сделать полноценный проект или же обеспечить дописание и поддержку существующего проекта. За LLM нужно проводить код-ревью, и это может быть труднее и дольше, чем кодить с нуля. Часто приходится корректировать промпты, прежде чем LLM сможет написать нормальный код.
Таким образом, высокоуровневый ИИ может хорошо показать себя в проектах, где LLM применяется с нуля и полностью исключено человеческое участие... эдакое программирование «человеческим языком», без сложных команд и конструкций типа try catch.
#AI #программирование #тренды
🚀 ©ТехноТренды
Инвестиции в ИИ-стартапы: тренды и прогнозы 2025 года
Искусственный интеллект продолжает оставаться одним из самых привлекательных секторов для венчурных инвестиций. Мы уже приводили ссылки на исследования по 2024 году — вложения растут как в разработку ПО, так и в вычислительные мощности.
В 2025-м тенденция сохраняется: на сектор ИИ пришлось почти $60 млрд, или 53% от общего объема венчурного финансирования. Особенным вниманием пользуются здравоохранение, био- и «зеленые» технологии, автоматизация юридических процессов, а также «белый слон» индустрии — генеративные LLM.
По данным Crunchbase, в Q1'2025 глобальные венчурные инвестиции достигли $113 млрд — самый высокий показатель с 2022 года. Однако треть этой суммы — $40 млрд — пришлась всего на один раунд: инвестиции в OpenAI.
И это не случайность, а тенденция: объем инвестиций растет, но количество сделок сокращается.
«Имеющим прибавится, у не имеющих отнимется»
Как показывают цифры, интерес инвесторов смещается в сторону крупных, зрелых компаний, тогда как молодым стартапам становится всё труднее находить финансирование. Грубо говоря, деньги дают тем, у кого они уже и так есть (одно из ярких исключений — мощно стартовавший сольный проект Миры Мурати), а таких меньшинство. Посмотрите на диаграммы Crunchbase:
📈 инвестиции в late-stage компании увеличились более чем на 30 % по сравнению с предыдущим кварталом и на 147 % по сравнению с прошлым годом и составили $81 млрд;
📉 напротив, объем начального финансирования seed-проектов упал до $7,2 млрд, а глобальные инвестиции на ранних стадиях сократились до $24 млрд — самый низкий уровень за последние пять кварталов.
Инсайдеры отрасли также отмечают изменения в структуре и содержании сделок. Оценка стоимости на seed-стадии снизилась на 30 % по сравнению с недавними пиковыми значениями, а сроки выхода увеличились до 12 лет и более.
👉 О чем это говорит? Хайп вокруг ИИ проходит, инвесторы начинают вести себя более прагматично и предпочитают вкладываться в проверенные модели с четким путем к монетизации, особенно в секторе ИИ.
Специализация и «буткэмп»
Один из ключевых трендов — переход от универсальных фондов к узкоспециализированным. В 2025 году многие компании сделали ставку на развитие нишевых проектов, особенно в мире технологий. И инвесторы тоже предпочитают фокусироваться на конкретных отраслях или даже на узкоспециализированных модных направлениях: климатические технологии, генная терапия, femtech (продукты, специально разработанные для женского здоровья).
Также развивается практика «буткэмп-фаундинга» — создание небольших инвестфондов, ориентированных на очень ранние проекты. Такие структуры предлагают стартапам более персонализированный подход, включая менторство, доступ к сетям и операционную поддержку. Для ИИ-стартапов, которым часто требуется длительный путь до выхода на рынок, это может стать важным преимуществом.
Демократизация инвестиций и private wealth
Ответом индустрии на скептицизм корпоративных инвесторов стали крауд-инвестинг и токенизация. Этакий метод «народной стройки», за счет которой seed- и early-stage проекты могут дотянуть до late-стадии, начать получать прибыль и раздавать дивиденды.
Растет и сектор private wealth (высоколиквидные индивидуальные инвесторы и семейные офисы): по оценкам Belasko UK Limited, к 2033 году объем частных венчурных вложений достигнет $7 трлн.
Прогнозы и вызовы на 2025 год
К концу 2025 года ожидается увеличение сделок M&A в секторе, особенно среди AI-проектов. Также прогнозируется возвращение «единорогов» — стартапов с оценкой свыше $1 млрд, особенно в Европе. С другой стороны, рост процентных ставок, геополитическая нестабильность, возможное замедление экономики и постепенное охлаждение ИИ-энтузиазма могут существенно сократить число стартапов.
#венчур #инвестиции #AI #стартапы #тренды
🚀 ©ТехноТренды
Искусственный интеллект продолжает оставаться одним из самых привлекательных секторов для венчурных инвестиций. Мы уже приводили ссылки на исследования по 2024 году — вложения растут как в разработку ПО, так и в вычислительные мощности.
В 2025-м тенденция сохраняется: на сектор ИИ пришлось почти $60 млрд, или 53% от общего объема венчурного финансирования. Особенным вниманием пользуются здравоохранение, био- и «зеленые» технологии, автоматизация юридических процессов, а также «белый слон» индустрии — генеративные LLM.
По данным Crunchbase, в Q1'2025 глобальные венчурные инвестиции достигли $113 млрд — самый высокий показатель с 2022 года. Однако треть этой суммы — $40 млрд — пришлась всего на один раунд: инвестиции в OpenAI.
И это не случайность, а тенденция: объем инвестиций растет, но количество сделок сокращается.
«Имеющим прибавится, у не имеющих отнимется»
Как показывают цифры, интерес инвесторов смещается в сторону крупных, зрелых компаний, тогда как молодым стартапам становится всё труднее находить финансирование. Грубо говоря, деньги дают тем, у кого они уже и так есть (одно из ярких исключений — мощно стартовавший сольный проект Миры Мурати), а таких меньшинство. Посмотрите на диаграммы Crunchbase:
📈 инвестиции в late-stage компании увеличились более чем на 30 % по сравнению с предыдущим кварталом и на 147 % по сравнению с прошлым годом и составили $81 млрд;
📉 напротив, объем начального финансирования seed-проектов упал до $7,2 млрд, а глобальные инвестиции на ранних стадиях сократились до $24 млрд — самый низкий уровень за последние пять кварталов.
Инсайдеры отрасли также отмечают изменения в структуре и содержании сделок. Оценка стоимости на seed-стадии снизилась на 30 % по сравнению с недавними пиковыми значениями, а сроки выхода увеличились до 12 лет и более.
👉 О чем это говорит? Хайп вокруг ИИ проходит, инвесторы начинают вести себя более прагматично и предпочитают вкладываться в проверенные модели с четким путем к монетизации, особенно в секторе ИИ.
Специализация и «буткэмп»
Один из ключевых трендов — переход от универсальных фондов к узкоспециализированным. В 2025 году многие компании сделали ставку на развитие нишевых проектов, особенно в мире технологий. И инвесторы тоже предпочитают фокусироваться на конкретных отраслях или даже на узкоспециализированных модных направлениях: климатические технологии, генная терапия, femtech (продукты, специально разработанные для женского здоровья).
Также развивается практика «буткэмп-фаундинга» — создание небольших инвестфондов, ориентированных на очень ранние проекты. Такие структуры предлагают стартапам более персонализированный подход, включая менторство, доступ к сетям и операционную поддержку. Для ИИ-стартапов, которым часто требуется длительный путь до выхода на рынок, это может стать важным преимуществом.
Демократизация инвестиций и private wealth
Ответом индустрии на скептицизм корпоративных инвесторов стали крауд-инвестинг и токенизация. Этакий метод «народной стройки», за счет которой seed- и early-stage проекты могут дотянуть до late-стадии, начать получать прибыль и раздавать дивиденды.
Растет и сектор private wealth (высоколиквидные индивидуальные инвесторы и семейные офисы): по оценкам Belasko UK Limited, к 2033 году объем частных венчурных вложений достигнет $7 трлн.
Прогнозы и вызовы на 2025 год
К концу 2025 года ожидается увеличение сделок M&A в секторе, особенно среди AI-проектов. Также прогнозируется возвращение «единорогов» — стартапов с оценкой свыше $1 млрд, особенно в Европе. С другой стороны, рост процентных ставок, геополитическая нестабильность, возможное замедление экономики и постепенное охлаждение ИИ-энтузиазма могут существенно сократить число стартапов.
#венчур #инвестиции #AI #стартапы #тренды
🚀 ©ТехноТренды
Media is too big
VIEW IN TELEGRAM
На видео выше — реклама несуществующей канатной дороги Куак-Хулу (Малайзия). Пара пожилых супругов из Куала-Лумпура захотела сервиса и экзотики и поехала за 300 км. Уже в отеле стали спрашивать, где тут деревня Заманиловка знаменитая канатная дорога. Оказалось, местные впервые о ней слышат, а видео сгенерировано нейросетью. Люди, поверив fake news, поехали в несуществующее место, потратили время и деньги.
Ну что сказать, таких случаев будет всё больше. Дипфейки в наше время становятся обыденностью. Придется привыкать, что такой же обыденностью для нас станет цифровая гигиена: не верить глазам и ушам, перепроверять любую информацию и не принимать скоропалительных решений.
Наш канал — не фейк 😉 Оставайтесь с нами!
#deepfake #нейровидео #кибербезопасность
🚀 ©ТехноТренды
Ну что сказать, таких случаев будет всё больше. Дипфейки в наше время становятся обыденностью. Придется привыкать, что такой же обыденностью для нас станет цифровая гигиена: не верить глазам и ушам, перепроверять любую информацию и не принимать скоропалительных решений.
Наш канал — не фейк 😉 Оставайтесь с нами!
#deepfake #нейровидео #кибербезопасность
🚀 ©ТехноТренды
🚀 Технодайджест: трендовые новости, которые привлекли наше внимание на прошлой неделе
⚡️ Мировой рынок ИИ в сфере домашней автоматизации к 2029 году вырастет до $75,16 млрд (более чем втрое с 2024-го), а среднегодовой темп роста составит 29,65 % — гласит новый отчет ResearchAndMarkets. Главными драйверами роста названы внедрение интеллектуальных устройств (EdgeAI) и облачных сервисов. Среди ключевых игроков — Google, Apple и Amazon.
⚡️ Команда разработчиков Т-Банка представила T-pro 2.0 — серию гибридных рассуждающих моделей на основе Qwen 3 32B. Новые LLM показывают неплохие результаты в русскоязычных бенчмарках, превосходя базовую Qwen 3 по всем ключевым метрикам. Посмотреть подробности, а также потрогать руками можно на HuggingFace.
⚡️ Thinking Machines Lab, стартап бывшего техдиректора OpenAI Миры Мурати (о ее уходе на «вольные хлеба» мы писали в феврале) привлек $2 млрд в «посевном» раунде. Среди инвесторов — Nvidia, Accel, AMD, Cisco и др. При этом Мира до сих пор не раскрыла деталей проекта, но предполагается, что это будет опенсорсный «убийца GPT».
⚡️ В Кремниевой долине продолжается безумная гонка за топовыми разработчиками AI, пишет WP (см. наш разбор причин и следствий этого ажиотажа). За переход из одной компании в другую предлагаются суммы, «на которые можно основать династии». При этом большинство ИИ-специалистов сейчас живет в Китае, и большой вопрос, окупятся ли расходы американцев на «перекупку мозгов» друг у друга.
⚡️ Глава OpenAI Сэм Альтман предупреждает о грядущем «кризисе мошенничества» вокруг пользовательских аккаунтов — злоумышленники «очень скоро» начнут массово использовать ИИ для кражи учетных записей в интернете. Источник угрозы — цифровая идентификация голоса при подтверждении личности для доступа к финансовым транзакциям. Защита от voice cloning становится всё актуальнее.
⚡️ Исследователи из нескольких ведущих университетов США и Amazon GenAI представили Energy-Based Transformer (EBT) — новую архитектуру искусственного интеллекта, предназначенную для аналитического мышления. Она существенно лучше в решении языковых задач и обработке изображений, чем обычные трансформеры, но при этом требует в 3,3–6,6 раза больше вычислительной мощности для обучения.
#дайджест
🚀 ©ТехноТренды
⚡️ Мировой рынок ИИ в сфере домашней автоматизации к 2029 году вырастет до $75,16 млрд (более чем втрое с 2024-го), а среднегодовой темп роста составит 29,65 % — гласит новый отчет ResearchAndMarkets. Главными драйверами роста названы внедрение интеллектуальных устройств (EdgeAI) и облачных сервисов. Среди ключевых игроков — Google, Apple и Amazon.
⚡️ Команда разработчиков Т-Банка представила T-pro 2.0 — серию гибридных рассуждающих моделей на основе Qwen 3 32B. Новые LLM показывают неплохие результаты в русскоязычных бенчмарках, превосходя базовую Qwen 3 по всем ключевым метрикам. Посмотреть подробности, а также потрогать руками можно на HuggingFace.
⚡️ Thinking Machines Lab, стартап бывшего техдиректора OpenAI Миры Мурати (о ее уходе на «вольные хлеба» мы писали в феврале) привлек $2 млрд в «посевном» раунде. Среди инвесторов — Nvidia, Accel, AMD, Cisco и др. При этом Мира до сих пор не раскрыла деталей проекта, но предполагается, что это будет опенсорсный «убийца GPT».
⚡️ В Кремниевой долине продолжается безумная гонка за топовыми разработчиками AI, пишет WP (см. наш разбор причин и следствий этого ажиотажа). За переход из одной компании в другую предлагаются суммы, «на которые можно основать династии». При этом большинство ИИ-специалистов сейчас живет в Китае, и большой вопрос, окупятся ли расходы американцев на «перекупку мозгов» друг у друга.
⚡️ Глава OpenAI Сэм Альтман предупреждает о грядущем «кризисе мошенничества» вокруг пользовательских аккаунтов — злоумышленники «очень скоро» начнут массово использовать ИИ для кражи учетных записей в интернете. Источник угрозы — цифровая идентификация голоса при подтверждении личности для доступа к финансовым транзакциям. Защита от voice cloning становится всё актуальнее.
⚡️ Исследователи из нескольких ведущих университетов США и Amazon GenAI представили Energy-Based Transformer (EBT) — новую архитектуру искусственного интеллекта, предназначенную для аналитического мышления. Она существенно лучше в решении языковых задач и обработке изображений, чем обычные трансформеры, но при этом требует в 3,3–6,6 раза больше вычислительной мощности для обучения.
#дайджест
🚀 ©ТехноТренды
GlobeNewswire News Room
Artificial Intelligence (AI) in Home Automation Market Opportunities and Strategies Report 2025-2034 | Market to Gain $23.28 Billion…
The global AI in home automation market, valued at $20.51 billion in 2024, will soar to $75.16 billion by 2029, growing at a CAGR of 29.65%. Growth driven...