📈 ТехноТренды: Технологии, Тренды, IT
1.01K subscribers
122 photos
23 videos
7 files
223 links
Канал "ТехноТренды". Разбор технологий, технологических трендов и инноваций в различных сферах бизнеса и жизни: IT, производство и др.
Download Telegram
🇷🇺 В Сколково прошла презентация тренд-репорта «Рынок GenAI в 2025: что нужно знать бизнесу» (🎦Youtube, Rutube). Эксперты проанализировали и обобщили
● состояние рынка GenAI в мире и в России,
● технологические и пользовательские тренды генеративного ИИ в 2025 году,
● ситуацию на рынке труда на фоне широкого внедрения GenAI-моделей.

Скачать документ в формате PDF можно по ссылке. Некоторые ключевые тезисы:

🔸 Ожидаемый среднегодовой темп роста рынка GenAI на 2024–2030 гг. оценивается в 46,48%. К 2030 году его объем увеличится в 10 раз, достигнув $356,1 млрд. Ключевую роль в развитии рынка будут играть США, Европа и Азия, но и наша страна имеет достаточный потенциал для появления собственных «единорогов» (стартапов-миллиардеров).

🔸 Объем рынка GenAI в России прогнозируется на уровне $4,15 млрд, со среднегодовым ростом 25%. К 2030 году правительство планирует выделить $0,3 млрд на развитие AI. Вложения из внебюджетных источников, таких как Сбер и РФПИ, могут составить $1,16 млрд. Технология набирает популярность как в бизнесе, так и среди частных пользователей.

🔸Развитие AI-систем движется в сторону агентного подхода: автономные AI-агенты, мультиагентные системы (MAS) и агенты пользовательского интерфейса. Подобная модульность создает предпосылки для формирования композитных AI — мета-структур, которые преодолевают ограничения традиционных LLM за счет интеграции различных технологий в единый комплекс.

🔸Технология RAG (Retrieval-Augmented Generation) становится базово применимой концепцией для LLM
и продолжает эволюционировать
, расширяя разнообразие архитектур. Так же активно идет развитие Vision-Language Models (VLM) — продвинутых AI-моделей, работающих одновременно с текстом и изображениями.

🔸Еще один тренд — на развитие SLM (Small Language Models), компактных нейросетей, оптимизированных для узкоспециальных задач. По прогнозу Gartner, к 2027 году более 50% моделей GenAI, используемых в бизнесе, будут адаптированы под конкретные отрасли или бизнес-функции.

🔸Также нас ожидает массовое внедрение AI-агентов и копилотов в физические устройства (дальнейшее развитие «интернета вещей») и переход LM-систем от вопросно-ответных датасетов к рассуждающим моделям.

🔸Что касается перемен на рынке труда, то прогноз позитивный.
Несмотря на автоматизацию, безработица не должна вырасти, так как появляются новые профессии. Однако большинство специальностей потребуется адаптировать, а сотрудников — обучать работе в среде с AI-агентами.

☝️ AI-агент не заменяет человека, но дополняет его. Конкуренция возникает не между людьми и машинами, а между теми, кто эффективно использует AI, и теми, кто этого не делает. Часть задач передается ботам, что меняет структуру труда и перераспределяет работу. Появляются новые требования к сотрудникам, AI-навыки становятся ценным преимуществом.

«AI — не очередной хайп. Это следующий технологический цикл, который приведет к масштабным изменениям и долгосрочному обновлению бизнес-процессов».

#аналитика #AI #LLM #SLM #ИИ #RAG

🚀 Подписывайтесь на ТехноТренды — самый экспертный канал об AI, IT и роботизации!
Обзор локальных архитектур для больших языковых моделей. Часть 3/4

3️⃣ RISC-V

Архитектура RISC-V — открытый набор инструкций (ISA), позволяющий разрабатывать кастомные процессоры без лицензионных отчислений. В отличие от закрытых решений типа ARM (хотя и там появляется опенсорс), RISC-V дает полную свободу модификации и оптимизации под конкретные задачи, что критично для Edge AI-решений.

Главные преимущества RISC-V перед ARM:
👉 Открытость — разработчики могут адаптировать ISA под любые нужды, не заботясь о лицензировании.
👉 Модульность и кастомизация — можно брать определенный набор инструкций и расширений под конкретное решение, ничего лишнего.
👉 Энергоэффективность — микропроцессор RISC-V на 5 ГГц «ест» всего 1 Вт при напряжении 1,1В, т.е. менее 1% рабочего энергопотребления чипа Intel Xeon.
👉 Экономичность — отсутствие лицензионных платежей снижает себестоимость чипов.

Есть и недостатки:
Недостаточная зрелость технологии. RISC-V — относительно новая архитектура по сравнению с той же ARM. Отсюда несбалансированность, дефекты команд, небольшой выбор инструментов, библиотек и документации для разработчиков, ограниченная поддержка операционных систем, приложений и драйверов.
Относительно низкая производительность для AI-решений. Процессоры RISC-V показывают пока невысокий инференс даже на оптимизированных LLM типа TinyLlama 1.1B — 1-5 TOPS на выходе.

И все-таки архитектура стремительно наращивает популярность. Зрелость — дело наживное, целые лаборатории работают над оптимизацией алгоритмов и созданием софтверной экосистемы. Благодаря опенсорсу сложилось огромное комьюнити независимых разработчиков. Да и лидеры не отстают: консорциум RISC-V International, контролирующий технологию, включает уже почти 400 научных и коммерческих организаций, включая китайский Институт вычислительных технологий, Google, Qualcomm, Western Digital, Hitachi, Samsung, Huawei, ZTE, Tencent и Alibaba Cloud.

Почему? Смотрите выше. Если ARM хороша для многофункциональных мобильных устройств, то RISC-V — идеальный вариант для специализированных нишевых решений. А ниш очень много.

Где особо востребована архитектура RISC-V?
👉 Везде, где нужны не огромные LLM, а оптимизированные и заранее обученные малые модели:
• интернет вещей,
• промышленная робототехника,
• беспилотный транспорт,
• машинное зрение,
• интеллектуальные системы безопасности
• с/х автоматика (умные теплицы и пр.)
Здесь RISC-V обеспечивает нужное быстродействие, автономность, дешевизну и защищенность.
👉 Популярной сферой применения RISC-V являются периферийные шлюзы ИИ, например системы управления датчиками «умного дома» и другой потребительской робототехники, рынок которой постоянно расширяется.
👉 Отдельная тема — применение RISC-V в военной и аэрокосмической отрасли, над чем давно работают в Китае, США и Европе.
👉 Более того: на CPU RISC-V строят вычислительные кластеры для облачных дата-центров. Даже ноутбуки выпускают со специальными фреймворками и нейромодулями (NPU), позволяющими подключать локальные API LLM и разгонять инференс до 40 терафлопс. Но это скорее экзотика, с ARM здесь не поконкурируешь.

📈 Динамика рынка чипов RISC-V
По некоторым оценкам, начиная с 2024 года объемы поставок процессоров RISC-V будут в среднем расти на 50% ежегодно. К 2030-му годовой объем поставок чипов RISC-V для Edge AI (исключая TinyML) достигнет 129 миллионов, заняв 25% рынка процессоров. Из этого количества 70% составят поставки для личных и рабочих устройств и шлюзов Edge AI.

Некоторые энтузиасты спешат объявить RISC-V «ARM-киллером» и «геймчейнджером на рынке EdgeAI». На самом деле это просто еще одна технология, для которой пришло время и сформировался спрос. Развитие ИИ подстегнуло интерес к архитектуре, а развитие архитектуры становится драйвером для дальнейшего развития периферийных AI-устройств.

#EdgeAI #внедрениеAI #LLM #RISCV #SLM

🚀 ©ТехноТренды
11🔥1
Новые open-source языковые модели за последние пару недель

В 2025 году наблюдается устойчивый переход от масштабных закрытых решений к более гибким, эффективным и доступным open-source альтернативам, в том числе малым моделям (SLM) и системам для Edge-устройств, о чем мы регулярно пишем. Новые разработки не только демонстрируют рост производительности, но и адаптируются под специфические потребности различных отраслей.

Основные тенденции в разработке моделей:
• оптимизация вычислительных ресурсов (один из ключевых трендов современности),
• развитие архитектур типа Mixture-of-Experts (MoE), которые делят большую модель на меньшие, специализированные подсети, называемые «экспертами»,
• расширение контекстных возможностей,
• фокус на специализацию, конкретные сценарии использования — от юридического анализа до сложного логического рассуждения.

В этом контексте особенно интересно наблюдать за особенностями новых open-source решений, которые выкатываются буквально каждые несколько дней.

Gemma 3n от Google DeepMind — открытая модель (~5 млрд и 8 млрд параметров) для on-device использования. Поддерживает мультимoдальный ввод (текст, изображения, аудио, видео) и обучена на 140+ языках. Благодаря новому архитектурному решению MatFormer эффективное число параметров сокращено до ~2B/4B (память ~2–3 ГБ VRAM) , при этом качество остаётся высоким (модель E4B набрала >1300 Elo на LMArena — впервые для модели <10B) .

Tencent Hunyuan-A13B-Instruct — 13 млрд «активных» параметров (всего 80 млрд, архитектура MoE). Универсальная LLM общего назначения с открытыми весами, обученная следовать инструкциям. Поддерживает контекст до 256k токенов и имеет режимы быстрого/медленного «мышления». Оптимизирована под агентные задачи: показывает лидирующие результаты на бенчмарках вроде BFCL-v3 и τ-Bench. Для эффективного инференса применяет оптимизированное внимание (GQA). Выпускается также в квантованных версиях (FP8, GPTQ и др.) .

MiniMax M1 — новая открытая LLM от китайского стартапа MiniMax с рекордным контекстом ~1 000 000 токенов (ввод) и до 80k токенов вывода. Использует гибридную архитектуру MoE с 456 млрд параметров (45,9 млрд активных на токен). Модель ориентирована на сложное многошаговое рассуждение и генерацию кода: например, набирает ~86% на математическом конкурсе AIME 2024 и 65% на LiveCodeBench. По ряду сложных задач M1 превосходит предыдущих open-source лидеров (DeepSeek R1, Qwen3) и заметно сокращает разрыв с закрытыми моделями.

SUSE Cavil-Qwen3-4B — специализированная 4-миллиардная LLM для юридического текста, открытая компанией SUSE. Является LoRA-дообучением модели Qwen3 (4B) для поиска лицензий и других легальных атрибутов в коде и документации. Модель распространяется под Apache 2.0 и работает на потребительских GPU (баланс производительности и деплоймента) .

Dhanishtha 2.0 Preview — экспериментальная открытая LLM с «промежуточным мышлением». Умеет несколько раз переосмысливать и уточнять свой ответ, вставляя рассуждения между репликами. Такой подход экономит до ~79% токенов по сравнению с классическим развернутым мышлением (напр., у DeepSeek R1). Модель пока в стадии превью, но ее можно протестировать — код и веса доступны открыто.

👉 Тренды указывают на стремительное сближение возможностей открытых и коммерческих систем ИИ. Основным драйвером процесса служит ориентация на реальные потребности бизнеса и сообщества: от гонки за формальными численными показателями идет переориентация на конкретные задачи. Всё это создает условия для еще более активного внедрения ИИ в корпоративные и государственные процессы.

🔥 Параллельно идет переосмысление цифрового ландшафта. Ключевыми факторами успеха становятся открытость, интерпретируемость и энергоэффективность решений на основе искусственного интеллекта.

#LLM #SLM #тренды

🚀 ©ТехноТренды
1