Sber AI
6.53K subscribers
2.16K photos
577 videos
1 file
1.95K links
AI для людей: всё об искусственном интеллекте в мире и Сбере 💚

Рассказываем, как AI меняет нашу жизнь, разбираем тренды технологий и делимся новыми разработками!
Download Telegram
🔥 Мультимодальный найм от Sber AI 🔥

Коллеги из GigaChat RnD открыли набор на 6 вакансий:

1️⃣ ML Engineer (Computer Operator)
Роль для работы над мультимодальными агентами. Задачи — подготовка и проведение экспериментов с моделями в проекте Computer Operator. Разработка агентов для интеграции в GigaChat и другие продукты.

2️⃣ CV Researcher (Sber. GigaChat)
Позиция для тех, кто хочет разрабатывать и валидировать SOTA-подходы в компьютерном зрении. Работа с видео (распознавание, трекинг, анализ временных последовательностей), VLM и омнимодальными архитектурами.

3️⃣ NLP Engineer (RnD NLP TTS)
Нужен специалист для создания SOTA end-to-end решений в мультимодальных задачах (аудио + текст): синхронный перевод речи, full-duplex диалоговые системы, генерация и контроль голоса. Эксперименты с GigaChat, DeepSeek, Qwen. Подготовка сложных датасетов и бенчмарков для аудио.

4️⃣ NLP Researcher (RnD NLP)
Место для тех, кто умеет разбирать LLM-пайплайны, формулировать гипотезы и внедрять SOTA-решения. Работа включает обучение моделей, валидацию и интеграцию решений в GigaChat, а также упаковку результатов исследований и (по желанию) публикации на топовых конференциях.

5️⃣ NLP-исследователь в AGI NLP
Ищут исследователя для оценки возможностей LLM, AI-агентов и RAG-систем. Нужно будет разрабатывать метрики, тесты, бенчмарки, проводить эксперименты и оценивать модели. Также предстоит работать в коллаборации с ведущими AI-компаниями.

6️⃣ NLP/PLP Researcher (GigaCode)
Позиция для обучения SOTA LLM под задачи программирования — от генерации подсказок в IDE до редактирования проектов. Формулировка гипотез, запуск экспериментов, анализ результатов, подготовка бенчмарков и обучение моделей (с нуля и дообучение). Интеграция решений с командой SberWorks, ориентация на передовые исследования.

❗️Важно: все вакансии рассчитаны на уровень Middle и выше.
➡️ В отклике укажите, на какую позицию претендуете. Почта для связи: [email protected]

Свежие вакансии подсмотрели в канале RnD CV Team.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64🔥4
Новая модель расскажет всё о ваших тренировках 🏃‍♂️

Google Research представила SensorLM — семейство LLM, которые обрабатывают сырые данные фитнес-трекеров и объясняют их текстом. Модель интерпретирует физиологические показатели точнее, чем неспециализированные LLM. Это позволит создавать AI-помощников для здоровья и спорта.

Особенности SensorLM

💻 Выдаёт описания, точно соответствующие контексту активности: по сигналам с датчиков модель объяснит, когда пользователь бежал в гору, а когда — волновался перед выступлением.

💻 Кросс-модальный поиск: пользователь вводит текстовый запрос и получает сырые показатели — и наоборот.

💻 Работает в режиме zero-shot. Может классифицировать более 20 видов активности без fine-tuning и легко дообучается всего на нескольких примерах.

Как обучали модель

В основе датасета — более 59,7 миллионов часов записи активности 103 643 человек из 127 стран. А также текстовые описания фрагментов данных, созданные с помощью иерархического пайплайна.

Во время контрастного обучения модель тренировалась различать типы данных: например, какие соответствуют быстрой ходьбе, а какие — медленному бегу. Во время генеративного предобучения модель училась сама интерпретировать сигналы датчиков и доходчиво анализировать показатели.

❤️ — если тоже хотите личного AI-тренера
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍8🔥5
Пишем SQL-запросы со скоростью нейронного импульса 🤖

Оптимизировали написание SQL-запросов, подключив к анализу базы данных LLM. Это сократило время на анализ данных и снизило риск ошибок. В основе решения — LLM для кодинга, дообученная на исторических данных и журналах запросов.

Чтобы ускорить обучение и сэкономить память, провели fine-tuning с помощью метода LoRA. Вместо полной перенастройки обновлялась лишь часть параметров: 786 432 вместо 1 347 258 368. По итогам оптимизация достигла более 94%.

Что сделали:
🔘 сгенерировали 5 000 SQL-запросов на синтетической БД из 50 таблиц
🔘 разбили запросы на input/output: модель получает начало запроса и учится его дописывать
🔘 оценили результат через ROUGE-L-SQL (сходство строк) и AST-сравнение (структура кода)


LLM, натренированная на наших данных, научилась «чувствовать» архитектуру хранилища. Она предлагает точные JOIN-условия, находит нужные таблицы и дописывает фрагменты запроса.

➡️ Полный цикл обучения — 86 минут на двух GPU Tesla T4
➡️ ROUGE-L-SQL — 0,4497. Эта метрика показывает, насколько сгенерированный SQL-запрос совпадает по структуре с эталонным.

⚠️ Результаты показывают, что LLM можно интегрировать в системный анализ, особенно для задач с повторяющимися паттернами. Для более точных результатов метод нужно тестировать на реальных данных с учётом бизнес-контекста. А также экспериментировать с другими методами дообучения.

👍 — уже используете LLM для работы с БД
❤️ — пошли тестировать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍6🔥3
Составляем портрет AI-энтузиаста! Ответьте на вопросы ниже, чтобы он получился точным. Потом вы сможете сравнить, похож ли этот герой на вас 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто вы?
Anonymous Poll
72%
Мужчина
28%
Женщина
Сколько вам лет?
Anonymous Poll
8%
<20
15%
20-25
34%
26-35
29%
36-45
14%
>45
Российские школьники покорили международный AI-челлендж! 🏆

Школьная сборная России по AI взяла 8 медалей на Международной олимпиаде по искусственному интеллекту IOAI. Соревнование проходило в Китае со 2 по 8 августа. Ребята с головой погружались в программирование роботов и решение сложнейших задач, применяя все свои суперсилы в машинном обучении, NLP и компьютерном зрении.

В составе сборной России выступили ученики 10-х и 11-х классов. Среди них есть призёры и победители Всероссийской олимпиады, AI Challenge, профиля «AI» НТО и других престижных соревнований по искусственному интеллекту. В финале они встретились с 300 талантливыми школьниками из 61 страны.

Финал состоял из командного и индивидуального туров. В командном туре сборная России выиграла серебряную медаль.

Результаты личного зачёта

🥇 Матвей Беляев, Владивосток
🥇 Михаил Вершинин, Новосибирск
🥇 Тимур Гарифуллин, Уфа
🥇 Данис Динмухаметов, Москва
🥇 Олег Дроканов, Санкт-Петербург
🥇 Андрей Хлопотных, Санкт-Петербург
🥈 Артем Мазур, Москва
🥉 Константин Сигалов, Санкт-Петербург


Команду из России готовили в рамках Альянса в сфере AI, представители Центрального университета, а также эксперты из крупнейших компаний и вузов: Сбера, Т-Банка, Яндекса, VK, МТС, ВШЭ и МФТИ. Очные занятия проходили в мае на площадке СберУниверситета.

Победители получили приглашение на стажировку в Сбер, а также по 100 тысяч рублей на образовательные цели от Благотворительного фонда Сбера «Вклад в будущее».

❤️ — если радуетесь успехам ребят
Please open Telegram to view this post
VIEW IN TELEGRAM
19👏12👍9🔥2
Меньше ошибок, больше контекста и адаптивного общения 🤖

OpenAI представила GPT‑5 — свою самую продвинутую языковую модель. Она поддерживает до 400 000 токенов контекста, что позволяет:

🔘 обрабатывать длинные входные данные
🔘 строить глубокие многошаговые рассуждения
🔘 учитывать контекст для точных и непротиворечивых ответов на протяжении всего диалога


Новая версия лучше исправляет сложные баги, оптимизирует запросы (например, в Stripe), работает с фоновыми и параллельными агентами. OpenAI также интегрировала GPT‑5 в Cursor AI (среда для разработки), и команда уже использует его для сложных инженерных задач — от генерации кода до работы с репозиториями и protobuf.

AI демонстрирует рекордные результаты (по сравнению с прошлой версией) на SWE‑bench Verified (74,9 %) и Aider Polyglot (88 %) — бенчмарках для многоязычного кода. Она справляется с задачами по фронтенду, дизайн-системам и навигации по большим кодовым базам.

На медицинском бенчмарке HealthBench Hard она набрала 46,2 %, продемонстрировав способность объяснять медицинские термины и задавать пользователю уточняющие вопросы.

GPT‑5 также стала точнее при работе с фактами:

🔘 допускает на ~45% меньше фактологических ошибок, чем GPT‑4o
🔘 галлюцинирует в 6 раз реже (по данным LongFact и FActScore)


Результаты на популярных бенчмарках:

🔘 GPQA (вопросы уровня PhD): 88,4 %
🔘 AIME (математическое соревнование): 94,6 %
🔘 MMMU (визуальные задачи): 84,2 %
🔘 Tau2‑bench (инструменты и функции): до 96,7 %


Интерфейс сделали более гибким. Модель адаптируется под стиль работы пользователя и поддерживает новые режимы общения — Cynic, Robot, Listener и Nerd.

Всего пользователям доступны пять версий GPT‑5:

🔘 стандартная gpt-5-main
🔘 ускоренная версия gpt-5-main-mini
🔘 «размышляющая» gpt-5-thinking
🔘 продвинутая reasoning-модель gpt-5-thinking-pro
🔘 компактная gpt-5-thinking-nano для быстрого решения сложных задач


Если GPT‑4 был умным собеседником, способным ответить почти на любой вопрос, то GPT‑5 — уже полноценный соисполнитель. Он не просто подсказывает, а выполняет конкретные задачи: генерирует приложения, помогает с кодом, документами и исследованиями. Модель стала самостоятельнее, точнее и ещё ближе к общему AI (AGI).

🔥 — побежали тестировать новинку
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12🤔4👍1
Свежая публикация: AI-инсайды из Шанхая 🔥

Андрей Белевцев, старший вице-президент и руководитель блока «Технологическое развитие» Сбера, рассказал о трендах с World Artificial Intelligence Conference (WAIC) в Шанхае.

Что выделили на конференции:

🔘 Рост значимости AI-агентов и мультиагентных систем
🔘 Усиление человеческих возможностей через Intelligence Augmentation
🔘 Популяризацию робототехники и Embodied AI
🔘 Развитие AI Governance — от этики и безопасности до госрегулирования


Подробности —
здесь ⬅️

🔥
— за технологии без границ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86🔥5