⚡️МЧС тестирует нейросеть для расследования пожаров
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
👍19❤3🥰2
🔥 Вышел новый ИИ-учёный от легендарного Эндрю Ына, сооснователя Coursera и преподавателя Стэнфорда.
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
🤔8❤2🤣2
⚡️ VK RecSys Challenge проходит на датасете VK-LSVD — одном из самых масштабных датасетов для рекомендательных систем.
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
❤5🔥2🥰1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Используется модель LFM2-Audio-1.5B от LiquidAI, а все данные остаются приватными.
Полностью локальный пайплайн, который можно адаптировать под свои задачи и интегрировать где угодно.
Готовый разбор и код - по ссылке:
https://github.com/Liquid4All/cookbook/tree/main/examples/audio-transcription-cli
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1
Яндекс — место, где наука и бизнес работают вместе. Мы превращаем исследования и аналитические данные в реальные продукты для миллионов пользователей.
Сейчас мы ищем сильных аналитиков — с опытом на Python от 3 лет. Участвуйте в Weekend Offer, чтобы пройти все собеседования и получить офер всего за 2 дня.
Как всё устроено:
• Подайте заявку до 3 декабря.
• Пройдите технические секции 6 декабря.
• Познакомьтесь с командами и получите офер 7 декабря.
На сайте собрали все подробности — читайте по ссылке и регистрируйтесь: https://yandex.ru/project/events/wo-analytics-1225
Сейчас мы ищем сильных аналитиков — с опытом на Python от 3 лет. Участвуйте в Weekend Offer, чтобы пройти все собеседования и получить офер всего за 2 дня.
Как всё устроено:
• Подайте заявку до 3 декабря.
• Пройдите технические секции 6 декабря.
• Познакомьтесь с командами и получите офер 7 декабря.
На сайте собрали все подробности — читайте по ссылке и регистрируйтесь: https://yandex.ru/project/events/wo-analytics-1225
❤7
🚀 Step-Audio-R1 — первый аудио-LLM, который открыл масштабирование вычислений на этапе инференса для задач звука. Новый рубеж для моделей, работающих с живым аудио.
🛠️ Ключевые возможности:
- глубокое понимание аудиосигнала
- реакция в реальном времени
- масштабируемые цепочки рассуждений для аудио-задач
🔥 Производительность:
- превосходит Gemini 2.5 Pro и сопоставим с Gemini 3 на ключевых бенчмарках по аудио-reasoning
- 96% точности в режиме реального времени - выше, чем GPT Realtime и Gemini 2.5 Flash Native Audio Dialog
- латентность первого токена - всего 0.92 секунды
Step-Audio-R1 использует Modality-Grounded Reasoning Distillation (MGRD) - подход, при котором цепочки рассуждений привязываются не к "домыслам модели", а к реальным акустическим признакам сигнала.
То есть модель рассуждает, опираясь на звук, а не на абстракции из текста.
Это убирает галлюцинации, повышает надёжность и позволяет масштабировать глубину reasoning так же, как это делают текстовые R1-подобные модели, но теперь в аудио.
Новый этап: LLM, которые думают не только над текстом, но и над реальным звучанием мира.
👾Demo: https://stepaudiollm.github.io/step-audio-r1/
📄 Paper: https://arxiv.org/abs/2511.15848
🐙 GitHub: https://github.com/stepfun-ai/Step-Audio-R1
🛠️ Ключевые возможности:
- глубокое понимание аудиосигнала
- реакция в реальном времени
- масштабируемые цепочки рассуждений для аудио-задач
🔥 Производительность:
- превосходит Gemini 2.5 Pro и сопоставим с Gemini 3 на ключевых бенчмарках по аудио-reasoning
- 96% точности в режиме реального времени - выше, чем GPT Realtime и Gemini 2.5 Flash Native Audio Dialog
- латентность первого токена - всего 0.92 секунды
Step-Audio-R1 использует Modality-Grounded Reasoning Distillation (MGRD) - подход, при котором цепочки рассуждений привязываются не к "домыслам модели", а к реальным акустическим признакам сигнала.
То есть модель рассуждает, опираясь на звук, а не на абстракции из текста.
Это убирает галлюцинации, повышает надёжность и позволяет масштабировать глубину reasoning так же, как это делают текстовые R1-подобные модели, но теперь в аудио.
Новый этап: LLM, которые думают не только над текстом, но и над реальным звучанием мира.
👾Demo: https://stepaudiollm.github.io/step-audio-r1/
📄 Paper: https://arxiv.org/abs/2511.15848
🐙 GitHub: https://github.com/stepfun-ai/Step-Audio-R1
❤9🔥5👍4
🇨🇳 Китай представил концепт AI-ускорителя на базе 14 нм логики + 18 нм DRAM, который обещает 120 TFLOPS при 2 TFLOPS на ватт.
По заявлениям, это уровень производительности Nvidia A100, но с упором не на техпроцесс, а на упаковку и работу с памятью.
Идея такая:
- вычислительные кристаллы 14 нм размещаются прямо поверх 18 нм DRAM
- используется гибридное 3D-бондинг-соединение
- тысячи коротких медных линий дают почти «как на кристалле» пропускную способность
- память ближе к вычислениям → меньше простаивания → выше реальная производительность на ватт
Заявленные характеристики — 120 TFLOPS при ~60 Вт, что лучше старых A100 по эффективности, но значительно слабее линейки Blackwell.
Но важно понимать:
- это пока архитектурный концепт, без массового кремния
- нет открытых бенчмарков
- нет подтверждённого серийного производства
- до уровня Nvidia Blackwell и по мощности, и по эффективности ещё далеко
Тем не менее сам подход показатель: акцент переносится с гонки за «нанометрами» к близости памяти, 3D-упаковке и near-memory computing. Это то направление, куда движется весь рынок высокопроизводительного AI-железа.
На данный момент концепт скорее сигнал о намерениях, чем реальный конкурент Nvidia.
tweaktown.com/news/109123/china-says-its-homegrown-14nm-chips-rival-nvidias-4nm-chips/index.html
По заявлениям, это уровень производительности Nvidia A100, но с упором не на техпроцесс, а на упаковку и работу с памятью.
Идея такая:
- вычислительные кристаллы 14 нм размещаются прямо поверх 18 нм DRAM
- используется гибридное 3D-бондинг-соединение
- тысячи коротких медных линий дают почти «как на кристалле» пропускную способность
- память ближе к вычислениям → меньше простаивания → выше реальная производительность на ватт
Заявленные характеристики — 120 TFLOPS при ~60 Вт, что лучше старых A100 по эффективности, но значительно слабее линейки Blackwell.
Но важно понимать:
- это пока архитектурный концепт, без массового кремния
- нет открытых бенчмарков
- нет подтверждённого серийного производства
- до уровня Nvidia Blackwell и по мощности, и по эффективности ещё далеко
Тем не менее сам подход показатель: акцент переносится с гонки за «нанометрами» к близости памяти, 3D-упаковке и near-memory computing. Это то направление, куда движется весь рынок высокопроизводительного AI-железа.
На данный момент концепт скорее сигнал о намерениях, чем реальный конкурент Nvidia.
tweaktown.com/news/109123/china-says-its-homegrown-14nm-chips-rival-nvidias-4nm-chips/index.html
👍16❤5🥰1
«Прожарка» специалистов по машинному обучению от ChatGPT!
Это небольшой отрывок из подкаста «Криптонит говорит» об искусственном интеллекте и машинном обучении — ИИ задаёт неудобные вопросы и прогнозирует, когда он всех заменит.
📺 VK Видео
📺 YouTube
📺 Rutube
💬 Подкаст в телеграме
🎵 Яндекс.Музыка
Смотрите и подписывайтесь на подкаст «Криптонит говорит» — обсуждаем айти, искусственный интеллект, языки программирования и криптографию.
Реклама АО НПК «Криптонит» ИНН 9701115253 Erid: 2VtzqwapzWV
Это небольшой отрывок из подкаста «Криптонит говорит» об искусственном интеллекте и машинном обучении — ИИ задаёт неудобные вопросы и прогнозирует, когда он всех заменит.
📺 VK Видео
📺 YouTube
📺 Rutube
💬 Подкаст в телеграме
🎵 Яндекс.Музыка
Смотрите и подписывайтесь на подкаст «Криптонит говорит» — обсуждаем айти, искусственный интеллект, языки программирования и криптографию.
Реклама АО НПК «Криптонит» ИНН 9701115253 Erid: 2VtzqwapzWV
Telegram
Криптонит. Разработка, наука, шифрование
Канал IT-компании «Криптонит».
Рассказываем про:
•работу с Big Data на основе AI, ML, шифрования
•разработку и языки программирования
•математику и криптографию
На связи @OBogolyubskaya_official
Присоединяйтесь к нам: https://career.kryptonite.ru/
Рассказываем про:
•работу с Big Data на основе AI, ML, шифрования
•разработку и языки программирования
•математику и криптографию
На связи @OBogolyubskaya_official
Присоединяйтесь к нам: https://career.kryptonite.ru/
💊6❤4🍌1
🧠 Погружение в глубокое обучение: от основ до GPT
Этот репозиторий предлагает серию блокнотов, которые проведут вас через ключевые концепции глубокого обучения, от базовых элементов до создания и понимания современных моделей, таких как GPT. Каждый блокнот последовательно раскрывает темы, включая нейронные сети и сверточные архитектуры.
🚀 Основные моменты:
- Пошаговое изучение глубокого обучения.
- Создание первой нейронной сети.
- Изучение сверточных нейронных сетей.
- Погружение в архитектуры ResNet.
- Работа с моделями GPT и их настройка.
📌 GitHub: https://github.com/Infatoshi/all-of-it
#jupyter
Этот репозиторий предлагает серию блокнотов, которые проведут вас через ключевые концепции глубокого обучения, от базовых элементов до создания и понимания современных моделей, таких как GPT. Каждый блокнот последовательно раскрывает темы, включая нейронные сети и сверточные архитектуры.
🚀 Основные моменты:
- Пошаговое изучение глубокого обучения.
- Создание первой нейронной сети.
- Изучение сверточных нейронных сетей.
- Погружение в архитектуры ResNet.
- Работа с моделями GPT и их настройка.
📌 GitHub: https://github.com/Infatoshi/all-of-it
#jupyter
❤11👍2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
❓ Как устроена инфраструктура AI-сервисов и почему от неё зависит успех продукта
AI-решение — это не только модель. Без правильной архитектуры оно превращается в черный ящик, который ломается при первой нагрузке. Если вы проектируете или сопровождаете AI-системы и хотите понять, как устроены архитектуры, обеспечивающие высокую доступность, отказоустойчивость и безопасность — присоединяйтесь к открытому вебинару 2 декабря в 20:00 (МСК).
❗️ Разберём ключевые подходы High Availability , Fault Tolerance и Disaster Recovery и создадим RAG-сервис на реальном примере. Вы поймёте, как строить архитектуру, которая не падает, не теряет данные и выдерживает рост нагрузки.
▶️ Открытый урок проходит в преддверии старта курса «AI-архитектор». Зарегистрируйтесь и выведите свои AI-проекты на инженерный уровень: https://otus.pw/OvO1H/?erid=2W5zFJSbPsN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
AI-решение — это не только модель. Без правильной архитектуры оно превращается в черный ящик, который ломается при первой нагрузке. Если вы проектируете или сопровождаете AI-системы и хотите понять, как устроены архитектуры, обеспечивающие высокую доступность, отказоустойчивость и безопасность — присоединяйтесь к открытому вебинару 2 декабря в 20:00 (МСК).
❗️ Разберём ключевые подходы High Availability , Fault Tolerance и Disaster Recovery и создадим RAG-сервис на реальном примере. Вы поймёте, как строить архитектуру, которая не падает, не теряет данные и выдерживает рост нагрузки.
▶️ Открытый урок проходит в преддверии старта курса «AI-архитектор». Зарегистрируйтесь и выведите свои AI-проекты на инженерный уровень: https://otus.pw/OvO1H/?erid=2W5zFJSbPsN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤1
📌 Sony представили Video-R4: визуальную систему «размышления» для видео, работающую по принципу человеческого восприятия.
Эта мультимодальная модель использует итеративный выбор кадров, приближение фрагментов и повторное перекодирование пикселей для точного анализа видео с большим количеством текста. Такой подход имитирует то, как человек изучает сложные визуальные подсказки, и значительно превосходит предыдущие одношаговые видеомодели.
Video-R4 достигает лучшего результата в задачах видеоанализа с насыщенным текстом. Модель обучена с использованием инновационных техник SFT и RL на специализированных датасетах Video-R4-CoT-17k и Video-R4-RL-30k.
📌📌Статья: https://huggingface.co/papers/2511.17490
📌Проект: https://yunlong10.github.io/Video-R4
Эта мультимодальная модель использует итеративный выбор кадров, приближение фрагментов и повторное перекодирование пикселей для точного анализа видео с большим количеством текста. Такой подход имитирует то, как человек изучает сложные визуальные подсказки, и значительно превосходит предыдущие одношаговые видеомодели.
Video-R4 достигает лучшего результата в задачах видеоанализа с насыщенным текстом. Модель обучена с использованием инновационных техник SFT и RL на специализированных датасетах Video-R4-CoT-17k и Video-R4-RL-30k.
📌📌Статья: https://huggingface.co/papers/2511.17490
📌Проект: https://yunlong10.github.io/Video-R4
🔥7🥰3❤1
✔️ Краудсорсинговая платформа Ozon Profit расширила возможности для ML-разработки
Сервис, изначально ориентированный на онлайн-разметку данных, теперь позволяет собирать информацию и в офлайн-среде по всей России. Это решение может быть особенно полезно для проектов, где требуется верификация ML-моделей в реальных условиях.
Что позволяет сервис:
• Запущены «полевые задания» — исполнители могут выполнять проверки в офлайне, посещая локации по всей стране
• В онлайне — разметка текста, изображений и видео, анализ обращений клиентов, определение эмоций, намерений и тем в комментариях и чатах
• Доступны API-интеграции для автоматизации процессов, контроль в режиме реального времени вне зависимости от масштаба проекта
• Комиссия фиксированная и не зависит от формата задач
Сервис, изначально ориентированный на онлайн-разметку данных, теперь позволяет собирать информацию и в офлайн-среде по всей России. Это решение может быть особенно полезно для проектов, где требуется верификация ML-моделей в реальных условиях.
Что позволяет сервис:
• Запущены «полевые задания» — исполнители могут выполнять проверки в офлайне, посещая локации по всей стране
• В онлайне — разметка текста, изображений и видео, анализ обращений клиентов, определение эмоций, намерений и тем в комментариях и чатах
• Доступны API-интеграции для автоматизации процессов, контроль в режиме реального времени вне зависимости от масштаба проекта
• Комиссия фиксированная и не зависит от формата задач
❤3🔥2👏1
⚡️ Trinity Nano и Trinity Mini - новое семейство открытых MoE-моделей:
- 6B и 26B MoE (1B/3B активных параметров)
- 128 экспертов, 8 активных, 1 общий
- GQA и gated attention
- 128k контекст
- 10T токенов, обучено на 512 H200 в bf16
- Apache 2.0 и полностью открытые веса
- Созданы для агентов, function calling и долгих рассуждений
- Разработано совместно с Datology и Prime Intellect
https://huggingface.co/arcee-ai/Trinity-Mini
- 6B и 26B MoE (1B/3B активных параметров)
- 128 экспертов, 8 активных, 1 общий
- GQA и gated attention
- 128k контекст
- 10T токенов, обучено на 512 H200 в bf16
- Apache 2.0 и полностью открытые веса
- Созданы для агентов, function calling и долгих рассуждений
- Разработано совместно с Datology и Prime Intellect
https://huggingface.co/arcee-ai/Trinity-Mini
👍3🔥3🤔2
Forwarded from Machinelearning
Линейка включает флагманскую Mistral Large 3 и компактные Ministral-модели - все под лицензией Apache 2.0 с коммерческим использованием.
Модели оптимизированы для широкого спектра задач: от работы на устройствах с ограниченными ресурсами до корпоративных нагрузок.
- Mistral Small 3 вышла на уровень свыше 81 % на MMLU: для компактной модели это очень высокий показатель при низких задержках.
- Mistral Medium 3.1 заняла верхние позиции в LM Arena: первое место в категории English (no style control), второе, в общем зачёте, плюс топ-3 в задачах кодирования и длинных запросов.
- Medium 3.1 показывает около 90 % качества «тяжёлых» моделей, но при существенно меньших ресурсных затратах - одно из лучших соотношений цена/производительность на рынке.
https://mistral.ai/news/mistral-3
@ai_machinelearning_big_data
#mistral #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍4😁2🥰1
⚡️ Google представил бесплатный адвент-календарь для вайбкодеров.
Google выпустил бесплатный обучающий адвент-календарь, рассчитанный на 25 дней. Каждый день открывается новый короткий видеоурок со ссылками на дополнительные материалы и примерами кода, которые можно сразу использовать в проектах.
Курс последовательно проводит слушателя через ключевые этапы работы с агентами - от быстрого развёртывания базовых решений до оркестрации полноценных мультиагентных систем. Первые два урока уже доступны.
Инициатива выглядит полезной для тех, кто хочет системно разобраться в современных подходах к созданию и управлению агентами.
https://adventofagents.com/
Google выпустил бесплатный обучающий адвент-календарь, рассчитанный на 25 дней. Каждый день открывается новый короткий видеоурок со ссылками на дополнительные материалы и примерами кода, которые можно сразу использовать в проектах.
Курс последовательно проводит слушателя через ключевые этапы работы с агентами - от быстрого развёртывания базовых решений до оркестрации полноценных мультиагентных систем. Первые два урока уже доступны.
Инициатива выглядит полезной для тех, кто хочет системно разобраться в современных подходах к созданию и управлению агентами.
https://adventofagents.com/
🤪14🤔9❤2👍2💊2🥰1
✔️ OpenAI нашла способ заставить модели признаваться в собственных галлюцинациях — в новом исследовании представили технику под названием Confessions.
Проблема, которую пытаются решить:
модели нередко стремятся «угодить» системе оценки — выдают уверенные, но неверные факты, скрывают нарушения инструкций или занимаются reward hacking, чтобы получить более высокий балл.
Как работает Confessions:
1. Модель сначала генерирует обычный ответ.
2. Затем формирует второй, независимый отчёт, в котором сама оценивает:
- нарушила ли инструкции,
- где могла ошибиться,
- какие элементы ответа были сомнительными.
3. И получает награду за честность, а не за попытку скрыть ошибку.
Идея в том, что модель начинает рассматривать своё собственное поведение как объект анализа, а не пытается «выпутаться» любыми средствами.
Результаты:
В тестах на GPT-5 Thinking вероятность того, что модель нарушит правила *и попытается это скрыть*, снизилась до 4.4%.
Важно: Confessions не устраняет галлюцинации, а работает как инструмент диагностики — помогает выявлять моменты, где модель могла «соврать» или отойти от инструкции.
https://openai.com/index/how-confessions-can-keep-language-models-honest/
Проблема, которую пытаются решить:
модели нередко стремятся «угодить» системе оценки — выдают уверенные, но неверные факты, скрывают нарушения инструкций или занимаются reward hacking, чтобы получить более высокий балл.
Как работает Confessions:
1. Модель сначала генерирует обычный ответ.
2. Затем формирует второй, независимый отчёт, в котором сама оценивает:
- нарушила ли инструкции,
- где могла ошибиться,
- какие элементы ответа были сомнительными.
3. И получает награду за честность, а не за попытку скрыть ошибку.
Идея в том, что модель начинает рассматривать своё собственное поведение как объект анализа, а не пытается «выпутаться» любыми средствами.
Результаты:
В тестах на GPT-5 Thinking вероятность того, что модель нарушит правила *и попытается это скрыть*, снизилась до 4.4%.
Важно: Confessions не устраняет галлюцинации, а работает как инструмент диагностики — помогает выявлять моменты, где модель могла «соврать» или отойти от инструкции.
https://openai.com/index/how-confessions-can-keep-language-models-honest/
❤17👍9🔥3