Сергей Марков: машинное обучение, искусство и шитпостинг
8.27K subscribers
3.04K photos
238 videos
15 files
735 links
Машинное обучение, искусственный интеллект, искусство, мемасы, всякое личное и странноэ
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Научишь искусственный интеллект всему, что умеешь сам? 😵‍💫

Ищем в нашу технологичную команду AI-тренеров, которые помогут нейросетям складывать слова в мощные и грамотные тексты.

Если твои лонгриды разлетаются на цитаты, а AI уже давно стал близким другом — выбирай вакансию и откликайся:

👆 AI-тренер: редактор

👆 AI-тренер: англоязычный редактор-переводчик

👆 Руководитель команды AI-тренеров

Возможно, это тот самый случай, когда пригодится грамота за участие в «Русском медвежонке» 💫
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kali Novskaya
🌸Ежегодный спич AGI Russia 🌸
#nlp #про_nlp #nlp_papers

В четверг буду делать ежегодный (уже традиционный) обзор работ и тенденций, которые прокладываюь наш путь к AGI

На пути к AGI: Обзор работ 2024-2025 года

6 февраля 2025, 18:00 (время московское)

Регистрация:
🟣https://aigents.timepad.ru/event/1412596/
Please open Telegram to view this post
VIEW IN TELEGRAM
Китайские коллеги ещё покушоть принесли

Представляем Kimi k1.5 — мультимодальную модель уровня [GPT-4]o1

Производительность Sota short-CoT, превосходящая GPT-4o и Claude Sonnet 3.5 на 📐AIME, 📐MATH-500, 💻 LiveCodeBench с большим отрывом (до +550%)
Производительность long-CoT соответствует o1 в нескольких модальностях (👀MathVista, 📐AIME, 💻Codeforces и т. д.)

https://github.com/MoonshotAI/Kimi-k1.5

Предобучение языковой модели с предсказанием следующего токена эффективно для масштабирования вычислений, но ограничено объемом доступных обучающих данных. Масштабирование обучения с подкреплением (RL) открывает новую ось для постоянного совершенствования искусственного интеллекта, обещая, что большие языковые модели (LLM) смогут масштабировать свои наборы обучающих данных, обучаясь исследованию с вознаграждением. Однако предыдущие опубликованные исследования не позволяли достичь конкурентоспособных результатов. В свете этого мы публикуем отчёт об обучении Kimi k1.5, нашей новейшей мультимодальной LLM, обученной с RL, включая описание её RL-методов, рецепты по подготовке мультимодальных данных и оптимизации инфраструктуры. Увеличение длины контекста и улучшенные методы оптимизации политики являются ключевыми компонентами нашего подхода, который основан на упрощенной, эффективной структуре RL без привлечения более сложных методов, такие как поиск по дереву Монте-Карло, оценочные функции и модели процессного вознаграждения. Примечательно, что наша система достигает передовой эффективности рассуждений в различных бенчмарках и модальностях — например, 77,5 на AIME, 96,2 на MATH 500, 94-й процентиль на Codeforces, 74,9 на MathVista — что соответствует o1 OpenAI. Более того, мы представляем эффективные методы long2short, которые используют методы long-CoT для улучшения моделей short-CoT, что позволяет получить передовые результаты в области рассуждений short-CoT — например, 60,8 на AIME, 94,6 на MATH500, 47,3 на LiveCodeBench — превосходя существующие модели short-CoT, такие как GPT-4o и Claude Sonnet 3.5, с большим отрывом (до +550%)

Тут бот, вроде: https://kimi.ai/
This media is not supported in your browser
VIEW IN TELEGRAM
Монополия на рынке ИИ — В С Ё?

Китайские нейросети DeepSeek и Qwen2.5-Max ворвались в игру, подняв ряд важных вопросов:

0️⃣ Можно ли создать ИИ быстро и дешево?
0️⃣ Как сравнивать ИИ-модели? Какие из них лучше?
0️⃣ Кто победит в технологической гонке: США или Китай?

Об этом и многом другом поговорили с Иваном Тюкиным (профессором Центра ИИ Сколтеха) и Сергеем Марковым (руководителем исследований в проекте GigaChat, Сбер).

Выпуск доступен на всех площадках:

ВКОНТАКТЕ

RUTUBE

YOUTUBE

PODCASTER.FM

ЯНДЕКС МУЗЫКА
Please open Telegram to view this post
VIEW IN TELEGRAM
А поделитесь разными расхожими заблуждениями об искусственном интеллекте
https://youtube.com/playlist?list=PLjrmJPA87Y-hNZAYcUSWC_0e1fiMqyOA1&si=d-K40jxlxJx53Nyw

Обновил на ютубе плейлист, в который собраны все мои выступления, интервью и лекции: от дебатов у Пушного до презентации книги

Параллельно узнал, что кроме полного тёзки политолога, есть ещё шансонье и даже какой-то персонаж, который массовыми исцелениями промышляет

Тяжело быть Сергеем Марковым (на самом деле нет)