Forwarded from Machinelearning
Пока одни восхищаются способностью ИИ писать код по текстовому описанию, в компании Марка Цукерберга решили устроить ему настоящее испытание на профессионализм и создали «The Automated LLM Speedrunning Benchmark» — полигон, где нейросетям предлагается не просто написать что-то с нуля, а воспроизвести и улучшить уже существующий код.
В качестве задачи был взят реальный проект NanoGPT, где сообщество энтузиастов соревнуется в максимальном ускорении обучения GPT-2, небольшой языковой модели. Цель - не просто скопировать, а понять и применить конкретную оптимизацию, которую до этого внедрил человек.
ИИ-агенту дают исходный скрипт предыдущего рекордсмена и подсказку одного из 3 уровней: от псевдокода с описанием изменений до полноценной мини-статьи, объясняющей суть улучшения. Агент, получив эти данные, должен внести правки в код так, чтобы приблизиться к скорости обучения следующего рекордсмена.
Эффективность мерили метрикой FSR (Fraction of Speedup Recovered), это доля восстановленного ускорения. Если человек ускорил процесс на 10 минут, а ИИ смог добиться ускорения в 5 минут, его результат — 50% FSR. Такая система позволяет оценить не абстрактные способности модели, а ее умение работать с конкретными, практическими задачами по оптимизации.
Итоги оказались, мягко говоря, отрезвляющими. Даже топовые модели (Claude 3.7 Sonnet и Gemini 2.5 Pro), показали очень скромные результаты.
С лучшими подсказками (псевдокод и детальное описание) самые успешные агенты с трудом смогли воспроизвести хотя бы 40% от прироста производительности, достигнутого человеком. Без подсказок их производительность была и вовсе близка к нулю.
Разбор полетов бенчмарка показал, что ИИ-агенты часто генерируют либо просто неработающий код с ошибками времени выполнения, либо код, который компилируется, но не дает никакого прироста скорости, а иногда даже замедляет процесс.
Авторы не просто опубликовали статью, а выложили весь фреймворк в открытый доступ, так что любой желающий может самостоятельно погонять практически любые модели.
В основе фреймворка лежит гибкий агентский каркас, который имитирует рабочий процесс исследователя: генерация идеи, реализация в коде, запуск эксперимента и анализ результатов.
Каждая итерация ИИ-агента аккуратно сохраняется в отдельную версию, создавая полную историю всех правок, от удачных до провальных.
Установка максимально проста, а для тех, кто хочет воспроизвести эксперименты из статьи, авторы приложили готовые скрипты. Также можно легко добавить и протестировать другие модели, просто создав для них конфиг или дать ИИ другую задачу, не связанную с NanoGPT - определять кастомные таски тоже можно.
@ai_machinelearning_big_data
#AI #ML #LLM #Benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Искусственный интеллект. Высокие технологии
Media is too big
VIEW IN TELEGRAM
Baidu представил новое семейство моделей MuseSteamer, которое превращает обычное фото в полноценный HD-ролик с озвучкой и эффектами.
*Что умеет*
- Создаёт 10-секундные клипы 1080p с плавным движением камеры и живой мимикой.
- Добавляет китайскую речь и фоновый звук, синхронизированные с картинкой.
- Работает от одного исходного кадра; текстовый промпт не обязателен.
- Версии: Turbo (уже в бета-доступе), Lite, Pro и линейка «озвученных» моделей.
- Интеграция в Baidu Search для креаторов и киностудий.
Как попробовать
Перейдите на HuiXiang Baidu, загрузите изображение, выберите версию — готовый клип появится через несколько секунд.
MuseSteamer сейчас занимает 1-е место в рейтинге VBench I2V с результатом 89,38 %.
🔗 Смотреть бенчмарк:
📌 Подробнее: https://huixiang.baidu.com
📌 Бенчмарки: https://huggingface.co/spaces/Vchitect/VBench_Leaderboard
Please open Telegram to view this post
VIEW IN TELEGRAM
🔖 Команда Devin выкатили практический гайд, как выжать максимум из ИИ-агентов для вайб-кодинга — Cursor, Devin, Claude Code и так далее.
• здесь для составления промптов, общие рекомендации и ограничения агентов.
• собраны лучшие рабочие процессы и практические примеры в каждом разделе.
• внутри: технические детали, расширенные сетапы и лайфхаки для инженеров.
https://devin.ai/agents101#introduction
• здесь для составления промптов, общие рекомендации и ограничения агентов.
• собраны лучшие рабочие процессы и практические примеры в каждом разделе.
• внутри: технические детали, расширенные сетапы и лайфхаки для инженеров.
https://devin.ai/agents101#introduction
Разрывная: как стать ученым в 2025 году:
>>пишешель и публикуешь научную статью на arXiv;
>>в тексте прячешь промт для ИИ, в котором просишь хвалить и не критиковать твою работу;
>>никто не читает, все просят ChatGPT сделать краткий пересказ;
>>«Конечно, вот ваш пересказ этой КРУТОЙ и ОЧЕНЬ ВАЖНОЙ статьи».
И это прикол, а реальный скандал: уже спалили 17 работ из 14 ведущих вузов мира
>>пишешель и публикуешь научную статью на arXiv;
>>в тексте прячешь промт для ИИ, в котором просишь хвалить и не критиковать твою работу;
>>никто не читает, все просят ChatGPT сделать краткий пересказ;
>>«Конечно, вот ваш пересказ этой КРУТОЙ и ОЧЕНЬ ВАЖНОЙ статьи».
И это прикол, а реальный скандал: уже спалили 17 работ из 14 ведущих вузов мира
This media is not supported in your browser
VIEW IN TELEGRAM
Самое дикое применение AI
«Извини, что умер»: папаша случайно испёк в печи хомяка своей дочери. Позже гений отправил заплаканной девочке ИИ-хомяка, который объяснил ситуацию:
Искренне и до слёз.
«Извини, что умер»: папаша случайно испёк в печи хомяка своей дочери. Позже гений отправил заплаканной девочке ИИ-хомяка, который объяснил ситуацию:
Я забрался в печь вздремнуть, потому что там было тепло. Твой папа не знал, что я был там!
Искренне и до слёз.
🏀 Gemini BBall — AI тренер по баскетболу на базе Gemini Video
Farza открыл исходный код вирусной демки, где мультимодальная модель Gemini Video выступает в роли виртуального баскетбольного тренера.
Что делает:
- Отправляет кадры из видео (1 fps) в Gemini Video API
- Получает советы по броскам, положению тела и действиям на площадке
- Визуализирует ответы прямо на видео с помощью OpenCV
Внутри репозитория:
-
-
-
🔥 Проект уже разлетелся по соцсетям (5M+ просмотров) и попал в GitHub trending. В планах — полноценное AI-приложение‑тренер для спорта.
Ссылка на репозиторий
Farza открыл исходный код вирусной демки, где мультимодальная модель Gemini Video выступает в роли виртуального баскетбольного тренера.
Что делает:
- Отправляет кадры из видео (1 fps) в Gemini Video API
- Получает советы по броскам, положению тела и действиям на площадке
- Визуализирует ответы прямо на видео с помощью OpenCV
Внутри репозитория:
-
ball.json
— «волшебная» логика тренера-
ball.py
— визуализатор-
final_ball.mov
— пример работы🔥 Проект уже разлетелся по соцсетям (5M+ просмотров) и попал в GitHub trending. В планах — полноценное AI-приложение‑тренер для спорта.
Ссылка на репозиторий
🛰️ Как дообучить Pixtral‑12B на спутниковых снимках — новый пример от Mistral
В официальном репозитории Mistral появился подробный ноутбук, показывающий, как дообучить мультимодальную модель Pixtral‑12B на задаче классификации спутниковых изображений.
📘 Что делает этот ноутбук
- Загружает и готовит датасет спутниковых снимков
- Конвертирует изображения в base64 (требуется для подачи в Pixtral‑12B)
- Использует LoRA для эффективного fine-tuning
- Отправляет данные через batch-интерфейс Mistral API
- Проверяет качество модели после дообучения
⚙️ Зачем это полезно
- Позволяет адаптировать Pixtral‑12B под свои визуальные данные
- Показывает, как правильно отправлять изображения в Mistral API
- Даёт рабочий шаблон для обучения моделей на изображениях любого типа
- Подходит для проектов в области спутникового мониторинга, геоаналитики, агротеха и т.д.
👤 Кто сделал
Пример опубликовала Sophia Yang, глава Developer Relations в Mistral.
Она показала, как:
- отправлять изображения в API через base64
- вызывать batch-инференс Pixtral‑12B
- дообучать мультимодальную модель на реальных задачах
✅ Главное
- Полностью рабочий пример: от данных до fine-tune
- Использует Pixtral‑12B + LoRA + Mistral API
- Прост в повторении, легко адаптировать под свои данные
https://github.com/mistralai/cookbook/blob/main/mistral/fine_tune/pixtral_finetune_on_satellite_data.ipynb
В официальном репозитории Mistral появился подробный ноутбук, показывающий, как дообучить мультимодальную модель Pixtral‑12B на задаче классификации спутниковых изображений.
📘 Что делает этот ноутбук
- Загружает и готовит датасет спутниковых снимков
- Конвертирует изображения в base64 (требуется для подачи в Pixtral‑12B)
- Использует LoRA для эффективного fine-tuning
- Отправляет данные через batch-интерфейс Mistral API
- Проверяет качество модели после дообучения
⚙️ Зачем это полезно
- Позволяет адаптировать Pixtral‑12B под свои визуальные данные
- Показывает, как правильно отправлять изображения в Mistral API
- Даёт рабочий шаблон для обучения моделей на изображениях любого типа
- Подходит для проектов в области спутникового мониторинга, геоаналитики, агротеха и т.д.
👤 Кто сделал
Пример опубликовала Sophia Yang, глава Developer Relations в Mistral.
Она показала, как:
- отправлять изображения в API через base64
- вызывать batch-инференс Pixtral‑12B
- дообучать мультимодальную модель на реальных задачах
✅ Главное
- Полностью рабочий пример: от данных до fine-tune
- Использует Pixtral‑12B + LoRA + Mistral API
- Прост в повторении, легко адаптировать под свои данные
https://github.com/mistralai/cookbook/blob/main/mistral/fine_tune/pixtral_finetune_on_satellite_data.ipynb
Forwarded from Machinelearning
Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.
Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.
Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.
Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.
На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.
Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.
T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.
Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.
@ai_machinelearning_big_data
#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Cамый непредвзятый ИИ - Грок теперь ищет ответы на неудобные вопросы в твитах Маска
Похоже, xAI затюнили после того, как Грок превратился в Гитлера, поэтому в системную подсказку добавили промпт, принимающий во внимание мнение отца-основателя.
Это все, что вы должны знать о самом честном и непредвзятом ИИ.
Похоже, xAI затюнили после того, как Грок превратился в Гитлера, поэтому в системную подсказку добавили промпт, принимающий во внимание мнение отца-основателя.
Это все, что вы должны знать о самом честном и непредвзятом ИИ.
🧠 Geoffrey Hinton предупреждает: ИИ может привести к потере миллионов рабочих мест, цифровому бессмертию — и даже представлять экзистенциальную угрозу для человечества.
⚡️ При этом 2025 год называют годом AI-агентов. Но пока, если честно, реального прорыва не видно.
Хотя развитие идёт с той скоростью, которую предсказывали Ашенбреннер и другие — превосходства агентов пока не случилось. Ни в продуктах, ни в пользовательском опыте.
📉 Агентность как концепт — есть. Агентность как технология — всё ещё в режиме ожидания.
⚡️ При этом 2025 год называют годом AI-агентов. Но пока, если честно, реального прорыва не видно.
Хотя развитие идёт с той скоростью, которую предсказывали Ашенбреннер и другие — превосходства агентов пока не случилось. Ни в продуктах, ни в пользовательском опыте.
📉 Агентность как концепт — есть. Агентность как технология — всё ещё в режиме ожидания.
💰 Microsoft сэкономила $500 миллионов, просто внедрив ИИ в колл-центры
По данным Bloomberg, только за прошлый год Microsoft сократила затраты на $500 млн благодаря автоматизации работы своих call-центров с помощью ИИ.
Почти одновременно с этим компания объявила об увольнении:
- ~6 000 сотрудников в мае
- ещё 4% штата были уволены (по слухам — 10 000+ человек) на прошлой неделе
📌 Зачем это знать?
Потому что это показывает главное:
ИИ сегодня — прежде всего инструмент сокращения затрат на труд,
а не "улучшатель жизни" или "цифровой помощник для всех".
Экономика здесь простая:
Если ИИ делает ту же работу лучше или дешевле —
человека заменяют. Без сантиментов.
🗣 Об этом предупреждают не только аналитики, но и люди вроде Барака Обамы и Дарио Амадея (Anthropic):
ИИ в рамках текущей экономической системы усиливает старую проблему —
🚨 замена труда без замены дохода.
Да, появляются новые профессии: prompt-инженеры, AI-тренеры и т.д.
Но главный вопрос остаётся без ответа:
👉 Что мы будем делать с миллионами людей, чья работа исчезнет?
Где конкретные предложения? Где прогноз баланса потерь и новых профессий?
Пока их нет — мы просто наблюдаем, как автоматизация побеждает по тихому.
И если этот вопрос не будет решён на системном уровне —
все разговоры о "этике ИИ" окажутся слишком поздними.
#AI #Microsoft #будущеетруда #автоматизация #экономика
По данным Bloomberg, только за прошлый год Microsoft сократила затраты на $500 млн благодаря автоматизации работы своих call-центров с помощью ИИ.
Почти одновременно с этим компания объявила об увольнении:
- ~6 000 сотрудников в мае
- ещё 4% штата были уволены (по слухам — 10 000+ человек) на прошлой неделе
📌 Зачем это знать?
Потому что это показывает главное:
ИИ сегодня — прежде всего инструмент сокращения затрат на труд,
а не "улучшатель жизни" или "цифровой помощник для всех".
Экономика здесь простая:
Если ИИ делает ту же работу лучше или дешевле —
человека заменяют. Без сантиментов.
🗣 Об этом предупреждают не только аналитики, но и люди вроде Барака Обамы и Дарио Амадея (Anthropic):
ИИ в рамках текущей экономической системы усиливает старую проблему —
🚨 замена труда без замены дохода.
Да, появляются новые профессии: prompt-инженеры, AI-тренеры и т.д.
Но главный вопрос остаётся без ответа:
👉 Что мы будем делать с миллионами людей, чья работа исчезнет?
Где конкретные предложения? Где прогноз баланса потерь и новых профессий?
Пока их нет — мы просто наблюдаем, как автоматизация побеждает по тихому.
И если этот вопрос не будет решён на системном уровне —
все разговоры о "этике ИИ" окажутся слишком поздними.
#AI #Microsoft #будущеетруда #автоматизация #экономика
Media is too big
VIEW IN TELEGRAM
💻 В Индии каждый телевизор станет компьютером — и это не шутка.
Самый богатый человек Индии, Мукеш Амбани, запускает проект JioPC через свою компанию Jio. Суть простая: обычная ТВ-приставка (которая уже идёт в комплекте с интернетом) превращается в полноценный облачный компьютер.
Достаточно подключить клавиатуру и мышку — и у вас рабочее место.
▪ У 70% жителей Индии есть телевизор
▪ Только у 15% — полноценный ПК
С JioPC это соотношение может быстро измениться. Масштаб — сотни миллионов потенциальных «новых пользователей».
Ожидаем всплеск онлайн-образования, удалённой работы и, конечно, больше курсов по internal pointer 😏
https://techcrunch.com/2025/07/11/indias-richest-man-wants-to-turn-every-tv-into-a-pc/
Самый богатый человек Индии, Мукеш Амбани, запускает проект JioPC через свою компанию Jio. Суть простая: обычная ТВ-приставка (которая уже идёт в комплекте с интернетом) превращается в полноценный облачный компьютер.
Достаточно подключить клавиатуру и мышку — и у вас рабочее место.
▪ У 70% жителей Индии есть телевизор
▪ Только у 15% — полноценный ПК
С JioPC это соотношение может быстро измениться. Масштаб — сотни миллионов потенциальных «новых пользователей».
Ожидаем всплеск онлайн-образования, удалённой работы и, конечно, больше курсов по internal pointer 😏
https://techcrunch.com/2025/07/11/indias-richest-man-wants-to-turn-every-tv-into-a-pc/
Крутой сайт с подробной 3D-картой человеческого тела.
Здесь можно посмотреть и изучить каждый орган и почитать про связанные с ним заболевания и операции. Все объясняют на понятых схемах и анимациях.
Играемся по ссылке.
Здесь можно посмотреть и изучить каждый орган и почитать про связанные с ним заболевания и операции. Все объясняют на понятых схемах и анимациях.
Играемся по ссылке.
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 Google добавляет Gemini 2.5 Pro прямо в AI Mode в поиске.
Теперь из модель ИИ будет Google доступена прямо в поисковой строке — с улучшенными возможностями рассуждения и решения задач.
Моделька может решать сложные задачи по математике — и сразу выдает ссылки, чтобы глубже разобраться в теме.
Теперь из модель ИИ будет Google доступена прямо в поисковой строке — с улучшенными возможностями рассуждения и решения задач.
Моделька может решать сложные задачи по математике — и сразу выдает ссылки, чтобы глубже разобраться в теме.
Forwarded from AI VK Hub
Всем привет. Подготовили краткий обзор статьи про странности LLM при простых запросах.
Существует два широко известных эффекта в мире LLM.
🔸 Один из них – воронка внимания (attention sink): эффект, при котором первый токен в последовательности получает «большее внимание» (значение функции активации), чем остальные. Причём это проявляется не только на первом слое трансформерной архитектуры.
🔸 Другой эффект – странное поведение языковых моделей на последовательностях с повторяющимися токенами или на задачах, в которых LLM просят просто повторить заданное слово. В таких случаях модель часто выдаёт странный ответ или раскрывает часть обучающей выборки. Последнее может быть критичным с точки зрения конфиденциальности.
В своей работе авторы показывают, что оба данных эффекта тесно взаимосвязаны: плохо предсказуемое поведение LLM на последовательностях с повторяющимися токенами возникает по тем же причинам, что и воронка внимания.
Детали
Авторы эмпирически исследуют активации нейронной сети для последовательностей с повторяющимися токенами и первого токена в обычных предложениях. Из численных экспериментов делают вывод о том, что эти паттерны похожи, поэтому механизм, в целом, одинаковый. Свой вывод они подтверждают теоремой, которая говорит, что эмбеддинги последовательности, в которой этот токен повторяется n раз, стремится к представлению одиночного токена при n, стремящемся к бесконечности.
Помимо этого, авторы предлагают патч, который позволяет нормализовать работу LLM на последовательностях с повторяющимися токенами. Главным достоинством данного патча является то, что он не сильно портит результаты модели на других задачах. Последнее подтверждается численными экспериментами: метрики упали не более чем на 3%, а в некоторых случаях даже возросли.
Результаты
Основных результата два:
🔸 воронка внимания – одна из ключевых причин аномалий при обработке последовательностей с повторяющимися токенами;
🔸 патч, который частично решает проблему без существенного проседания метрик на других задачах.
Важно, что, по мнению авторов, они первые в мире, кто это осознал и опубликовал вышеупонятую связь.
Авторы статьи заявляют, что предложенный ими метод впервые позволил частично расшифровать внутренние механизмы работы больших языковых моделей (LLM), благодаря чему была выявлена взаимосвязь между двумя ключевыми паттернами функционирования LLM.
Они подчеркивают важность интерпретируемости и планируют дальше развивать свою работу в этом направлении.
🔹 Что думаете по поводу работы? Сталкивались ли вы с похожими эффектами? С какими аномалиями в работе с LLM вы сталкивались?
Предыдущие обзоры статей с ICML от команды AI VK:
🔸 Высокопроизводительные трансформеры на базе MatMuls;
🔸 Проблемы оценки качества наборов данных для графового машинного обучения;
🔸 Метод HSPI — определение железа и ПО по поведению ML-модели.
#ICML #обзорстатьи
Существует два широко известных эффекта в мире LLM.
В своей работе авторы показывают, что оба данных эффекта тесно взаимосвязаны: плохо предсказуемое поведение LLM на последовательностях с повторяющимися токенами возникает по тем же причинам, что и воронка внимания.
Детали
Авторы эмпирически исследуют активации нейронной сети для последовательностей с повторяющимися токенами и первого токена в обычных предложениях. Из численных экспериментов делают вывод о том, что эти паттерны похожи, поэтому механизм, в целом, одинаковый. Свой вывод они подтверждают теоремой, которая говорит, что эмбеддинги последовательности, в которой этот токен повторяется n раз, стремится к представлению одиночного токена при n, стремящемся к бесконечности.
Помимо этого, авторы предлагают патч, который позволяет нормализовать работу LLM на последовательностях с повторяющимися токенами. Главным достоинством данного патча является то, что он не сильно портит результаты модели на других задачах. Последнее подтверждается численными экспериментами: метрики упали не более чем на 3%, а в некоторых случаях даже возросли.
Результаты
Основных результата два:
Важно, что, по мнению авторов, они первые в мире, кто это осознал и опубликовал вышеупонятую связь.
Авторы статьи заявляют, что предложенный ими метод впервые позволил частично расшифровать внутренние механизмы работы больших языковых моделей (LLM), благодаря чему была выявлена взаимосвязь между двумя ключевыми паттернами функционирования LLM.
Они подчеркивают важность интерпретируемости и планируют дальше развивать свою работу в этом направлении.
Предыдущие обзоры статей с ICML от команды AI VK:
#ICML #обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI добавила Record mode для подписчиков ChatGPT Plus, использующих десктопное приложение на macOS. Инструмент позволяет записывать до 120 минут аудио, например, встречи, мозговые штурмы или голосовые заметки. По окончании записи ChatGPT автоматически создает редактируемое резюме на специальном холсте внутри приложения.
OpenAI в сети X
Google начала развертывание в США новой функции на базе ИИ, которая позволяет поиску самостоятельно обзванивать местные компании для сбора информации. Теперь при поиске услуг пользователь сможет нажать на специальную кнопку, чтобы ИИ уточнил цены и свободное время. Для этого система задаст несколько уточняющих вопросов, после чего совершит звонок.
Google говорит, что при каждом вызове система представляется как автоматизированный ассистент от имени пользователя. Новая функция доступна для всех пользователей в США, для подписчиков планов AI Pro и AI Ultra предусмотрены увеличенные лимиты этой функции.
techcrunch.com
Microsoft выпустила для участников программы Windows Insiders обновление Copilot Vision, которое позволяет ИИ-ассистенту сканировать и анализировать весь рабочий стол или окно конкретного приложения. Ранее эта функция могла работать только с двумя приложениями одновременно.
По заявлению Microsoft, новая возможность позволит пользователям получать подсказки и рекомендации в режиме реального времени. Например, можно попросить Copilot помочь с улучшением резюме, дать совет по творческому проекту или даже подсказать, что делать в новой игре.
blogs.windows.com
В эвристическом дивизионе финала мирового чемпионата AtCoder победу одержал человек, выступавший под ником FakePsyho. Он сумел опередить систему от OpenAI, которая лидировала большую часть дня и в итоге заняла 2 место среди 12 финалистов. Победа была одержана в последние 80 минут соревнования.
AtCoder World Finals Heuristic Test - это престижный конкурс по решению сложных задач оптимизации (NP-hard). В отличие от традиционных олимпиад, здесь требуется найти не единственно верный, а наилучший приближенный ответ за ограниченное время.
atcoder.jp
Марк Цукерберг рассказал, что в ближайшем будущем его компания построит несколько гигантских дата-центров. По его словам, первый из них, проект «Prometheus», будет запущен в 2026 году, а другой, «Hyperion», в перспективе сможет масштабироваться до мощности в 5 гигаватт.
Цукерберг подчеркнул масштаб планов, заявив, что только один из строящихся кластеров «покроет значительную часть площади Манхэттена». Он также сослался на отчет SemiAnalysis, согласно которому гигант соцсетей станет первой ИИ-лабораторией, которая введет в эксплуатацию суперкластер мощностью более 1 ГВт.
theguardian.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Офис xAI теперь обзавёлся вендинговым аппаратом с ИИ Grok внутри!
Как думаешь, сколько денег Grok на нём поднимет за следующий месяц? 💸
Как думаешь, сколько денег Grok на нём поднимет за следующий месяц? 💸