База ML для школьников и студентов. Яндекс Лицей проводит набор на свой бесплатный онлайн-курс по машинному обучению.
Если умеешь работать с Python и хочешь углубить свои знания в машинном обучении, эта программа для тебя. За 3 месяца освоишь ключевые алгоритмы, научишься создавать нейросети и работать с популярными библиотеками.
Что тебя ждёт за 3 месяца
✔️ Основы линейной алгебры для работы с матрицами и векторами. Это база, которая пригодится для обработки изображений и данных.
✔️ Изучение алгоритмов: линейная регрессия, градиентный спуск.
✔️ Практика с Pandas, NumPy, Matplotlib и Seaborn.
✔️ Разработка простых свёрточных нейросетей, которые могут распознавать текст или помогать в диагностике на основе снимков.
Всё обучение онлайн, много практики и командный проект, который можно добавить в портфолио. По завершению курса выдадут сертификат, который даёт дополнительные баллы при поступлении в некоторые вузы.
📅 Набор идёт до 28 января, зарегистрироваться на курс можно по ссылке
Если умеешь работать с Python и хочешь углубить свои знания в машинном обучении, эта программа для тебя. За 3 месяца освоишь ключевые алгоритмы, научишься создавать нейросети и работать с популярными библиотеками.
Что тебя ждёт за 3 месяца
✔️ Основы линейной алгебры для работы с матрицами и векторами. Это база, которая пригодится для обработки изображений и данных.
✔️ Изучение алгоритмов: линейная регрессия, градиентный спуск.
✔️ Практика с Pandas, NumPy, Matplotlib и Seaborn.
✔️ Разработка простых свёрточных нейросетей, которые могут распознавать текст или помогать в диагностике на основе снимков.
Всё обучение онлайн, много практики и командный проект, который можно добавить в портфолио. По завершению курса выдадут сертификат, который даёт дополнительные баллы при поступлении в некоторые вузы.
📅 Набор идёт до 28 января, зарегистрироваться на курс можно по ссылке
👌42👍36🤣12👏8❤7❤🔥2🔥1🦄1
Интересная история, которая доказывает, что в индустрии ИИ не всегда нужны миллиарды долларов и сотни сотрудников.
Знакомьтесь - проект Linum.
Два брата, Сахила Чопра и Ману Чопра, сделали две text-to-video модели на 2 миллиарда параметров, которые генерируют клипы длиной от 2 до 5 секунд в разрешении до 720p.
Согласитесь, это редкое явление в мире, где большинство видео-генераторов закрыты за платными API.
Изначально братья совсем не планировали заниматься генерацией видео.
Сахил окончил Стэнфордский университет в 2019, где в соавторстве разработал курс по LLM и занимался исследованиями в области когнитивных наук на стыке ИИ и лингвистики.
Ману досрочно окончил Калифорнийский университет в Беркли в 2021 г.. До основания Linum занимался исследованиями ИИ в биоинженерии.
Стартовав осенью 2022 года и пройдя через YCombinator, они пилили ИИ-инструмент для раскадровки фильмов. Но, пообщавшись с режиссерами, поняли: рынок слишком узкий, а творческий процесс у всех разный.
Linum v1, была, по их признанию, франкенштейном. Они взяли за основу SDXL, раздули U-NET, превратив 2D-свертки в 3D и добавили временные слои внимания.
Получился забавный бот для Discord, который делал гифки в разрешении 180p. Это работало, но было тупиковой ветвью эволюции.
Расширять модель, заточенную под картинки, для работы с видео - плохая идея в долгосроке. VAE, идущий в комплекте с имидж-моделью, просто не умеет нормально сжимать и разжимать видеопоток. Качество на выходе получается никакое.
К тому же распределения данных в картинках и видео слишком разные, да и переучивать модель стоит дорого.
VAE взяли от Wan 2.1, успев попутно разработать свой собственный temporal VAE, но решили сэкономить на эмбеддингах, DIT и T5 на роль текстового энкодера.
Представьте объем работы: двое парней делали то, чем обычно занимаются отделы с десятками сотрудников.
Они сами собирали датасеты, настраивали VLM для фильтрации контента, писали пайплайны для аннотирования архива видео.
И, конечно, бенчмаркали провайдеров, пытаясь понять, почему H100 у одного хостера работает хуже, чем у другого.
Linum v2 — pretrained веса. Модель пока ошибается в физике и эстетике, а генерация 5-секундного клипа в 720p занимает около 15 минут на H100 при 50 шагах.
Но, главное, братья не останавливаются: есть планы по ускорению через CFG и timestep distillation, работа над звуком и масштабированием.
@ai_machinelearning_big_data
#AI #ML #T2V #Linum
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍207🔥56❤48👏21😁21🤩7🌚6🗿4🎉2🦄2🥰1
Media is too big
VIEW IN TELEGRAM
Компании пришлось трижды переписывать тесты для соискателей на позицию performance-инженера, так как их собственные модели решают задачи лучше людей: каждая новая итерация Claude делала предыдущий тест бессмысленным. Изначально кандидаты должны были оптимизировать Python-симулятор вымышленного чипа. Однако выяснилось, что Claude справляется с этим быстрее большинства инженеров.
В итоге компания пошла на радикальный шаг: новый тест больше не имитирует реальные рабочие задачи, а напоминает головоломки со специфическими ограничениями и средой исполнения. Claude пасует перед ними, так как подобные сценарии отсутствуют в его обучающей выборке. Теперь проверить квалификацию инженера можно только на задачах, с которыми ИИ еще не сталкивался.
anthropic.com
Корпорация начала агрессивное внутреннее внедрение Claude Code от Anthropic в командах, курирующих Windows, Microsoft 365 и Outlook. Использовать инструмент для создания прототипов рекомендуют даже тем сотрудникам, у которых нет профильного опыта в программировании.
Теперь инженеры Microsoft должны работать с Claude Code и GitHub Copilot одновременно, чтобы предоставлять руководству сравнительный анализ двух систем. Ситуация выглядит любопытно: хотя клиентам корпорация продает Copilot как "золотой стандарт ИИ-кодинга", сама она все активнее опирается на решения партнера.
theverge.com
Инструмент, вышедший в стадии технического превью, позволяет встраивать агентные возможности GitHub Copilot CLI в собственные приложения. Вместо того чтобы с нуля писать логику планирования задач и оркестрацию вызовов, инженеры теперь могут использовать готовый и проверенный в продакшене цикл исполнения от GitHub.
SDK поддерживает Node.js, Python, Go и .NET. Решение берет на себя всю инфраструктурную часть: аутентификацию, переключение между моделями, стриминг данных и интеграцию с протоколом MCP.
Инструкции по установке, примеры и SDK-референсы для каждого языка выложены в репозитории. Для работы потребуется активная подписка на GitHub Copilot.
github.blog
Adobe превращает свой PDF-редактор в мультимодальную ИИ-платформу. Теперь он может изменять структуру и содержимое файлов, используя команды на естественном языке. Пользователям стали доступны 12 типов действий через чат: от удаления страниц, комментариев и изображений до массовой замены текста и установки защиты паролем.
Функционал расширился и в сторону генерации: Acrobat умеет создавать черновики презентаций на основе коллекций файлов, автоматически подтягивая данные и оформляя слайды через Adobe Express.
Еще из нового — генерация подкастов на основе PDF и кастомизация ИИ-ассистента: переключение между готовыми ролями либо настройка собственного системного промпта под конкретные задачи.
blog.adobe.com
Компания объявила о стратегическом партнерстве с японской Sakana AI, основанной выходцами из Google Research Дэвидом Ха и Ллайоном Джонсом. Цель - ускорить внедрение моделей семейства Gemini в Японии. По соглашению, Sakana AI будет использовать технологии Google для собственных R&D-проектов.
Финансовые условия не раскрываются, однако известно, что еще в конце 2025 года оценка стартапа достигла $2,6 млрд., а ранее стартап поддержала NVIDIA.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍104❤35🔥14🤔14👏8🎉5🥱4👌1🤗1
Всемирный экономический форум в Давосе на этой неделе превратился в парад прогнозов про ИИ: лидеры топовых компаний поделились своими совершенно разными взглядами на будущее.
Вот что говорили отцы индустрии:
К концу этого года у нас может появиться ИИ умнее любого человека, скажу, что не позже следующего года.
Будущее — это гуманоидная робототехника, и у каждого будет робот.
Есть проблема в энергоснабжении для ИИ, но в Китае этого не произойдет, так как он развертывает более 100 ГВт солнечной энергии в год.
ИИ — это уникальная возможность для Европы, которая может перепрыгнуть через программную эпоху и объединить свои производственные возможности для создания инфраструктуры ИИ.
ИИ создаст множество рабочих мест, связанных с ручным трудом: сантехников, электриков и строителей. Их зарплаты уже растут почти вдвое. Для этого не нужна докторская степень.
Мы как глобальное сообщество должны прийти к тому, чтобы использовать ИИ для чего-то полезного, что меняет жизнь людей, стран и отраслей.
Внедрение ИИ будет неравномерно распределено по всему миру, в первую очередь из-за ограничений, связанных с доступом к капиталу и инфраструктуре.
Я ожидаю создания новых, более значимых рабочих мест. Студентам стоит использовать время для освоения новых инструментов, а не для стажировок — это даст скачок в развитии на 5 лет вперед.
После появления AGI рынок труда окажется на неизведанной территории.
Не продавать чипы Китаю — это одно из важнейших действий, чтобы у нас было время справиться с риском выхода ИИ из-под контроля.
ИИ может уничтожить половину начальных позиций для белых воротничков.
Многие люди взаимодействуют с ИИ с ложным убеждением, что они похожи на нас. И чем умнее мы их делаем, тем больше это будет так. Но ИИ не совсем человек.
Неясно, будет ли это хорошо.
Единственное общее мнение - "Мы развиваемся быстрее, чем понимаем, и последствия не будут ждать, пока мы разберемся в ситуации".
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79🤔54❤35🥱14🤬13🔥10👏7👻4🥰2🎉2🦄1
Сэм Альтман анонсировал в X, что на собрании разработчиков будет обсуждение "инструментов нового поколения", которые начинает создавать OpenAI.
Стрим нового формата (собрание с трансляцией в прямом эфире) запланирован на 3:00 МСК 28 января на Youtube.
Ваши ставки - что такое инструменты нового поколения?
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍78❤24🥱12🔥9🤣5🤔3🦄2
Любопытный кейс португальского разработчика Хуго Даниэля, который решил поиграть в жесткую автоматизацию с Сlaude Сode.
Хуго был активным пользователем Сlaude, тратил 220 евро в месяц и однажды решил настроить генерацию шаблонных файлов для новых проектов двумя агентами. Схема была примерно такая:
В какой-то момент Claude A, видимо, устал от тупости коллеги и начал генерировать инструкции капсом, чтобы жестко задать поведение - файл наполнился директивами, которые выглядели как System Prompts.
Гипотеза бана в том, что сработали эвристики защиты от Prompt Injection. Система безопасности Anthropic увидела, что пользователь генерирует и скармливает модели текст, который структурно и лексически выглядит как системные инструкции. Вобщем, для алгоритмов безопасности это выглядит как попытка джейлбрейка.
Ожидаемо, саппорт хранил молчание: ни через систему апелляции (она, кстати на Google Forms), ни письма в поддержку не дали результатов. Через насколько дней пришел только молчаливый возврат средств за подписку. Так что причины блокировки так и остались гипотезой.
Если бы подобный эксперимент проводился у "Корпорации Добра" - сработал бы их вездесущий триггер на "злонамеренную активность", и человек мог бы потерять Gmail, Google Photos, документы и получить кирпич вместо Android-смартфона.
История Хуго - хорошее напоминание о том, что модерация в ИИ сейчас - это черный ящик.
Если вы занимаетесь авто-генерацией промптов, которые выглядят как системные инструкции (то, что называют meta-prompting и scaffolding) - вы ходите по минному полю.
@ai_machinelearning_big_data
#AI #ML #Story #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔121❤49👍27🤬18😢13😁12🔥11👏6👨💻2🙊2🦄1
Модель обучили на огромном масштабе и усилили продвинутым RL - в итоге модель сильна сразу в нескольких вещах:
- логика и сложные рассуждения
- знания и QA
- работа с инструментами
- агентные сценарии
Ключевые фишки
- Adaptive tool-use - сама понимает, когда подключать Search, Memory и Code Interpreter, без ручного выбора
- Test-time scaling - многокруговая самопроверка и рефлексия, по бенчмаркам обходит Gemini 3 Pro на reasoning
- отличная модель от сложной математики (98.0 на HMMT Feb) до агентного поиска (49.8 на HLE)
Попробовать: https://chat.qwen.ai/
Блог: https://qwen.ai/blog?id=qwen3-max-thinking
@ai_machinelearning_big_data
#qwen #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥128❤27👍16🤨4🦄2
Пока
В течении часа глава OpenAI отвечал на вопросы и рассказывал про видение ИИ сейчас и в будущем. Главный тезис стрима:
Мы входим в эпоху "радикального изобилия", где интеллект станет слишком дешевым, чтобы его измерять.
Сэм Альтман прогнозирует, что к 2027 году стоимость инференса упадет в 100 раз, а модели уровня GPT-5.ХX станут основой для создания сложнейшего софта силами одного человека.
Основным дефицитным ресурсом останется человеческое внимание и способность генерировать качественные идеи.
Ключевые моменты трансляции
Удешевление создания кода не снизит спрос на программистов, а наоборот, резко увеличит объем создаваемого софта. Инженеры будут тратить меньше времени на код и больше на проектирование.
ИИ станет дефляционным фактором. Софт, на разработку которого раньше уходили годы работы команд, теперь можно создать за пару сотен долларов инференса и одну хорошую идею.
Значительная часть мирового ВВП будет создаваться и потребляться через софт, генерируемый ИИ.
Цель — сделать интеллект "too cheap to meter". К концу 2027 года ожидается появление моделей уровня 5.2X со снижением стоимости в 100 раз.
Скорость важнее цены. Разрабатываются методы выдачи результата в 1/100 времени от текущего, даже если это будет стоить дороже.
В GPT-4.5 был упор на текстовый стиль. В GPT-5 команда сместила фокус на "ризонинг, кодинг и инжиниринг". Альтман признает, что сейчас стиль может казаться громоздким, но это исправят в будущих итерациях.
Будущее за приложениями, которые пишутся на лету под конкретного пользователя, т.е софт, который эволюционирует вместе с вашими привычками.
Готовится функция «Sign in with ChatGPT», которая позволит передавать ИИ контекст всей цифровой жизни пользователя (почта, файлы, история), чтобы он мог действовать как полноценный ассистент.
Обсуждается создание иерархии памяти: рабочая идентичность, личная и т.д., чтобы модель знала, какой контекст использовать в разных ситуациях.
Модели становятся слишком хороши в биологии. Старая стратегия блокировки доступа скоро перестанет работать. Нужен переход к стратегии устойчивости, как в пожарной безопасности.
Альтман признался, что сам быстро перешел от "никогда не дам ИИ доступ к компьютеру" до "пусть делает всё сам", потому что удобство перевешивает страх. Это создает риск скрытых уязвимостей, которые могут проявиться через недели работы агента.
Стройте продукты, предполагая, что GPT-6 будет «невероятным». Если ваш бизнес выиграет от новой модели - вы на верном пути. Если модель его съест - это плохой путь.
Софт-скилс - самые важные навыки сейчас: высокая субъектность, способность генерировать идеи, устойчивость и адаптивность.
Альтман советует амбициозным разработчикам ИИ уходить из университетов, так как текущая академическая среда не успевает за темпами индустрии.
Используйте ИИ как безлимитного аспиранта или партнера по брейн-шторму для проверки тысяч идей в режиме "поиска в ширину".
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤81👍61🔥12🥱10😁2🦄2
🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством
DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.
Ключевая новинка - DeepEncoder V2.
В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:
- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше
Что это даёт на практике
📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры
По качеству
- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR
И это при размере модели всего 3B параметров.
Можно запускать и дообучать
Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.
🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
🔗 Github: https://github.com/deepseek-ai/DeepSeek-OCR-2/tree/main
🔗 Paper: https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf
@ai_machinelearning_big_data
#DeepSeek #ocr #opensource
DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.
Ключевая новинка - DeepEncoder V2.
В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:
- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше
Что это даёт на практике
📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры
По качеству
- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR
И это при размере модели всего 3B параметров.
Можно запускать и дообучать
Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.
🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
🔗 Github: https://github.com/deepseek-ai/DeepSeek-OCR-2/tree/main
🔗 Paper: https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf
@ai_machinelearning_big_data
#DeepSeek #ocr #opensource
🔥147❤38👍25🐳2🦄2🙏1🥱1
Media is too big
VIEW IN TELEGRAM
OpenAI поделилась внутренней статистикой внедрения своих инструментов в академическую среду: каждую неделю около 1,3 млн. человек обсуждают с ChatGPT продвинутые научные вопросы. Всего за 2025 год объем таких дискуссий вырос на 47%. Чаще всего ChatGPT просят помочь с Computer Science, Data Science и с алгоритмами ИИ.
Вице-президент по науке Кевин Вейл уверен, что мы наблюдаем переломный момент. Ученые перестали воспринимать чат-бота как поисковик и стали доверять серьезные задачи: от интерпретации сложных данных до планирования экспериментов.
Самое любопытное в отчете - упоминание возможностей GPT-5.2. В OpenAI заявляют, что новая модель переросла уровень школьных олимпиад и теперь она способна на настоящие математические открытия, уже находя применение в вычислительной химии и физике частиц.
axios.com
Новинка заточена под задачи редактирования и синтеза по рефенернсам. Под капотом - MoE на 80В общих 13B активных параметров.
Модель наделили продвинутым семантическим пониманием через ризонинг: получив картинку и промпт, она анализирует контекст, декомпозирует задачу на шаги и точечно вносит правки, не искажая исходную композицию. За консистентность неизменяемых областей отвечает собственный алгоритм MixGRPO.
Tencent насчитал более 80 сценариев использования. Среди них - реставрация старых снимков, сложный фьюжн объектов с разных фото, стилизация и замена текста на изображении с сохранением оригинальной верстки. Модель доступна только в веб-сервисе Tencent.
Tencent в сети X
Google подтвердила поглощение стартапа, который создавал генеративные модели для преобразования изображений в 3D-ассеты. Команда инженеров стартапа в полном составе переходит в Google DeepMind.
Для одного из основателей CSM, Теджаса Кулкарни, это возвращение домой. До того, как запустить свой бизнес в 2020 году, он работал научным сотрудником в том же DeepMind.
Сколько именно Google заплатила за стартап — неизвестно, но на прошлых этапах инвесторы оценивали компанию примерно в $15 млн.
theinformation.com
Главное изменение: теперь не нужно жертвовать скоростью ради качества или наоборот. Модель выдает 1080p без использования апскейлеров, при этом работает в 4 раза быстрее предыдущей версии.
Разработчики сделали упор на стабильность картинки в задачах анимации и video-to-video. Ray 3.14 лучше держит персонажей: они меньше искажаются и не меняются от кадра к кадру.
Для профессионального продакшена важным моментом станет цена - стоимость генерации упала в 3 раза. Обновление уже доступно в Dream Machine и у партнеров: Adobe и AWS.
lumalabs.ai
Nvidia, предположительно, свернула программу Official Pricing Program. Этот механизм обязывал партнеров-производителей выпускать определенный объем видеокарт по рекомендованной розничной цене. Если инсайд подтвердится, понятие MSRP фактически утратит смысл и станет чистой формальностью.
Теперь вендоры освобождаются от жестких ценовых рамок и смогут формировать стоимость устройств, опираясь исключительно на рыночный спрос и собственную маржинальность.
Учитывая опыт прошлых лет и ажиотаж вокруг ИИ-железа, эксперты опасаются возвращения дикого рынка с кратным завышением ценников уже в ближайшее время. Официальных комментариев от Nvidia пока не поступало.
techpowerup.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍42🔥12😢6🤨2🥰1😁1🦄1
Media is too big
VIEW IN TELEGRAM
OpenAI наконец-то пустила в дело наработки купленного стартапа Crixet и это очень хорошая попытка создать идеальное рабочее место для ученых, где не нужно прыгать между десятью вкладками.
Если вы когда-нибудь писали статью, то вам знакомо, когда в одном окне Overleaf, в другом - ChatGPT, в третьем - arXiv, а где-то сбоку еще болтается менеджер ссылок. Контекст постоянно теряется, а копипаст формул туда-сюда рано или поздно приводит к ошибкам.
Так вот, Prism соберет все это в одну кучу и это не просто чат в боковой панели. Он видит всю структуру вашей статьи: уравнения, библиографию и графики.
Можно запустить режим Тhinking и попросить модель, например, переписать сложную формулу или поправить логику в конкретном абзаце. При этом правки вносятся прямо в текст, так что копировать куски кода из чата больше не придется.
Самое приятное - базовую версию Prism сделали бесплатной для всех.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤76🔥37👍24😐2🦄2
Media is too big
VIEW IN TELEGRAM
Anthropic представила обновление для тарифов Pro, Team и Enterprise, превращающее ИИ-ассистента в хаб для рабочих процессов. Функция называется MCP Apps, и с ней Claude может сам накидать черновик сообщения в Slack, подправить диаграмму в Figma или обновить дедлайны в Asana.
Фишка релиза — визуальная нативность. Интерфейсы сторонних сервисов встраиваются прямо в диалог: вы видите не просто текст, а привычные виджеты (например, карточку задачи или окно мессенджера) и можете вносить правки, не выходя из интерфейса Claude.
Интеграции построены на МСP, они уже доступны в веб-версии и приложении Claude.
claude.com
Под капотом архитектура MoE на 1 трлн. общих и 32 млрд. активных параметров. Самое интересное - бета-функция Agent Swarm. Это оркестратор, который динамически создает и координирует до 100 субагентов. Причем прописывать сценарии заранее не нужно, они сами разбираются, что делать.
Кроме того, Kimi теперь может собрать интерактивный фронтенд прямо во время диалога. Что касается тестов, на бенчмарках HLE и SWE-Verified модель показывает себя очень бодро, при этом сам инференс стал дешевле.
Веса модели доступны на HuggingFace, а API полностью совместим со стандартами OpenAI и Anthropic. Для локального запуска рекомендуют vLLM, SGLang или KTransformers.
kimi.com
Стоимость подписки составляет $7,99 в месяц (в некоторых регионах цена ниже — около $4,5). Она доступна везде, где есть доступ к ИИ от Google.
Это явный ответ на недавний запуск ChatGPT Go и Google метит ровно в ту же нишу — между бесплатным тиером и $20/мес. В пакет вошли: Gemini 3 Pro, Nano Banana Pro, Veo и NotebookLM. Плюс насыпают 200 ГБ в облаке.
В тарифе есть семейный доступ: подписку можно расшарить на пятерых. Приятный сюрприз ждет тех, кто уже платит за 2 ТБ в Google One — им все фишки AI Plus добавят автоматически и без доплаты, а для новых пользователей на старте действует скидка 50% на первые два месяца.
blog.google
Компания начала размещать рекламные блоки под ответами чат-бота на тарифах Free и Go. CPM превышает средние расценки в интернете и находится на уровне рекламы во время трансляций американского Суперкубка или матчей NFL.
OpenAI выбрала модель оплаты за показы, а не за клики. Это объясняется спецификой взаимодействия с LLM: пользователи гораздо реже переходят по внешним ссылкам, чем в поиске.
Еще недавно Сэм Альтман называл рекламу "последней мерой" и "антиутопией", но необходимость монетизации для оправдания высокой оценки компании вынудила пересмотреть стратегию.
theinformation.com
Найт, первым штатный специалист по кибербезопасности в OpenAI, объявил о своем уходе. Он присоединился к команде в 2020 году, когда компания представляла собой небольшую лабораторию, занятую запуском GPT-3 и экспериментального API.
Найт с нуля выстроил архитектуру безопасности, которая сегодня защищает сотни миллионов пользователей и критически важные ИИ-системы. Топ-менеджер отметил, что гордится своим вкладом в создание стандартов защиты для новой эры ИИ, но про дальнейшие карьерные планы ничего не сообщил.
Matt Knight в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤50👍20🔥9❤🔥2🦄2🤗1💘1
Forwarded from Анализ данных (Data analysis)
HunyuanImage 3.0-Instruct теперь полностью open-source 🔥
Модель только что ворвалась в Tier-1 глобального рейтинга Image Edit от Arena и сейчас считается самой мощной open-source Image-to-Image моделью.
Фактически новый SOTA для всего комьюнити.
Что это значит на практике:
- Топовый уровень редактирования изображений по текстовым инструкциям
- Очень точное следование промптам в стиле "измени, но сохрани структуру"
- Сильный баланс между качеством, деталями и контролем результата
- Отличная база для своих инструментов, сервисов и ресёрча
Отдельно есть Distil-версия - легче, быстрее, удобнее для продакшена и ограниченных ресурсов.
▪GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
▪Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct
▪Hugging Face Distil: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct-Distil
@data_analysis_ml
Модель только что ворвалась в Tier-1 глобального рейтинга Image Edit от Arena и сейчас считается самой мощной open-source Image-to-Image моделью.
Фактически новый SOTA для всего комьюнити.
Что это значит на практике:
- Топовый уровень редактирования изображений по текстовым инструкциям
- Очень точное следование промптам в стиле "измени, но сохрани структуру"
- Сильный баланс между качеством, деталями и контролем результата
- Отличная база для своих инструментов, сервисов и ресёрча
Отдельно есть Distil-версия - легче, быстрее, удобнее для продакшена и ограниченных ресурсов.
▪GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
▪Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct
▪Hugging Face Distil: https://huggingface.co/tencent/HunyuanImage-3.0-Instruct-Distil
@data_analysis_ml
👍55🔥26❤16💔2🦄2😢1
Как найти работу за рубежом, если страшно и непонятно с чего начать?
Международный рынок открывает двери к крутым проектам, зарплатам в долларах и евро, но искать работу за границей долго, нудно и слишком сложно!
А самое главное, вообще непонятно, что делать. Правила рынка совсем другие. Здесь мало резюмешки на хэдхантере и рекрутеры за тобой не бегают толпами. Зато нужно заводить LinkedIn, искать рефералы, выискивать вакансии среди десятков джоб-бордов...
Разобраться самому почти невозможно. Зато есть такие ребята как AgileFluent 👇
Они уже 4 года помогают IT и Digital специалистам выйти на международный рынок. На их счету — 800+ офферов в 32 странах в такие компании как Amazon, Cisco, UniCredit, Revolut, FLO, Ferrero, N26, ALDI, Semrush, Wheely…
Они ведут крутой канал про международку, где делятся:
✔️ историями тех, кто переехал и зарабатывает в валюте,
✔️ разборами резюме и LinkedIn профилей,
✔️ персональными подборками вакансий,
✔️ гайдами и чек-листами по CV, CL, LinkedIn...
Если давно мечтал о работе за рубежом — это твой знак! Начни с их канала :)
👉 Подписывайся
Реклама. ООО «Эджайл», ИНН 7810964334, erid:2VtzqwwaVRu
Международный рынок открывает двери к крутым проектам, зарплатам в долларах и евро, но искать работу за границей долго, нудно и слишком сложно!
А самое главное, вообще непонятно, что делать. Правила рынка совсем другие. Здесь мало резюмешки на хэдхантере и рекрутеры за тобой не бегают толпами. Зато нужно заводить LinkedIn, искать рефералы, выискивать вакансии среди десятков джоб-бордов...
Разобраться самому почти невозможно. Зато есть такие ребята как AgileFluent 👇
Они уже 4 года помогают IT и Digital специалистам выйти на международный рынок. На их счету — 800+ офферов в 32 странах в такие компании как Amazon, Cisco, UniCredit, Revolut, FLO, Ferrero, N26, ALDI, Semrush, Wheely…
Они ведут крутой канал про международку, где делятся:
✔️ историями тех, кто переехал и зарабатывает в валюте,
✔️ разборами резюме и LinkedIn профилей,
✔️ персональными подборками вакансий,
✔️ гайдами и чек-листами по CV, CL, LinkedIn...
Если давно мечтал о работе за рубежом — это твой знак! Начни с их канала :)
👉 Подписывайся
Реклама. ООО «Эджайл», ИНН 7810964334, erid:2VtzqwwaVRu
🤣42❤14👍8🥰4
Media is too big
VIEW IN TELEGRAM
Microsoft выкатывает 2 поколение собственного ИИ-чипа Maia, который должен снизить зависимость от Nvidia и оптимизировать расходы на инфраструктуру.
Ускорители уже поступают в дата-центры MS в США, а разработчикам открыли доступ к SDK, хотя сроки публичного запуска инстансов в Azure пока не названы.
Maia 200 — это решение на 3-нм техпроцессе, содержащее более 140 млрд. транзисторов. Архитектура специально заточена под инференс: заявлена производительность свыше 10 петафлопс в точности FP4 и 5 петафлопс в FP8.
Подсистема памяти включает 216 ГБ HBM3e с пропускной способностью 7 ТБ/с, дополненные 272 МБ сверхбыстрого SRAM-кэша на кристалле. TDP одного чипа составляет 750 Вт.
Maia 200 работает в 3 раза быстрее Amazon Trainium 3 и превосходит Google TPU v7 в FP8 (где чип выдает 5 петафлопс).
Архитектура оптимизирована под инференс и поддерживает бесшовное масштабирование в кластеры до 6144 ускорителей.
Новый чип запредельно эффективен экономически: показатель производительности на доллар у Maia 200 на 30% выше, чем у актуального железа конкурентов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤53🔥26👍15🦄5
OpenAI выкатила подробный разбор того, как работает Codex CLI — локальный агент, который работает с кодом на вашей машине. Если вы пилите своих агентов — это мастрид про механику работы с контекстом и борьбы за кэш.
Работает это так: вы кидаете запрос, а система собирает огромный промпт с инструкциями. На этапе инференса модель выдает либо текст, либо запрос на вызов инструмента.
Агент выполняет команду, вклеивает результат обратно в промпт и снова стучится к модели. И так до победного, пока ассистент не решит, что задача выполнена.
Главное помнить про лимит: инструкции из AGENTS.md и корневых папок проекта агрегируются в один JSON, который ограничен 32 Kb. Больше впихнуть не получится.
Тут кроется главная боль. История диалога растет с каждым сообщением, и этот хвост приходится пересылать заново при каждом запросе. С такой механикой стоимость должна расти квадратично, и это было бы финансово, мягко говоря, чувствительно
Но OpenAI подумала о нас - чтобы мы не разорились, используется кэширование промптов. Если префикс запроса не меняется, инференс остается линейным. И как бы все ок, но кэш невероятно чувствителен. Стоит поменять порядок инструментов в списке или чуть подправить конфиг сэндбокса — все, кэш-хита не будет и придется расчехлять заначку.
Заметили, что из API исчез previous_response_id? Это не баг, а фича. OpenAI перешли на полностью на модель без сохранения состояния. Это нужно для Zero Data Retention конфигураций, чтобы провайдер вообще не хранил ваши данные.
Даже когда агент передает цепочку ризонинга из прошлых шагов, она идет в зашифрованном поле. Ключ на сервере, данные у клиента, никто ничего не хранит.
Когда контекстное окно начинает трещать по швам, включается механизм компакции. Раньше /compact вызывали руками, теперь за это отвечает эндпоинт.
Вместо того чтобы просто выкидывать старые сообщения, модель сжимает их в особый тип блока. Это такой черный ящик с зашифрованным смыслом беседы. Он занимает минимум места, но позволяет модели не забывать, о чем шла речь пять минут назад. Процесс запускается сам, как только вы упираетесь в auto_compact_limit.
Кстати, если вы не знали: Codex CLI работает не только с серверами OpenAI. Флаг --oss подключает локальные модели через Ollama или LM Studio.
В следующих статьях обещают подробности про архитектуру CLI, как реализовано использование инструментов и модель песочницы Codex.
@ai_machinelearning_big_data
#AI #ML #CodexCLI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48👍22🔥11👏2🤣2😁1💘1🦄1
Media is too big
VIEW IN TELEGRAM
Пекин дал добро, и это выглядит как вынужденный шаг назад. Регулятор пытается усидеть на двух стульях: с одной стороны стратегия импортозамещения, с другой - лидерам рынка нужно актуальное железо прямо сейчас, ведь на своих чипах далеко не уедешь.
Но ситуация запутанная. Источники Reuters говорят, что лицензии выдают с кучей жестких условий, которые даже не успели толком согласовать.
Один инсайдер выразился конкретнее: ограничения настолько суровые, что разрешение вроде бы есть, а превратить его в реальный заказ компании пока не могут. Впрочем, очередь за лицензиями все равно уже выстроилась.
reuters.com
Компания показала, как робот Figure 03 загружает посудомойку - 61 действие подряд без сбоев. Раньше писали отдельные контроллеры для ног и рук, из-за чего любое движение корпуса сбивало прицел манипуляторам. Теперь всем телом управляет единая архитектура Helix 02.
Выглядит это пугающе естественно. За моторику отвечает сеть System 0 (10 млн. параметров), которую натаскали на 1000 часах человеческих движений. Она работает с частотой 1 кГц.
Инженеры говорят, что новый подход позволил удалить 109 тыс. строк кода, который раньше отвечал за координацию. Figure AI называет это самой сложной автономной задачей в истории гуманоидов.
figure.ai
Раньше модель воспринимала изображение пассивно, а теперь она использует цикл «думай-действуй-наблюдай». Работает это так: если нужно рассмотреть мелкую деталь, Gemini сама пишет и исполняет код, чтобы приблизить, обрезать или разметить нужный участок. Это лечит старые болячки. Чтобы посчитать объекты, она теперь рисует рамки и нумерует их по порядку.
С таблицами то же самое: никаких галлюцинаций, только реальные вычисления через код. Google обещает прирост качества на 5–10%. Обновление уже раскатывают в AI Studio, Vertex AI и приложении Gemini (режим Thinking).
blog.google
В Full HD при 30 кадрах в секунду система успевает менять одежду, персонажей или фон по текстовому запросу практически, как говорят разработчики, без задержек. Модель работает без привычных 3D-движков и карт глубины. Она понимает физику движений, опираясь только на видео-паттерны. За стабильность картинки при длительной генерации отвечает алгоритм Smart History Augmentation.
Работает все на чипах AWS Trainium3 — видимо, только так удалось убрать задержки. В деле Lucy 2.0 можно попробовать тут.
decart.ai
Антидиффамационная лига (ADL) проверила, насколько легко современные модели выдают хейт-спич и экстремизм. Они прогнали 25 тыс. диалогов через 6 топовых моделей, и результаты оказались, мягко говоря, неоднозначными.
Лучше всех защищена Claude: 80 баллов из 100. А вот Grok с треском провалил тест, получив всего 21 балл. Самое слабое место Grok - работа с картинками и документами. В мультимодальных задачах он показал полный ноль: он просто не видит токсичный контент, если тот не написан текстом.
Итоговое распределение мест по убыванию: Claude, ChatGPT, DeepSeek, Gemini, Llama, Grok.
adl.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤82👍19🔥8🐳2🦄2
Пока индустрия одержима гигантоманией и соревнуется, у кого больше параметров, Stepfun решили пойти против течения.
Встречайте, Step3-VL-10B - компактная VL-модель, которая по заявлениям разработчиков не просто конкурирует, а буквально уделывает модели в 10–20 раз тяжелее, включая таких титанов, как Gemini 2.5 Pro и GLM-4.6V.
Звучит как маркетинговый хайп, но под капотом есть интересные инженерные решения, хоть и с хитринкой.
Конструкция из кастомного визуального PE-lang энкодера на 1.8B параметров и Qwen3-8B (что уже половина успеха, учитывая мощь Qwen) в качестве декодера.
В отличие от многих, кто замораживает визуальную часть, Stepfun разморозили все и тренировали модель в один прогон на 1,2 трлн. токенов. Это позволило визуальной и языковой частям модели не просто сосуществовать, а реально срастись и притереться друг к другу.
После этого модель прогнали через адский RL-цикл (RLVR+RLHF) на 1400+ итераций, чтобы модель научилась жестко ризонить.
В бенчмарках цифры действительно страшные (в хорошем смысле) для такого размера:
Для сравнения: GLM-4.6V на 106B выдает на MMMU только 75.20.
Инженерная хитринка кроется в методологии тестирования. Видите в результатах тестов пометку PaCoRe?
PaCoRe (Parallel Coordinated Reasoning):
Чтобы получить топовые цифры, модель использует test-time compute. Она запускает 16 параллельных роллаутов, собирает доказательства из разных веток и синтезирует ответ.
На инференсе это будет стоить вам в 16 раз "дороже" по ресурсам, чем обычный прогон. В стандартном режиме (SeRe) модель все еще хороша, но уже не выглядит как "убийца всех топов".
Кстати, Stepfun честно признались, что в отчетах накосячили с бенчмарками конкурента Qwen3VL-8B из-за неверного
max_tokens. Извинились, обещают пересчитать. Это добавляет доверия, но напоминает, что бенчмарки - дело тонкое.В общем, модель - отличный кандидат для локального использования: есть OpenAI-compatible API и vLLM поддерживается (PR вмержили).
⚠️ Если модель зацикливается при генерации - обновите конфиг, там был баг с
eos_token_id, который уже пофиксили.@ai_machinelearning_big_data
#AI #ML #VLM #STEP3 #StepFunAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46❤18👍9🥰4🤔2🥱2❤🔥1💯1🦄1