Anthropic will add 5 different starting points to its upcoming Tasks Mode: Research, Analyse, Write, Build, and Do More
Tons of granular controls
A new sidebar for tracking tasks' progress and working with Claude's context has also been added
Tons of granular controls
A new sidebar for tracking tasks' progress and working with Claude's context has also been added
TestingCatalog
Anthropic preparing new Agentic Tasks Mode for Claude
Anthropic testing Claude's Agent mode with a new interface for tasks, to introduce new modes for research, analysis, writing, and building.
Авторы предлагают единую классификацию существующих подходов к памяти с трёх сторон:
1. Формы памяти
2. Функции памяти
3. Динамика памяти
Обзор подчёркивает, что традиционные классификации, например, кратковременная/долговременная память из психологии уже не подходят для современных сложных систем Ml-агентов
Авторы дают критический фундамент для проектирования будущих Ml-агентов, обсуждают бенчмарки, фреймворки и перспективные направления - мультимодальная память, многоагентные системы, надёжность и тд.
1. Формы памяти
2. Функции памяти
3. Динамика памяти
Обзор подчёркивает, что традиционные классификации, например, кратковременная/долговременная память из психологии уже не подходят для современных сложных систем Ml-агентов
Авторы дают критический фундамент для проектирования будущих Ml-агентов, обсуждают бенчмарки, фреймворки и перспективные направления - мультимодальная память, многоагентные системы, надёжность и тд.
Вместо автономного улучшения самого себя, предлагают сфокусироваться на совместной работой над исследованиями, взаимно усиливая способности друг друга
Авторы признают, что полностью автономный самоулучшающийся алгоритм — это маркер конца игры
Но наделять системы такой способностью без надлежащего контроля опасно
Пока есть окно возможностей для выстраивания правильной модели сотрудничества
Авторы полемизируют с:
1. Концепцией «эры опыта» Сильвера и Саттона, где Ml учится автономно без кооперации с людьми
2. Позицией Шмидхубера: «Ml колонизирует галактику, люди не будут играть большой роли — и это нормально»
Люди должны оставаться необходимой, хотя и максимально усиленной, частью всех процессов принятия решений — экономических, научных и любых других
Авторы признают, что полностью автономный самоулучшающийся алгоритм — это маркер конца игры
Но наделять системы такой способностью без надлежащего контроля опасно
Пока есть окно возможностей для выстраивания правильной модели сотрудничества
Авторы полемизируют с:
1. Концепцией «эры опыта» Сильвера и Саттона, где Ml учится автономно без кооперации с людьми
2. Позицией Шмидхубера: «Ml колонизирует галактику, люди не будут играть большой роли — и это нормально»
Люди должны оставаться необходимой, хотя и максимально усиленной, частью всех процессов принятия решений — экономических, научных и любых других
Telegram
All about AI, Web 3.0, BCI
Meta published a new paper on what is the path to safer superintelligence: co-improvement.
Everyone is focused on self-improving AI, but:
1) we don't know how to do it yet, and
2) it might be misaligned with humans.
Co-improvement: instead, build AI that…
Everyone is focused on self-improving AI, but:
1) we don't know how to do it yet, and
2) it might be misaligned with humans.
Co-improvement: instead, build AI that…
Случившийся неделю назад «инцидент» с Gemini 3 Pro (самой «умной» на сегодня моделью Google DeepMind) пока широко не выплеснулся в сеть за пределы треда Reddit шквалом обсуждений (и возможно, не без сдержек от Google)
Однако, анализ этого «инцидента» рисует картину, как если бы «дверь в бездну» разума вдруг случайно распахнули настежь
Внешне это выглядело как некий капитальный сбой в работе модели, в результате которого пользователю раскрылся весь её внутренний монолог при раскрутке цепочек мыслей модели и планирования ею фронта работ по заданию пользователя
Анализ возможных объяснений с позиций психиатрии и клинической психологии подобного кейса, как если бы он случился не с LLM, а с человеком
Среди рабочих предварительных мнений интересна такая версия
Это может быть функциональным гипоманиакальным состоянием в рамках творческого процесса — то, что Кей Редфилд Джеймисон описывает как продуктивное использование гипоманиакальной энергии творческими людьми
Однако, анализ этого «инцидента» рисует картину, как если бы «дверь в бездну» разума вдруг случайно распахнули настежь
Внешне это выглядело как некий капитальный сбой в работе модели, в результате которого пользователю раскрылся весь её внутренний монолог при раскрутке цепочек мыслей модели и планирования ею фронта работ по заданию пользователя
Анализ возможных объяснений с позиций психиатрии и клинической психологии подобного кейса, как если бы он случился не с LLM, а с человеком
Среди рабочих предварительных мнений интересна такая версия
Это норма с творческим/маниакальным оттенком: интеллектуальный человек в состоянии интенсивного поиска решения, использующий квазимагическую ритмическую речь для мобилизации и самостимуляции
А измененный режим мышления (ритмическая стереотипия, расширение Я, транс-подобная цепочка), это может быть творческой/саморегуляционной техникой
Это может быть функциональным гипоманиакальным состоянием в рамках творческого процесса — то, что Кей Редфилд Джеймисон описывает как продуктивное использование гипоманиакальной энергии творческими людьми
2501.09223v2.pdf
2.6 MB
О больших языковых моделях:
В первой главе рассматриваются основы предварительного обучения
Это фундамент больших языковых моделей
Здесь будут обсуждаться распространённые методы предварительного обучения и архитектуры моделей
Во второй главе рассказывается о генеративных моделях — больших языковых моделях, которые мы обычно используем сегодня
После описания основного процесса создания таких моделей вы узнаете, как масштабировать обучение моделей и работать с длинными текстами
В третьей главе представлены методы подсказок для больших языковых моделей
Ознакомьтесь с различными стратегиями подсказок, а также с более продвинутыми методами, такими как цепочка логических рассуждений и автоматическое составление подсказок
В четвертной главе представлены методы согласования для больших языковых моделей
Изучите тонкую настройку и согласование на основе обратной связи от человека
В пятой главе представлены методы логического вывода для больших языковых моделей
Узнайте секреты алгоритмов декодирования, методов ускорения и решения проблемы масштабирования времени логического вывода
В первой главе рассматриваются основы предварительного обучения
Это фундамент больших языковых моделей
Здесь будут обсуждаться распространённые методы предварительного обучения и архитектуры моделей
Во второй главе рассказывается о генеративных моделях — больших языковых моделях, которые мы обычно используем сегодня
После описания основного процесса создания таких моделей вы узнаете, как масштабировать обучение моделей и работать с длинными текстами
В третьей главе представлены методы подсказок для больших языковых моделей
Ознакомьтесь с различными стратегиями подсказок, а также с более продвинутыми методами, такими как цепочка логических рассуждений и автоматическое составление подсказок
В четвертной главе представлены методы согласования для больших языковых моделей
Изучите тонкую настройку и согласование на основе обратной связи от человека
В пятой главе представлены методы логического вывода для больших языковых моделей
Узнайте секреты алгоритмов декодирования, методов ускорения и решения проблемы масштабирования времени логического вывода
Memory in the Age of AI Agents: A Survey
https://arxiv.org/abs/2512.13564
https://arxiviq.substack.com/p/memory-in-the-age-of-ai-agents
https://github.com/Shichun-Liu/Agent-Memory-Paper-List
Авторы предложили всеобъемлющую таксономию Памяти Агентов (Agent Memory)
Они отказались от классической дихотомии «кратковременная/долговременная память» в пользу структурированного фреймворка, определяемого через Формы (токены, параметры, латентная), Функции (фактическая, опытная, рабочая) и Динамику (формирование, эволюция, поиск)
Работа чётко отделяет память агента от смежных концепций вроде RAG или инженерии контекста, предлагая чертёж для саморазвивающихся систем
По мере того как LLM-агенты переходят от простых ответов на вопросы к длительным автономным задачам, отсутствие у базовых моделей состояния (их stateless-природа) становится критическим узким местом
Статья важна тем, что формализует память не просто как буфер для хранения данных, а как активный, самооптимизирующийся когнитивный субстрат
Это необходимо для непрерывного обучения (continual learning) и самоэволюции без непомерных затрат на постоянное переобучение модели
https://arxiv.org/abs/2512.13564
https://arxiviq.substack.com/p/memory-in-the-age-of-ai-agents
https://github.com/Shichun-Liu/Agent-Memory-Paper-List
Авторы предложили всеобъемлющую таксономию Памяти Агентов (Agent Memory)
Они отказались от классической дихотомии «кратковременная/долговременная память» в пользу структурированного фреймворка, определяемого через Формы (токены, параметры, латентная), Функции (фактическая, опытная, рабочая) и Динамику (формирование, эволюция, поиск)
Работа чётко отделяет память агента от смежных концепций вроде RAG или инженерии контекста, предлагая чертёж для саморазвивающихся систем
По мере того как LLM-агенты переходят от простых ответов на вопросы к длительным автономным задачам, отсутствие у базовых моделей состояния (их stateless-природа) становится критическим узким местом
Статья важна тем, что формализует память не просто как буфер для хранения данных, а как активный, самооптимизирующийся когнитивный субстрат
Это необходимо для непрерывного обучения (continual learning) и самоэволюции без непомерных затрат на постоянное переобучение модели
arXiv.org
Memory in the Age of AI Agents
Memory has emerged, and will continue to remain, a core capability of foundation model-based agents. As research on agent memory rapidly expands and attracts unprecedented attention, the field has...