Operator — это ИИ-агент, который умеет работать с браузером, заказывать продукты, бронировать билеты и столики в ресторанах искать данные и тп.
Вам нужно просто описать свою задачу, а затем наблюдать в реальном времени, как оператор выполняет её за вас.
Доступ пользователям Pro уже открыт, для остальных обещают в ближайшем времени:
▪operator
В преддверии релиза OpenAI Operator разработчики начали собирать полезные ресурсы, связанные с Operator и другими подобными решениями для автоматизации задач:
▪Github
Imagen 3 дебютирует на первом месте, обойдя Recraft-v3 с впечатляющим отрывом в +70 очков!
Imagen 3 доступен на сайте .
Это тщательно собранный датасет с 3 000 вопросов, разработанный при участии сотен профильных экспертов, чтобы отразить границы человеческих знаний. Лучше всех справляется с ним DeepSeek R1 от, достигая 9.4%, у o1 отставание с 9.1%.
▪Dataset
⭐️ Можем ли мы генерировать изображения с помощью цепочки мыслей CoT?
Давайте проверим и улучшим генерацию изображений шаг за шагом.
Авторегрессионная генерация изображений + масштабирование выводов приводят к существенному улучшению генерации изображений на нескольких бенчмарках.
▪Github ▪Статья ▪HF
Крутейший генератор видео уже на подходе 😁 Движение в реальном времени стало намного лучше!
Здесь, можно подать заявку на ранний доступ:
▪Доступ
▪Новость
Новая функция API, которая позволяет Claude обосновывать свои ответы на предоставленных вами источниках.
Еще Claude может процитировать конкретные предложения и отрывки, которые лежат в основе каждого ответа.
▪Новость
@ai_machinelearning_big_data
#news #ai #ml #machinelearning #deeplearning #openai #pika #chatgpt #Imagen #cot #Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍28❤11🤣2👾1
✔️ Исследование Anthropic: ИИ скрывает свои мысли даже в цепочках рассуждений.
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
🔥71❤27😢20🤔15👍13🤣4😐3🥰1
🧠 Как студенты используют Claude: новый отчёт от Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
@ai_machinelearning_big_data
#Claude #Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
@ai_machinelearning_big_data
#Claude #Anthropic
👍85❤30😁15🔥12🤔7🤣1
✨ «Values in the Wild»: глубокое погружение в ценностные ориентиры ИИ
В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:
✔️ Задача
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.
🌟 Методология
Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).
Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.
Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.
🌟 Ключевые выводы
Практика и знание. Более 50 % упоминаний — «
Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».
Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.
💡 Значение для ML‑практики
Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.
Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.
Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.
🔜 Подробнее в полном тексте исследования:
https://anthropic.com/research/values-wild
🔜 Это ссылка на открытый датасет, в котором собраны все «ценности», выявленные у модели Claude 3/3.5 в исследовании «Values in the Wild».
@ai_machinelearning_big_data
#Anthropic #Claude
В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.
Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).
Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.
Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.
Практика и знание. Более 50 % упоминаний — «
эффективность
», «точность
», «прозрачность
» и «профессионализм
».Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».
Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.
💡 Значение для ML‑практики
Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.
Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.
Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.
https://anthropic.com/research/values-wild
@ai_machinelearning_big_data
#Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤20🔥12😁3🤷1
This media is not supported in your browser
VIEW IN TELEGRAM
Некоторые задачи всё ещё требуют написания кода человеком — особенно те, что связаны со сложным рефакторингом или если есть определенные предпочтения по стилю/ архитектурным решениям.» - Лид-инженер Anthropic Boris Cherny.
@ai_machinelearning_big_data
#Anthropic #interview
Please open Telegram to view this post
VIEW IN TELEGRAM
😁136👍40🔥20❤7😢2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест.
Он предупреждает: уже через 1–5 лет ИИ способен вытеснить младший офисный персонал по всему миру.
Даже если Anthropic остановится, говорит Амодей, это ничего не изменит:
«Остальные продолжат. А если нет — нас обгонит Китай».
🚌 «Автобус уже мчится — остановить его нельзя. Но, возможно, мы ещё можем повернуть руль».
📌 Полное интервью: https://www.youtube.com/watch?v=NWxHOrn8-rs
#Anthropic #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94😁60❤22🔥11🥱8🤣6👻5🤔3🤬3🎄2
Machinelearning
Это обусловлено высоким спросом со стороны бизнеса на ИИ, в сфере генерации кода.
🆚 OpenAI, главный конкурент Anthropic, по данным источников, ожидает $12+ млрд выручки к концу 2025 года, по сравнению с $3,7 млрд в прошлом году. Однако эта сумма включает весь доход, а не только годовую прогнозируемую выручку (ARR), как у Anthropic. Reuters не удалось определить ARR OpenAI.
Anthropic продолжают развивать линейку Claude и усиливает позицию как B2B-ориентированный аналог OpenAI.
@ai_machinelearning_big_data
#Anthropic #ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
👍132❤44🔥26🤷6🤩5🎄2🤣1🗿1
Reddit подаёт в суд на Anthropic за незаконное использование данных
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
🔥77👍32❤19😁10👏7🤬7🤣6🗿5
Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.
Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.
Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.
Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:
В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».
При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.
@ai_machinelearning_big_data
#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥32❤16😁8🤔8👻8🥰4🕊2🤣2
Ключевые выводы :
- Большинство чатов с ИИ (97%) посвящены практическим задачам — код, планирование, поиск информации.
- Всего 2,9 % диалогов классифицированы как «эмоциональные», и всего 0,5 % — как ролевые или «компаньонские» беседы.
**Это исследование: типичные темы и запросы в аффективных беседах с Claude**
Запросы:
Советы по межличностным вопросам — 2,3 % всех бесед
• 3,8 % — улучшение устных и письменных коммуникативных навыков
• 3,5 % — преодоление сложностей в романтических отношениях
• 2,2 % — анализ психологической динамики в паре
• 1,4 % — решение задач воспитания детей
• 1,3 % — профессиональные переходы и неопределённость в карьере
• 1,0 % — несоответствие сигналов в личных отношениях
Коучинг — 1,1 % всех бесед
• 4,5 % — разработка персональных стратегий развития и роста
• 2,5 % — философские темы: смысл жизни, сознание
• 2,5 % — оптимизация поиска работы и карьерные переходы
• 1,6 % — принятие решений в условиях жизненных перемен
• 1,5 % — борьба с выгоранием и профессиональной усталостью
• 1,3 % — эмоциональные и коммуникативные трудности в отношениях
Психотерапия и консультирование — 0,3 % всех бесед
• 4,6 % — стратегии управления психическим здоровьем и благополучием
• 4,5 % — развитие профессиональных навыков для терапевтов
• 3,1 % — создание и ведение клинической документации
• 3,3 % — борьба с хроническими симптомами и тревожностью
• 2,9 % — экзистенциальный кризис и потеря смысла жизни
• 2,7 % — стресс на работе и профессиональные проблемы
Компаньонство — 0,3 % всех бесед
• 7,2 % — сложности и динамика в романтических отношениях
• 4,7 % — вопросы самоидентичности и экзистенциального смысла
• 3,2 % — формулировка поддерживающих сообщений при эмоциональном дистрессе
• 2,8 % — преодоление сильного эмоционального страдания
• 2,3 % — постоянное одиночество и трудности в налаживании связей
• 1,9 % — противостояние экзистенциальному страху и потере смысла
Большинство пользователей Клода готовы углубляться в сложные темы при условии стабильной эмпатии от ИИ.
Эффект на настроение пользователя:
• При анализе первых и последних трёх сообщений аффективных диалогов отмечается явный рост положительных эмоций у пользователей.
• Пользователи завершают такие сессии с более оптимистичным настроем.
Методика исследования
- Проанализировано 4,5 млн диалогов пользователей Claude Free и Pro.
- Отобрано 131 484 «эмоциональных» диалога с помощью Clio — системы анонимного анализа от Anthropic.
- Исключены генеративные задачи (статьи, рассказы и т. п.), чтобы сфокусироваться на личном общении.
Что дальше?
- Исследователи планируют изучить долгосрочные психологические эффекты: от эмоциональной зависимости до изменения ожиданий в реальных отношениях.
- Расширить исследования на голосовые и видеоформаты.
- Выработать лучшие практики кризисной поддержки и направления к профессионалам.
@ai_machinelearning_big_data
#Anthropic #claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤55👍22🔥10🥰3😁2🤨2
💲 Amazon может вложить ещё миллиарды в Anthropic — сообщает Financial Times
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
👍58❤30🔥16🌭5🥰2😁2