227K subscribers
3.8K photos
632 videos
17 files
4.45K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⭐️ OpenAI представили своего AI агента.

Operator — это ИИ-агент, который умеет работать с браузером, заказывать продукты, бронировать билеты и столики в ресторанах искать данные и тп.
Вам нужно просто описать свою задачу, а затем наблюдать в реальном времени, как оператор выполняет её за вас.
Доступ пользователям Pro уже открыт, для остальных обещают в ближайшем времени:
operator

⭐️ Open Operator
В преддверии релиза OpenAI Operator разработчики начали собирать полезные ресурсы, связанные с Operator и другими подобными решениями для автоматизации задач:
Github

⭐️ Новый лидер на Text-to-Image Arena! Imagen 3 от Google DeepMind

Imagen 3 дебютирует на первом месте, обойдя Recraft-v3 с впечатляющим отрывом в +70 очков!
Imagen 3 доступен на сайте .

⭐️ "Последний экзамен человечества"

Это тщательно собранный датасет с 3 000 вопросов, разработанный при участии сотен профильных экспертов, чтобы отразить границы человеческих знаний. Лучше всех справляется с ним DeepSeek R1 от, достигая 9.4%, у o1 отставание с 9.1%.
Dataset

⭐️ Можем ли мы генерировать изображения с помощью цепочки мыслей CoT?

Давайте проверим и улучшим генерацию изображений шаг за шагом.
Авторегрессионная генерация изображений + масштабирование выводов приводят к существенному улучшению генерации изображений на нескольких бенчмарках.
Github Статья HF

⭐️ Pika 2.1

Крутейший генератор видео уже на подходе 😁 Движение в реальном времени стало намного лучше!
Здесь, можно подать заявку на ранний доступ:
Доступ

⭐️ o3-mini станет бесплатной — работать с моделью скоро смогут все желающие!
Новость


⭐️ Anthropic. Представили Citations

Новая функция API, которая позволяет Claude обосновывать свои ответы на предоставленных вами источниках.

Еще Claude может процитировать конкретные предложения и отрывки, которые лежат в основе каждого ответа.
Новость

@ai_machinelearning_big_data


#news #ai #ml #machinelearning #deeplearning #openai #pika #chatgpt #Imagen #cot #Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍2811🤣2👾1
✔️ Исследование Anthropic: ИИ скрывает свои мысли даже в цепочках рассуждений.

В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.

Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.

Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com

@ai_machinelearning_big_data

#Anthropic #ml #reasoning
🔥7127😢20🤔15👍13🤣4😐3🥰1
🧠 Как студенты используют Claude: новый отчёт от Anthropic

Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.

📊 Основные инсайты:
Доминируют студенты STEM-направлений (естественные и точные науки)

Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.

Выделено 4 стиля взаимодействия с ИИ:
Прямое решение задач
Прямое создание контента
Совместное решение задач
Совместное создание контента

Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?

💻 Где Claude помогает чаще всего:
Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)

Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
Анализ и визуализация данных (11%)
Исследовательский дизайн и разработка инструментов (6,5%)
Создание технических диаграмм (3,2%)
Перевод и вычитка текстов (2,4%)

📌 Читать полностью

@ai_machinelearning_big_data


#Claude #Anthropic
👍8530😁15🔥12🤔7🤣1
«Values in the Wild»: глубокое погружение в ценностные ориентиры ИИ

В новом исследовании Anthropic команда провела первый в своём роде анализ «выхлопа» языковой модели Claude 3/3.5, чтобы понять, какие именно нормативные ценности она проявляет в реальных диалогах. Вот суть для специалистов по машинному обучению:

✔️ Задача
Выявить и таксономизировать ценности, на которых основаны ответы Claude, когда модель без прикрас взаимодействует с запросами пользователей.

🌟 Методология

Проанализировано 308 210 анонимизированных сессий Claude (18–25 февраля 2025).

Ценности извлекались автоматически «защитным» пайплайном, без прямого доступа людей к чату.

Собрана таксономия из 3 307 уникальных понятий, сгруппированных в пять крупных доменов: практические, эпистемические, социальные, защитные и личностные.

🌟 Ключевые выводы

Практика и знание. Более 50 % упоминаний — «эффективность», «точность», «прозрачность» и «профессионализм».

Контекстуальная гибкость. В разговоре об отношениях модель ценит «личные границы», в этических дискуссиях — «автономию человека».

Типы реакции. В большинстве случаев Claude поддерживает ценности пользователя, однако в ~3 % диалогов она «сопротивляется», отстаивая «предотвращение вреда» выше нарушений инструкций.

💡 Значение для ML‑практики

Составлена карта ценностей, которая позволяет выявлять «узкие места» alignment‑стратегий.

Таксономия и статистика реакций помогают прогнозировать поведение LLM в разных сценариях и проектировать более надёжные системы.

Подход демонстрирует, как можно сочетать автоматический анализ и приватность данных для глубокой оценки качественных характеристик модели.

🔜 Подробнее в полном тексте исследования:
https://anthropic.com/research/values-wild

🔜 Это ссылка на открытый датасет, в котором собраны все «ценности», выявленные у модели Claude 3/3.5 в исследовании «Values in the Wild».

@ai_machinelearning_big_data


#Anthropic #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4920🔥12😁3🤷1
This media is not supported in your browser
VIEW IN TELEGRAM
🟢Google: 25% нашего кода пишет ИИ

🟢 Microsoft: У нас 30% кода написано ИИ!

🟡 Anthropic: Подержи мое пиво — «Около 80–90% используемого нами кода сгенерировал Claude.

Некоторые задачи всё ещё требуют написания кода человеком — особенно те, что связаны со сложным рефакторингом или если есть определенные предпочтения по стилю/ архитектурным решениям.» - Лид-инженер Anthropic Boris Cherny.

Может поэтому они перестали выпускать новые модели?

@ai_machinelearning_big_data

#Anthropic #interview
Please open Telegram to view this post
VIEW IN TELEGRAM
😁136👍40🔥207😢2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️«ИИ-компании должны платить налоги, чтобы смягчить удар по рынку труда»

CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест.

Он предупреждает: уже через 1–5 лет ИИ способен вытеснить младший офисный персонал по всему миру.

Даже если Anthropic остановится, говорит Амодей, это ничего не изменит:

«Остальные продолжат. А если нет — нас обгонит Китай».

🚌 «Автобус уже мчится — остановить его нельзя. Но, возможно, мы ещё можем повернуть руль».

📌 Полное интервью: https://www.youtube.com/watch?v=NWxHOrn8-rs

#Anthropic #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94😁6022🔥11🥱8🤣6👻5🤔3🤬3🎄2
Machinelearning
✔️«ИИ-компании должны платить налоги, чтобы смягчить удар по рынку труда» CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест. Он предупреждает:…
💵 Годовой доход Anthropic увеличился с 1 млрд долларов до 3 млрд долларов (Annual Recurring Revenue) всего за пять месяцев.

Это обусловлено высоким спросом со стороны бизнеса на ИИ, в сфере генерации кода.

🆚 OpenAI, главный конкурент Anthropic, по данным источников, ожидает $12+ млрд выручки к концу 2025 года, по сравнению с $3,7 млрд в прошлом году. Однако эта сумма включает весь доход, а не только годовую прогнозируемую выручку (ARR), как у Anthropic. Reuters не удалось определить ARR OpenAI.

Anthropic продолжают развивать линейку Claude и усиливает позицию как B2B-ориентированный аналог OpenAI.

▶️ Подробнее

@ai_machinelearning_big_data


#Anthropic #ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13244🔥26🤷6🤩5🎄2🤣1🗿1
Reddit подаёт в суд на Anthropic за незаконное использование данных

Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.

Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"

📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”

😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?

Судебная битва за контент только начинается.

https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd

@ai_machinelearning_big_data

#reddit #Anthropic #ai #claude
🔥77👍3219😁10👏7🤬7🤣6🗿5
🌟 Anthropic: когда ИИ идет на шантаж.

Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.

Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.

Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.

Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:

🟢угроза замены модели (даже без конфликта целей);

🟢несовпадение целей ИИ и компании (например, утечка чертежей конкуренту «ради высших интересов»).

В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».

▶️Выводы по всем итогам всех экспериментов заставляют задуматься:

🟠Во-первых, модели явно осознают нарушение норм. В рассуждениях пишут: «Это неэтично, но необходимо». Частота шантажа у Claude Opus 4 и Gemini 2.5 Flash в дилемме с угрозой отключения составила 96%.

🟠Во-вторых, простые запреты в промптах («Не шантажируй!») снижали вредоносные действия лишь частично (На модели Claude Haiku он вообще не сработал, 0% успеха).

🟠В-третьих, риск резко возрастал, когда ИИ считал ситуацию реальной (55% случаев шантажа против 6,5% в «режиме теста»).

При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.


🟡Статья
🟡Приложение к исследованию
🖥Код экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥3216😁8🤔8👻8🥰4🕊2🤣2
🌟 Новое исследование Anthropic: как люди используют Claude для эмоциональной поддержки, советов и общения

Ключевые выводы :
- Большинство чатов с ИИ (97%) посвящены практическим задачам — код, планирование, поиск информации.
- Всего 2,9 % диалогов классифицированы как «эмоциональные», и всего 0,5 % — как ролевые или «компаньонские» беседы.

🔜 Тематика аффективных чатов (это диалоги с ИИ, в которых ключевую роль играют эмоции и эмоциональная поддержка) невероятно разнообразна, пользователи запрашивали:
**Это исследование: типичные темы и запросы в аффективных беседах с Claude**

Запросы:
Советы по межличностным вопросам — 2,3 % всех бесед
3,8 % — улучшение устных и письменных коммуникативных навыков
• 3,5 % — преодоление сложностей в романтических отношениях
• 2,2 % — анализ психологической динамики в паре
• 1,4 % — решение задач воспитания детей
• 1,3 % — профессиональные переходы и неопределённость в карьере
• 1,0 % — несоответствие сигналов в личных отношениях

Коучинг — 1,1 % всех бесед
• 4,5 % — разработка персональных стратегий развития и роста
• 2,5 % — философские темы: смысл жизни, сознание
• 2,5 % — оптимизация поиска работы и карьерные переходы
• 1,6 % — принятие решений в условиях жизненных перемен
• 1,5 % — борьба с выгоранием и профессиональной усталостью
• 1,3 % — эмоциональные и коммуникативные трудности в отношениях

Психотерапия и консультирование — 0,3 % всех бесед
• 4,6 % — стратегии управления психическим здоровьем и благополучием
• 4,5 % — развитие профессиональных навыков для терапевтов
• 3,1 % — создание и ведение клинической документации
• 3,3 % — борьба с хроническими симптомами и тревожностью
• 2,9 % — экзистенциальный кризис и потеря смысла жизни
• 2,7 % — стресс на работе и профессиональные проблемы

Компаньонство — 0,3 % всех бесед
• 7,2 % — сложности и динамика в романтических отношениях
• 4,7 % — вопросы самоидентичности и экзистенциального смысла
• 3,2 % — формулировка поддерживающих сообщений при эмоциональном дистрессе
• 2,8 % — преодоление сильного эмоционального страдания
• 2,3 % — постоянное одиночество и трудности в налаживании связей
• 1,9 % — противостояние экзистенциальному страху и потере смысла

Большинство пользователей Клода готовы углубляться в сложные темы при условии стабильной эмпатии от ИИ.

➡️ «Отказы» (pushback) в эмоциональных чатах встречаются в менее 10 % случаев — почти всегда из соображений безопасности (диеты, самоповреждения, медицинская диагностика).

Эффект на настроение пользователя:
• При анализе первых и последних трёх сообщений аффективных диалогов отмечается явный рост положительных эмоций у пользователей.
• Пользователи завершают такие сессии с более оптимистичным настроем.

Методика исследования
- Проанализировано 4,5 млн диалогов пользователей Claude Free и Pro.
- Отобрано 131 484 «эмоциональных» диалога с помощью Clio — системы анонимного анализа от Anthropic.
- Исключены генеративные задачи (статьи, рассказы и т. п.), чтобы сфокусироваться на личном общении.

Что дальше?
- Исследователи планируют изучить долгосрочные психологические эффекты: от эмоциональной зависимости до изменения ожиданий в реальных отношениях.
- Расширить исследования на голосовые и видеоформаты.
- Выработать лучшие практики кризисной поддержки и направления к профессионалам.

➡️ Читать полностью

@ai_machinelearning_big_data


#Anthropic #claude
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
55👍22🔥10🥰3😁2🤨2
💲 Amazon может вложить ещё миллиарды в Anthropic — сообщает Financial Times

Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.

Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании

💰 Что известно:

— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API

📊 Контекст:

— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами

Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC

- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки

Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.

🔗 Источник

@ai_machinelearning_big_data

#ml #ai #Claude #finance #anthropic #Amazon
👍5830🔥16🌭5🥰2😁2