223K subscribers
3.87K photos
646 videos
17 files
4.48K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🧠 Как студенты используют Claude: новый отчёт от Anthropic

Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.

📊 Основные инсайты:
Доминируют студенты STEM-направлений (естественные и точные науки)

Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.

Выделено 4 стиля взаимодействия с ИИ:
Прямое решение задач
Прямое создание контента
Совместное решение задач
Совместное создание контента

Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?

💻 Где Claude помогает чаще всего:
Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)

Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
Анализ и визуализация данных (11%)
Исследовательский дизайн и разработка инструментов (6,5%)
Создание технических диаграмм (3,2%)
Перевод и вычитка текстов (2,4%)

📌 Читать полностью

@ai_machinelearning_big_data


#Claude #Anthropic
👍8530😁15🔥12🤔7🤣1
✔️ Релиз весов HiDream-I1: 17B параметров и превосходство над GPT-4o по качеству генерации изображений.

HiDream-I1 - генеративная модель text-to-imаge, разработанная китайской компанией HiDream, которая работает под брендом vivagoAI.

Модель получила 17 млрд. параметров и показывает высочайшее качество генерации изображений в фотореализме, анимационном и художественном стилях. Представлено 3 версии модели: Dev, Full и Fast.

Модель выпущена под лицензией MIT и уже заняла 1 место в GenAI-бенчмарках, обогнав предыдущего лидера, GPT-4o.

🟡Попробовать
🟡Github
🟡HidreamAi в X (ex-Twitter)


@ai_machinelearning_big_data

#news #ai #ml #HiDream #AImodel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥2114
✔️ Amazon Nova Sonic: голосовая модель с точностью выше, чем у GPT-4o.

Amazon запустил Nova Sonic — голосовую модель, которая уже работает в обновлённом ассистенте Alexa+. Модель на 80% дешевле GPT-4o от OpenAI, при этом точнее распознаёт речь: уровень ошибок — 4,2%, что на 46,7% лучше GPT-4o-transcribe.

Модель доступна через платформу, Bedrock с помощью нового двунаправленного потокового API. По словам вице-президента Amazon Рохита Прасада, модель отлично справляется с маршрутизацией пользовательских запросов к различным API, что позволяет ей получать информацию в режиме реального времени, анализировать собственные данные или выполнять действия во внешних приложениях.
aboutamazon.com

✔️ Anthropic расширяет присутствие в Европе.

Anthropic объявила о планах по расширению своей деятельности в Европе, создав более 100 новых рабочих мест. Компания назначила Гийома Принсена, бывшего руководителя Stripe и генерального директора Mooncard, главой подразделения в Европе, на Ближнем Востоке и в Африке (EMEA). Вакансии будут открыты в Дублине и Лондоне по направлениям: продажи, проектирование, исследования и бизнес-операции.
tech.eu

✔️ Shopify будет проверять перед наймом новых сотрудников, не сможет ли ИИ выполнять эту работу.

Тоби Лютке, глава Shopify, заявил сотрудникам: перед запросом новых кадров или ресурсов команды должны обосновать, почему задачу нельзя решить с помощью ИИ. В меморандуме, опубликованном в X, Лютке призвал переосмыслить рабочие процессы через призму автономных ИИ-агентов: «Это открывает интересные возможности для оптимизации».

По его словам, активное использование ИИ стало «базовым требованием» для всех в компании. Эффективная работа с алгоритмами — навык, который сотрудники обязаны развивать, экспериментируя и анализируя результаты. Вопросы об интеграции ИИ теперь включат в систему оценки эффективности.
cnbc.com

✔️ IBM анонсировала мейнфрейм z17 на процессорах Telum II.

IBM официально представила новое поколение мейнфреймов z17, оснащённых процессорами Telum II. Восьмиядерные чипы с частотой 5.5 ГГц получили виртуальный кэш L3 на 360 МБ и L4 на 2.88 ГБ, а также новый блок обработки данных для ускорения ИИ-задач. По заявлениям IBM, система справляется с 24 трлн операций в секунду и на 50% быстрее предшественника z16, выпущенного три года назад.

z17 оптимизирован под задачи искусственного интеллекта: обновленные I/O-модули и кэширование должны сократить задержки в сложных вычислениях. Мейнфрейм поддерживает z/OS, а из Linux-дистрибутивов — RHEL, Ubuntu и SUSE. Ожидается, что z17 поступят в продажу летом.
ibm.com

✔️ Вышел DeepCoder 14B Preview — новая кодовая модель, лидирующая в своём классе (14B) и конкурирующая с o3-mini и o1 (на low-настройках).

Создан на базе — DeepSeek R1 Distill 14B + RL на 24k задач, что сильно прокачало навыки кодинга и неожиданно улучшило математику.

Главное: опубликованы веса, код и датасет. Можно запускать локально!
Github

✔️ AlphaXiv выпустили бесплатного агента Deep Research

В инструмент добавили Deep Research — ИИ, который за минуту делает обзор по любой научной теме:
- находит ключевые статьи
- показывает тренды
- кратко объясняет каждую работу

Можно вести диалог, уточнять детали и копать глубже. И всё это — бесплатно.
alphaxiv.org

✔️ Deep Research теперь работает в Gemini 2.5 Pro

Google прокачали Deep Research в:
- Поиске и синтезе информации
- Генерации глубоких и наглядных отчётов
- Аналитическом мышлении и рассуждении
Попробовать

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍62🔥1412😁7
🌟 Deep Cogito представила серию языковых моделей с открытым исходным кодом.

Deep Cogito выпустила семейство языковых моделей размером 3B, 8B, 14B, 32B и 70B параметров, которые уже доступны для загрузки.

По заявлению разработчиков, их модели превосходят аналогичные открытые решения от LLaMA, DeepSeek и Qwen в большинстве стандартных бенчмарков. Например, 70B-версия обходит новую 109B MoE-модель Llama 4, несмотря на меньший размер.

Все модели обучены с помощью метода Iterated Distillation and Amplification (IDA) — стратегии, которая сочетает итеративное самоулучшение и «сжатие» интеллекта для преодоления ограничений, накладываемых человеческим контролем.

Суть IDA проста: сначала модель «усиливает» свои способности, тратя больше вычислительных ресурсов на поиск решений через CoT, а затем «дистиллирует» эти улучшения в свои параметры. Такой цикл повторяется, создавая петлю обратной связи — каждая итерация делает модель умнее, а её мышление эффективнее. По словам команды, этот подход не только масштабируем, но и быстрее, чем RLHF.

Семейство поддерживает 2 режима работы: стандартный (прямой ответ) и «рефлексивный», где система сначала обдумывает запрос, как это реализовано в Claude 3.7. Они оптимизированы для программирования, вызова функций и агентских сценариев, но без акцента на CoT — разработчики считают, что короткие шаги эффективнее в реальных задачах.

Уже в ближайшие месяцы ожидаются версии на 109B, 400B и 671B параметров и вариации с MoE-архитектурой.

Модели доступны на Hugging Face, Ollama и через API Fireworks AI/Together AI.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍3314🦄6😁1
🖥 Google анонсировала Ironwood TPU — специализированный чип, созданный для ускоренного инференса ИИ-моделей.

Ironwood — это TPU седьмого поколения, конкурент Blackwell B200 от NVIDIA.

10× прирост производительности по сравнению с предыдущим поколением.

🔧 Что важно знать:
⚡️ Ironwood TPU = высокая плотность + эффективность: на 67% больше FLOPS/ватт, чем v5p и 4 614 TFLOPS на чип (FP8) и 192 ГБ HBM.

Производительность чипов растёт, а энергоэффективность выходит на новый уровень.

🌐 Интеграция с Google Cloud:
Ironwood TPUs уже работают в дата-центрах с жидкостным охлаждением, интегрированы в Vertex AI .

📈 Под капотом — высокоскоростная сеть с пропускной способностью 3.5 Тбит/с, обеспечивающая быструю связность для масштабных моделей.

💡 И да — теперь TPU поддерживают vLLM, а значит, можно легко гонять PyTorch-инференс прямо на TPU, без магии и костылей.

🟡 Подробнее

@ai_machinelearning_big_data

#google #TPU
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍71🔥2011🤔6🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 UNO — новый подход к генерации изображений по нескольким референсам от Bytedance

Новый Flux метод, который позволяет переносить и сохранять объекты с одного или нескольких референс изображений.

UNO
способна взять несколько разных объектов или персонажей (их фотографии) и собрать их вместе на одном сгенерированном изображении – все объекты сохраняют свою индивидуальность и детали​

Популярные методы генерации в основном заточены под одного героя, но UNO ломает этот барьер, решая сразу две ключевые проблемы: масштабируемость данных и ограниченность одним субъектом​

Внутри:
🔁 В UNO внедрён специальный механизм позиционных эмбеддингов – Universal Rotary Position Embedding, или по-другому универсальное позиционное кодирование. Зачем это нужно?
Когда модель работает сразу с несколькими визуальными объектами, есть риск перепутать их свойства или положение (так называемая attribute confusion – «путаница атрибутов»). URPE решает эту проблему: оно помогает модели понимать, где какой объект находится и какие черты ему принадлежат, даже если объектов несколько​

Гибкость в разрешениях и форматах. Ещё одна крутая особенность UNO – умение генерировать изображения разного размера и соотношения сторон. Модель обучалась на данных нескольких масштабов, поэтому уверенно чувствует себя и в квадратном формате 512×512, и в нестандартных разрешениях вплоть до 704 пикселей

🔥 Высокая согласованность:
Модель отлично справляется с генерацией персонажей и объектов, сохраняя ключевые особенности сцены — без разрыва между кадрами.

✔️ Проект выложен в open-source:
– Код под Apache 2.0
– Модели под CC BY-NC 4.0
– Поддерживается только некоммерческое использование

🟡 GitHub: https://github.com/bytedance/UNO
🟡Demo: https://huggingface.co/spaces/bytedance-research/UNO-FLUX
🟡 Paper: https://arxiv.org/abs/2504.02160
🟡HF: https://huggingface.co/bytedance-research/UNO

#ByteDance #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍5513🔥10🥱1💘1