Анализ данных (Data analysis)
50.2K subscribers
3.12K photos
397 videos
1 file
2.62K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
Пока все обсуждают AI-агентов для офисов, «Норникель» и ИОНХ РАН делают куда более редкую вещь, обучают ИИ создавать новые материалы.
Суть проекта: десятки тысяч реальных экспериментов по неорганическим материалам превращают в dataset для AI-платформы цифрового материаловедения.
То есть, не просто анализировать свойства, а генерировать материалы под конкретную задачу: — электроника, — покрытия, — датчики, — микроэлектроника будущего.
Один из главных кейсов — попытка заменить золото палладием в электронных компонентах. Палладий дешевле, легче и лучше подходит для сверхтонких покрытий, которые нужны новой микроэлектронике.
По сути это движение к новой модели R&D: не сначала лаборатория, а потом результат, а сначала ИИ ищет перспективную структуру, потом ученые проверяют.
👍1913🤣8🔥5🌭1
Anthropic, похоже, стала самым быстрым software-бизнесом в истории

По reported revenue run rate компания уже обогнала OpenAI и вышла примерно на $45B ARR.

Для масштаба: Salesforce за FY2025 сделал около $38B.

У Anthropic траектория выглядит дико:

- ~$10M ARR в конце 2022
- ~$1B ARR к январю 2025
- ~$14B ARR в начале 2026
- ~$45B ARR к маю 2026

Менее чем за год он, по сообщениям, вышел на ~$2.5B run rate. Число enterprise-клиентов с чеком $1M+ в год выросло примерно с 500 до 1000 всего за пару месяцев. Больше 80% выручки Anthropic теперь идёт из enterprise.

Пока одни гнались за consumer-хайпом, Anthropic пошла туда, где есть бюджеты: кодовые базы, команды разработки, внутренние процессы и задачи, которые бизнес не может просто выключить.

Вот и весь monetization gap.

Меньше массовой аудитории, зато намного выше spend per customer.

Да, compute будет жрать безумные деньги. Но если выручка растёт такими темпами, старая SaaS-математика начинает трещать.

И если эта траектория удержится, главными победителями будут не приложения, а те, кто контролирует AI-слой, на котором они работают.

Сейчас этот слой всё чаще выглядит как ClaudeOS.
17🔥10👍8🥱3👌1
OpenAI уволила Леопольда Ашенбреннера. После этого он написал «Situational Awareness» - 165-страничный труд, в котором предсказал появление AGI к 2027 году.

А затем, по имеющимся данным, за 12 месяцев превратил $225 млн в $5,5 млрд.

И сделал он это не за счёт покупки акций Nvidia, Microsoft, Google или Amazon, а вложившись в то, на чём на самом деле работает ИИ, - в энергетику.

Гений)
👍48🔥107🤣5😁4
Илья Суцкевер заявил во время судебных показаний, что его личная доля в компании-разработчике ChatGPT оценивается примерно в $7 млрд.

Это стало известно во время перекрёстного допроса со стороны юридической команды Илона Маска в громком федеральном процессе в Окленде между Маском и OpenAI.

Помимо цифр по доле, показания Суцкевера пролили свет на старые внутренние конфликты за власть.

Он подтвердил под присягой, что до своего ухода и кратковременного отстранения CEO Сэма Альтмана в конце 2023 года считал поведение Альтмана раскалывающим команду, ненадёжным и вредящим главной цели - разработке безопасного искусственного общего интеллекта, AGI.

#openai
21👍11🕊5🔥3😁2🤨2🤯1
Ovis2.6-80B-A3B - ещё одна открытая VLM, которая метит в тяжёлую лигу

На ModelScope вышла Ovis2.6-80B-A3B: 80B параметров всего, но только 3B активных на инференсе. Лицензия - Apache 2.0.

Внутри:
- понимание документов
- OCR
- таблицы
- графики
- chart reasoning
- работа с длинным визуальным контекстом

Самая интересная фича - Think with Image.

Обычно VLM один раз «смотрит» на изображение и дальше рассуждает по уже полученному представлению. Ovis2.6 делает иначе: во время reasoning модель может активно кропать нужные области картинки, пересматривать детали и уточнять визуальные куски, а не тащить всё изображение как пассивный фон.

По характеристикам тоже неплохо:

- 80B total parameters
- 3B active parameters
- 64K context
- до 2880×2880 resolution
- Apache 2.0
- заявленная конкуренция с Qwen3-VL-32B, GPT-5-mini и Gemini 2.5 Pro на ряде vision-бенчмарков

Ovis2.6 выглядит именно как шаг в эту сторону: меньше пассивного vision, больше активного визуального reasoning.

🤖 https://modelscope.cn/models/OpenBMB/MiniCPM-V-4.6
💻 https://github.com/OpenBMB/MiniCPM-v
17👍5🔥5🤔1🤯1
⚡️ Portable-AI-USB.

Идея простая, но элегичная: берёшь флешку, ставишь туда Ollama, AnythingLLM и локальную модель, после чего получаешь карманного AI-ассистента без облака, логина и постоянного интернета.

Что внутри:

- запуск с USB на Windows и Mac
- Ollama как локальный движок для моделей
- AnythingLLM как удобный интерфейс
- готовые модели на выбор
- поддержка .gguf-моделей
- чаты и настройки хранятся на накопителе
- после загрузки модели можно работать офлайн

Конечно, чудес ждать не надо. Скорость зависит от железа, большие модели требуют места и памяти.

GitHub: https://github.com/techjarves/Portable-AI-USB
16😁9👍5🔥4
Forwarded from Machinelearning
⚡️ Anthropic вводит ежемесячный кредит для разработчиков

С 15 июня все платные тарифы Claude получат отдельный месячный кредит на программное использование.
Кредит покрывает:

• Claude Agent SDK
claude -p (CLI)
• Claude Code GitHub Actions
• Сторонние приложения на базе Agent SDK

И главное - автоматизация и агенты на Claude не будут «съедать» обычный лимит подписки - для них выделен свой бюджет.

https://support.claude.com/en/articles/15036540-use-the-claude-agent-sdk-with-your-claude-plan

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97👍5😱5🥴5🤣1
⚡️ В Claude Code завезли сразу две клевые фичи

Первая - Agent View. Теперь все сессии можно видеть в одном окне: что запущено, что ждёт твоего действия, что уже завершилось. Можно параллельно гонять несколько агентов и не превращать терминал в кладбище вкладок.

Вторая - непрерывный режим /goal. Задаёшь цель, и модель работает до результата без постоянных остановок и подтверждений на каждом шаге.

Claude Code всё больше превращается не в «чатик в терминале», а в нормальную панель управления агентами.
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥10👍7
Вот кто реально отбил подписку на Claude

Claude помог восстановить доступ к криптокошельку с примерно 5 BTC. По текущим оценкам, это около $400 тысяч.

История почти киношная: парень потерял доступ к биткоин-кошельку больше 10 лет назад. На вечеринке поменял пароль, потом забыл его, а дальше начались годы безуспешных попыток вернуть деньги.

В итоге он подключил Claude.

Сначала модель помогла перебрать 3,5 триллиона вариантов пароля. Не сработало. Но на этом история не закончилась: дальше начались раскопки по старым файлам. В итоге нашли wallet.dat, сопоставили его с недавно обнаруженной seed-фразой и смогли восстановить доступ к кошельку.

На радостях владелец теперь обещает назвать ребёнка в честь основателя Anthropic.

Так, Claude, следующий таск: найти кошелёк Сатоши. Желательно без галлюцинаций.

https://x.com/Machinelearrn/status/2054673182842663094
👍50🤣39🔥109
⚡️ Вышел PyTorch 2.12,

Что завезли:


- batched linalg.eigh на CUDA теперь может работать до 100x быстрее
- появился новый torch.accelerator.Graph для graph capture и replay на разных ускорителях
- torch.export.save получил поддержку Microscaling quantization
- Adagrad теперь умеет fused=True
- улучшили distributed training, export и поддержку ROCm
- релиз собран из 2926 коммитов от 457 контрибьюторов

PyTorch всё сильнее уходит от «удобного фреймворка для ресёрча» к универсальной платформе для обучения, инференса и деплоя на разном железе.

Особенно интересен torch.accelerator.Graph. Это шаг к более нормальной абстракции над CUDA, XPU и внешними backend-ами, чтобы код меньше зависел от конкретного ускорителя.

А ускорение linalg.eigh до 100x - хороший пример того, как одна внутренняя замена backend-логики может превратить минуты ожидания в секунды.

pytorch.org/blog/pytorch-2-12-release-blog

#PyTorch #OpenSourceAI #MachineLearning #AIInfrastructure
👍1311🔥6🥱2
📌 H200 вроде разрешили. Но Китай их так и не получил

США дали добро примерно десяти китайским компаниям на покупку Nvidia H200. В списке Alibaba, Tencent, ByteDance, JD и другие.

Формально Вашингтон сделал шаг навстречу. По факту H200 остаются разменной монетой в переговорах с Пекином. Можно показывать прогресс, но не отдавать главное, пока Китай не уступит в других вопросах - от редкозёмов до торговли и Тайваня.

Хуанг в этой истории тоже не просто пассажир делегации. Глава Nvidia стал частью торга, потому что сейчас GPU - это уже не товар, а политический рычаг.

Но тормозить может и сам Китай. Пекин месяцами давит на свои компании, чтобы те переходили на Huawei Ascend и локальные кластеры. Массовая закупка H200 выглядела бы как откат назад: опять зависимость от американского железа, от которой Китай пытается уйти.

В итоге подвешенное состояние устраивает почти всех.

США могут сказать, что разрешили поставки. Китай может сказать, что не спешит покупать. Nvidia ждёт. Рынок гадает.

Пока поставок ноль, это не торговля. Это переговоры, замаскированные под сделку.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥43🥱2
Пацаны, ещё есть время переучиться
31😁25🔥6👌6👍2
начальник в прошлом году / начальник сейчас
❤‍🔥12😁64👏4