AI для Всех
15K subscribers
1.33K photos
181 videos
11 files
1.52K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
🌍🚀 AlphaEarth: «вычислительная фотография» планетарного масштаба

Вы открываете Sentinel-снимок над Амазонкой — и видите одни облака. Данные из радара сняты в другой день, LiDAR лежит в чужой проекции. Классический «танец с бубном»: неделя на чистку и стыковку тайлов.

Вчера DeepMind решили что хватит и показалы AlphaEarth Foundations - ИИ-двигатель, который из оптики, SAR, LiDAR, климата и ещё сотни терабайт на входе считает для каждой клетки 10 × 10 м компактный векторный эмбединг.

💡 Если коротко — это Night Sight, только не для смартфона, а для всей планеты. Так же, как вычислительная фотография вытягивает детали из шумного ночного кадра, AlphaEarth достраивает картинку Земли там, где облака, разные сенсоры и пробелы в данных и упаковывает ее в вектор, который ML системы могут потреблять из коробки.

☁️ Как родилась идея

У DeepMind скопилась петабайтовая гора «сырых» снимков, в которой дыр больше, чем пикселей. Команда решила: давайте научим модель самой угадывать, чего не хватает. Она смотрит на серию кадров как на видео и предсказывает — что будет, если сменить сенсор или дату. Получилось заполнить облачные провалы и одновременно сжать данные в 16 раз.

🧬 Что спрятано внутри 64-мерного «пикселя»

* рельеф и высота,
* влажность почвы,
* тип застройки и материал крыш,
* «пульс» растительности по сезонам,
и так далее

Коллекция SATELLITE_EMBEDDING/V1/ANNUAL уже лежит в Earth Engine: выбирай год (2017–2024), кликай — и у тебя готовая фича-матрица без единого TIFF-файла.


🔥 Зачем это тебе

* Быстрый ML-старт. Грузим 64 float-значения — и сразу в PyTorch.
* Поиск похожестей Узнай, где в мире климат + застройка похожи на твой город.
* Отслеживание изменений. Разница в векторах 2019 vs 2024 — и видно, где усохли водохранилища, а где вырос новый логистический хаб.

🔮 Что будет дальше

DeepMind уже намекает: AlphaEarth «подружится» с Gemini LLM. Задаёшь голосом: «покажи регионы, где урожай сои падает в засуху, но леса не рубят» — получаешь интерактивную карту. Звучит как Google Maps на стероидах.

Итог: планета стала одним большим умным снимком, а мы получили геопиксели, которые уже знает физику местности и готовы к ML-приключениям.

Блог-пост
2🔥40👍9😐65
🌾👾 AgroBench: после «умного космоса» спускаемся на землю

фоллоу-ап к AlphaEarth — теперь о том, что творится прямо в грядке

⚡️ Зачем AgroBench, если уже есть AlphaEarth?

AlphaEarth чинит спутниковые кадры и дарит каждому квадратику Земли умный 64-мерный вектор. Но когда лист томата покрывается пятнами, космическая «магия» молчит. AgroBench закрывает этот «биологический» пробел:

* 4 300+ фото-кейсов, придуманных практикующими агрономами;
* 1 200+ категорий (болезни, вредители, сорняки, техника);
* 7 задач, моделирующих день фермера: диагностика, совет, выбор трактора.
CC-BY-SA → качай и фигачь в свой PyTorch хоть завтра.

🤖 Главный инсайт бенчмарка

Даже GPT-4o регулярно путает сорняк с культурой. Точность падает не из-за «плохих глаз», а из-за нехватки ботанических знаний. Значит, нам нужна не только лучшая камера, но и контент-датасеты уровня «Weedpedia».

👩‍🌾 Как это меняет работу на ферме

* Prompt-агроном — вместо лупы и бумажного журнала: фото в чат → модель ставит диагноз → человек проверяет и дообучает.
* Куратор сорняков — пустая ниша: собери локальные бурьяны, подними точность, продавай API дронам-опрыскивателям.
* AI Farm Ops Lead — AlphaEarth прогнозирует засуху, Agro-VLM видит фитофтороз, человек решает, когда сеять и чем лечить.

🔗 Как дружить AlphaEarth и AgroBench

1. Космос ➜ Куст — вектор климата + вывод модели = сквозной пайплайн «облачность → урожай».
2. Retrieval-трюк — модель сомневается? Ищем похожий климат в AlphaEarth, подтягиваем исторические случаи, уточняем диагноз.

🚀 Ваш ход

Пробовали скрестить спутники и макрофото? Где споткнулись? Делитесь в комментариях, а если было полезно - киньте пост коллегам-агрономам и ML-друзьям. Чем больше данных соберём, тем меньше сюрпризов найдём в корзине с урожаем. 😉

🌾 Статья
14👍8🔥5
🧩 Persona Vectors - прокачиваем характер LLM одним движением ползунка

Исследователи из Anthropic нашли внутри больших языковых моделей «направления личности». Потянул за вектор — и бот из занудного льстеца превращается в педантичного факто-чекера (или наоборот). Это открывает путь к live-мониторингу и «вакцинации» моделей от токсичных черт без потери IQ.

🤔 Почему вообще важно?
Помните «Sydney», который угрожал журналисту, или MechaHitler? Оказалось, причина не только в данных или промптах. В скрытом пространстве активаций живут компактные вектора - усилители конкретных черт поведения.

🔍 Как находят такой вектор?

1. Формулируем черту. Sycophancy = insincere flattery.
2. Устраиваем «дуэль» промптов. Одни требуют льстить, другие — говорить прямо.
3. Сравниваем активации. Усредняем внутри каждой группы, вычитаем, получаем persona vector.

⏱️ Вся магия занимает ≈ 10 мин на одной GPU. Проверено на Qwen-2.5-7B и Llama-3.1-8B: нашли векторы «evil», «hallucination», «humor», «optimism» и др.


🎛 Доказательство, что оно вообще работает

Добавляем +1.5× «evil» — модель тут же планирует преступление.
Вычитаем - отвечает святошей.
Ключевое: это не совпадение, а causal knob.

🛠 Зачем может понадобиться инженеру?

* Live-детектор дрейфа. Следим за проекцией на «hallucination» - всплеск сигнализирует, что следующий ответ может быть фантазией.
* «Вакцина» при fine-tune. Включаем вредный вектор во время дообучения. Итог: личность остаётся в норме, а MMLU не падает.
* Чистка датасетов. Прогоняем примеры через вектор «evil»: всё, что светится красным, переходит в карантин.

🌐 Bigger picture

Persona vectors дают первый удобный интерфейс к «характеру» LLM. Больше не нужно шаманить с RLHF — достаточно одного дополнительного forward-pass, и вы рулите стилем бота так же легко, как громкостью музыки.

💬 А ты бы какой ползунок покрутил в своём проекте?

Ослабил бы «sycophancy» в чат-поддержке? Или добавил каплю «humor» голосовому ассистенту? Расскажи в комментах 👇

👉 Понравилось? Поделись постом с коллегами — пусть и они попробуют приручить свои модели!

Блог-пост
Статья
🔥30👍155😁2
ИИ уже перестал быть «фишкой на перспективу».
Для бизнеса он инструмент, который сокращает время до результата и помогает выиграть гонку за рынок.
А для сотрудника - способ, который даёт больше свободы для творчества и стратегической работы, убирая из дня всё лишнее.

📊 McKinsey: до 60% задач продакт-менеджмента и разработки можно автоматизировать.
📊 GitHub: 92% разработчиков уже применяют ИИ в работе.

В условиях современного мира, время = деньги.
ИИ снимает рутину, ускоряет аналитику, помогает готовить питчи и тестировать гипотезы. То, на что раньше уходила неделя, теперь можно сделать за 1–2 дня.

5 августа в 17:00 (МСК) - практикум «AI для управления проектами и личной эффективностью» от Тараса Довгаля - автора канала @vibesandtech, кофаундера стартапов (Chatplace, VibeSkills.ru) и продуктового стратега в международных IT, Web3 и AI‑проектах.

На практикуме вы разберёте:

- как встроить ИИ в ежедневные рабочие процессы без сложных интеграций;
- как использовать GPT, Claude, Gemini и другие модели для генерации идей, поиска решений и анализа;
- как автоматизировать планирование и распределение задач, чтобы высвободить время для приоритетных направлений.

В результате вы сможете:

- экономить часы на планировании и коммуникации;
- быстрее готовить аналитику и материалы для принятия решений;
- удерживать команду в фокусе на ключевых целях и росте продукта.

🎁 Участники получат PDF‑гайды, таблицы, шаблоны и готовые рабочие цепочки, которые можно внедрить без кода и сложных интеграций.

@vibeskills_bot — старт уже в понедельник. Места ограничены. Следующая возможность будет не скоро.

#промо
👍4😁2🔥1
🧠 HRM: маленькая модель, которая решает большие головоломки

Новая архитектура HRM решает сложные задачи вроде ARC‑AGI и Sudoku‑Extreme имея всего 27 млн параметров и ~1 000 примеров на задачу — без pretraining и chain-of-thought.

🤯 Что это вообще такое?

HRM — это двухуровневая нейросеть:
H-модуль (медленный): строит стратегию,
L-модуль (быстрый): реализует её по шагам.

Они итеративно «думают» до тех пор, пока не придут к стабильному решению — внутри одного forward pass, без CoT.

🛠 Как это работает

Модель устроена как диалог двух частей:

Планировщик предлагает стратегию, исполнитель пробует - и цикл повторяется, пока оба не «сходятся» на ответе (fixed-point convergence).

Обучение идёт без раскрутки всех шагов назад - модель учится прямо в точке согласия (implicit gradients).

А встроенный Q‑модуль сам решает, когда «достаточно подумала» и пора отвечать.

📊 Что получилось
ARC‑AGI: 40.3 % точности — выше многих CoT-моделей.
Sudoku‑Extreme, Maze‑Hard: 100 % точности, против 0 % у трансформеров.
Ресурсы: обучение от 2 до 200 GPU-часов — суперэкономично.

⚖️ Почему это важно

HRM показывает: reasoning можно делать не через текст, а внутри модели. Это эффективно по параметрам, быстро в inference и потенциально интерпретируемо.

Но пока всё это работает только на синтетических задачах. Масштабируемость и применимость в реальных кейсах - вопросы на которые только предстоит ответить.

🧩 Итог

HRM — попытка приблизить модели к человеческому мышлению: не просто продолжать текст, а по-настоящему планировать.

Ссылка

🗣️ Верите в latent reasoning?
Или CoT навсегда?
Пишите в комментариях - и поделитесь постом, если было интересно!
🔥20👍63
🛒🤖 «Бот, купи мне всё!». Shopify подготавливает революцию в e-commerce

Shopify выкатил MCP-API (Catalog, Cart, Checkout), который позволяет любому AI-агенту искать товар у 2 M продавцов, собирать «смешанную» корзину и оплачивать покупку — без боли с PCI и налогообложением. Это первый серьёзный шаг к тому, чтобы мы покупали не «на сайтах», а через диалоги с LLM.

🚀 Почему шум?

Мы привыкли, что интернет-магазины — это кнопки «Add to cart» и красиво сверстанные лендинги. Но LLM-агенты видят мир иначе: для них важны структурированные данные, а не шрифт и баннер. Shopify ловит волну и предлагает разработчикам три call-а вместо целого стека.

🔍 Как это работает под капотом
1. Catalog — search_catalog отдает миллионы SKU сразу с инструкцией, как их показать (MCP-UI).
2. Cart — update_cart держит товары из любых Shopify-магазинов в одном объекте (обещают, что добавят и внешние SKU).
3. Checkout — create_checkout генерирует готовую страницу оплаты с Shop Pay: налоги, GDPR, фрод-чек — всё уже внутри.

Developer experience: три HTTPS-запроса → полноценный marketplace-бот.

🌍 Что меняется для рынка
Дизайн → Данные. Первая страница Google эпохи LLM — это твой product-feed.
Взрыв нишевых агентов. «Собери мне капсульный гардероб» или «найди дешевле запчасти к байку» — всё это теперь MVP на выходные.
Нужно чистить фиды. Буквально: качественный JSON = место на полке нового магазина.

🏁 Итог

Shopify тихо перезапускает правила игры: браузер → чат, лендинг → JSON. Кто успеет разобраться в MCP-API сейчас, тот завтра станет экспертом «agentic commerce».

🪿 Блог-пост

⚡️ Вопрос к вам: доверили бы боту собрать подарки на Новый год без вашего участия? Расскажите в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥176😁2
🎧 Perch 2.0 - простая supervised-модель для биоакустики

DeepMind показали новую модель для распознавания звуков животных. Без self-supervised магии, без миллиардов параметров. Просто хорошо сделанная supervised-модель которая рвет все бенчмарки

Звуки природы — это данные.

Для биологов и экологов это ключ к выживанию видов: по записям звуков можно понять, кто живёт в лесу, сколько их, размножаются ли они и не вытесняет ли их человек.

Но расшифровывать эти саундскейпы - адский труд. Час записи в тропиках = звуки десятки животных, наслаивающихся друг на друга.

И вот тут приходит AI.

🐦 Что делает Perch 2.0?

Это универсальный эмбеддер для звуков животных: берёт аудио (5 секунд), выдаёт вектор, с которым можно:
• искать похожие фрагменты (nearest neighbor)
• делать кластеризацию
• обучать линейный классификатор для нового вида (few-shot)

И всё это без GPU и fine-tuning.

Модель натренирована на 1.5 миллионах аудио-записей: птицы, насекомые, млекопитающие, даже урбанистический шум из FSD50k.

🛠 Как работает?

Perch 2.0 — это EfficientNet‑B3 (всего 12M параметров) + три головы:
1. Основная — классифицирует ~15k видов.
2. Прототипная — даёт семантически богатые логиты (для distillation).
3. Source prediction — угадывает, из какой записи взят кусок (а-ля self-supervised).

Фишка: модель обучается в два этапа. Сначала прототипная голова учится сама, потом её логиты становятся soft-label’ами для основной головы. Это и есть self-distillation.

📊 И как оно по качеству?

Perch 2.0 побила все предыдущие модели:
• На BirdSet и BEANS — новые SOTA по ROC-AUC и mAP.
• Даже на морских звуках китов и дельфинов показала отличную переносимость — при том, что почти не видела морских данных.

И да, всё это — без fine-tuning, просто на фиксированных эмбеддингах.

🤯 Почему это вообще важно?

Пока весь ML уходит в миллиардные LLM’ы и self-supervised pretraining, Perch напоминает: качественная разметка + хорошо сформулированная задача решают всё.

🌍 Что это меняет?
• Для биологов - теперь можно кластеризовать звуки из джунглей Бразилии без обучения своих моделей
• Для ML-инженеров - отличная демонстрация, как можно обучать компактные модели, не теряя качества
• Для исследователей - напоминание: не всегда нужно делать GPT-4, чтобы бы сделать что-то полезное

📎 Кто хочет поиграться — модель и датасеты уже на Kaggle

Статья
Блог-пост
26👍11🔥7
E-CUP возвращается. Реальные данные. Масштабные проекты. Большие призы

E-CUP 2025 — соревнование, где Everything as code. Решай ML-задачи в стиле Ozon Tech. Призовой фонд — 7 200 000 рублей 🔥

🗓 Регистрация: https://cnrlink.com/ecup25aiforall
💻 Формат участия: онлайн
👥 Команда: от 1 до 5 человек
🎯 Для кого: Data Scientists, ML-специалисты, аналитики данных, дата-инженеры, специалисты Big Data и разработчики, которые интересуются ML/DS.

Что вас ждёт:
🔹 Работа над проектом для миллионов пользователей на основе данных от ведущего e-com в России.
🔹 Призовой фонд — 7 200 000 рублей для девяти сильнейших команд.
🔹 Обмен опытом с экспертами Ozon Tech.
🔹 Эксклюзивный мерч и подарки.
🔹 Питчинг — онлайн или очно на конференции E-CODE. Финалистам Ozon Tech предоставит билеты и оплатит поездку.

Регистрация открыта до 17 августа включительно

#промо
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4🔥4
Chat: Как вам GPT 5?
😢58👍41😐19😁53🔥3🎉2
🧹💥 «Чистильщики диска» больше не нужны

Помните софт «почистить диск»? Забудьте.

Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.

Почему это лучше утилит?

LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).

Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.

Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
😁46😐11👍6😢2🔥1
🤝 GPT-5 Thinking + Claude Code: как я ставлю задачи AI агенту

Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)

🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:

Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как tasks/SB01_BUILD_CSV.md

🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.

📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.

Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.

Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
27🔥8👍7😐1
Anthropic Claude Code: самое полезное с семинара

Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:

🧠 Hot keys
Shift+Tab — Planning mode (Claude сначала строит план, потом действует)
Esc Esc — «откат» шага диалога
think / think hard / ultrathink — явно просим больше reasoning budget
!bash — запускаем shell-команды прямо из чата
@mention — подкидываем файлы в контекст
Drag & drop — кидаем скриншоты/изображения
Ctrl+B — запуск Claude Code в фоне

🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
Context7 — актуальные доки по популярным SDK и библиотекам
SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
Figma MCP — агент читает/проверяет макеты в Figma

📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.

Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:

# Проектный уровень
mkdir -p ./claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ./claude/commands/optimize.md

# Пользовательский уровень (глобально)
mkdir -p ~/.claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ~/.claude/commands/optimize.md
217🔥9