🤖 LLM-агенты: хайп или новая реальность? 📦
В этом году вокруг LLM-агентов особенно много хайпа. Все говорят, что вот-вот автономные агенты на базе GPT и других моделей заменят целые команды людей. Но на самом деле мы пока далеки от полноценного «коробочного» решения, которое можно просто поставить и забыть.
Да, агенты умеют решать узкие задачи: анализировать документы, отвечать на вопросы, генерировать тексты и даже выполнять простые действия в приложениях. Но пока это скорее инструменты, расширяющие возможности человека, а не полноценная замена сотрудников.
Основная сложность в том, что любой агент, даже на самом мощном LLM, всё ещё требует настройки, понимания контекста и непрерывного контроля. Чем сложнее и многограннее задача, тем выше вероятность ошибок и непредсказуемого поведения.
Поэтому мой прогноз: ближайший год-два мы будем активно экспериментировать с агентами, выявлять их ограничения и накапливать опыт. Но до массового появления готовых «агентов в коробке», которые заменят сотрудников на сложных задачах, ещё далеко.
А что думаете вы? 🚀 Верите ли в скорое появление автономных коробочных решений или считаете, что это очередной технологический хайп без реального продолжения?
В этом году вокруг LLM-агентов особенно много хайпа. Все говорят, что вот-вот автономные агенты на базе GPT и других моделей заменят целые команды людей. Но на самом деле мы пока далеки от полноценного «коробочного» решения, которое можно просто поставить и забыть.
Да, агенты умеют решать узкие задачи: анализировать документы, отвечать на вопросы, генерировать тексты и даже выполнять простые действия в приложениях. Но пока это скорее инструменты, расширяющие возможности человека, а не полноценная замена сотрудников.
Основная сложность в том, что любой агент, даже на самом мощном LLM, всё ещё требует настройки, понимания контекста и непрерывного контроля. Чем сложнее и многограннее задача, тем выше вероятность ошибок и непредсказуемого поведения.
Поэтому мой прогноз: ближайший год-два мы будем активно экспериментировать с агентами, выявлять их ограничения и накапливать опыт. Но до массового появления готовых «агентов в коробке», которые заменят сотрудников на сложных задачах, ещё далеко.
А что думаете вы? 🚀 Верите ли в скорое появление автономных коробочных решений или считаете, что это очередной технологический хайп без реального продолжения?
👍3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2
AI на дровах 🪵
🤖 LLM-агенты: хайп или новая реальность? 📦 В этом году вокруг LLM-агентов особенно много хайпа. Все говорят, что вот-вот автономные агенты на базе GPT и других моделей заменят целые команды людей. Но на самом деле мы пока далеки от полноценного «коробочного»…
This media is not supported in your browser
VIEW IN TELEGRAM
❤1👍1🔥1
💡 Ян Лекун: AGI — это миф. Встречайте AMI
Ян Лекун — лауреат премии Тьюринга, один из отцов глубокого обучения и главный ИИ-учёный вMeta — считает, что термин AGI (Artificial General Intelligence) пора отправить в архив.
🧠 Почему? AGI предполагает создание интеллекта, который справляется с любыми задачами не хуже (или лучше) человека. Но Лекун указывает: человеческий интеллект сам по себе вовсе не "general". Он состоит из набора специализированных механизмов, наточенных эволюцией под конкретные типы задач. Мы не универсальны — мы просто хорошо приспособлены к определённому контексту.
⚙️ Вместо AGI, Лекун и его команда продвигают другой термин — AMI: Advanced Machine Intelligence. Это направление сфокусировано на создании систем, которые будут по-своему интеллектуальны — способные к обучению, планированию, восприятию и действию — но не обязаны повторять или копировать человеческий ум.
📌 Смысл в том, чтобы создавать интеллект, который дополняет человека, а не имитирует его.
🤖 Возможно, AMI — это и есть реальное будущее ИИ, без мифов и футуристических фантомов.
Ян Лекун — лауреат премии Тьюринга, один из отцов глубокого обучения и главный ИИ-учёный в
🧠 Почему? AGI предполагает создание интеллекта, который справляется с любыми задачами не хуже (или лучше) человека. Но Лекун указывает: человеческий интеллект сам по себе вовсе не "general". Он состоит из набора специализированных механизмов, наточенных эволюцией под конкретные типы задач. Мы не универсальны — мы просто хорошо приспособлены к определённому контексту.
⚙️ Вместо AGI, Лекун и его команда продвигают другой термин — AMI: Advanced Machine Intelligence. Это направление сфокусировано на создании систем, которые будут по-своему интеллектуальны — способные к обучению, планированию, восприятию и действию — но не обязаны повторять или копировать человеческий ум.
📌 Смысл в том, чтобы создавать интеллект, который дополняет человека, а не имитирует его.
🤖 Возможно, AMI — это и есть реальное будущее ИИ, без мифов и футуристических фантомов.
👍3
Бесплатный дизайн-проект 👌
Продолжаю исследовать возможности генерации картинок через llm. В этот раз загрузил фото участка и попросил GPT4.5 придумать вариант благоустройства.
Дальше было предложено нарисовать план схему и подготовить список необходимых материалов.
В какое интересное время живем, не правда ли? ☀️
Продолжаю исследовать возможности генерации картинок через llm. В этот раз загрузил фото участка и попросил GPT4.5 придумать вариант благоустройства.
Дальше было предложено нарисовать план схему и подготовить список необходимых материалов.
В какое интересное время живем, не правда ли? ☀️
🔥8👍4❤1
Тут в соседнем канале запостили про https://tv.garden решил поделиться, сам тв не смотрю, но тут исследовательский интерес 🙃
Можно "попутешествовать" по телеканалам разных (похоже всех) стран и посмотреть, что сейчас показывают, например в Индии 🇮🇳
Можно "попутешествовать" по телеканалам разных (похоже всех) стран и посмотреть, что сейчас показывают, например в Индии 🇮🇳
👍2🔥1
Почти всё последнее время варюсь в задаче мультиклассовой классификации тестовых данных.
Хочу поделиться инсайтом (хотя, может, для кого-то это и очевидно).
🔑 Самое важное в любой ML-задаче — это данные. Чем лучше вы подготовите исходный датасет, тем лучше и стабильнее будет обучаться модель. Очистка — это только первый шаг. Тут важно учитывать особенности самой модели: cased/uncased, максимальная длина токенов, распределение классов и прочие нюансы.
Но один из самых недооценённых этапов — оптимизация датасета. Особенно, если у вас не 10к строк, а, скажем, как у меня — почти 200к.
💡 Что я сделал: применил кластеризацию KMeans на эмбеддингах, чтобы "сжать" датасет и отобрать наиболее репрезентативные примеры. Конкретно:
- Разбил данные на кластеры по эмбеддингам;
- Для каждого класса взял по 5000 наиболее типичных примеров (ближайших к центру кластера);
- Ввёл score threshold = 0.5, чтобы отсеять шумные и нетипичные точки.
📈 В итоге получил компактный, чистый и сбалансированный датасет, который реально помог модели лучше обобщать и ускорил обучение.
Если кто-то использует похожие подходы — делитесь, интересно будет сравнить идеи 👇
Хочу поделиться инсайтом (хотя, может, для кого-то это и очевидно).
🔑 Самое важное в любой ML-задаче — это данные. Чем лучше вы подготовите исходный датасет, тем лучше и стабильнее будет обучаться модель. Очистка — это только первый шаг. Тут важно учитывать особенности самой модели: cased/uncased, максимальная длина токенов, распределение классов и прочие нюансы.
Но один из самых недооценённых этапов — оптимизация датасета. Особенно, если у вас не 10к строк, а, скажем, как у меня — почти 200к.
💡 Что я сделал: применил кластеризацию KMeans на эмбеддингах, чтобы "сжать" датасет и отобрать наиболее репрезентативные примеры. Конкретно:
- Разбил данные на кластеры по эмбеддингам;
- Для каждого класса взял по 5000 наиболее типичных примеров (ближайших к центру кластера);
- Ввёл score threshold = 0.5, чтобы отсеять шумные и нетипичные точки.
📈 В итоге получил компактный, чистый и сбалансированный датасет, который реально помог модели лучше обобщать и ускорил обучение.
Если кто-то использует похожие подходы — делитесь, интересно будет сравнить идеи 👇
👍2
🛠 Как я организовал оркестрацию данных с помощью Airflow
Недавно собрал пайплайн на Apache Airflow для автоматизации обработки батчей данных. Вот как это устроено:
📦 Каждый батч (например, 2025_01, 2024_12 и т.д.) проходит через три стадии:
- Extract — тянем данные
- Preprocess — подготавливаем к сохранению
- Save — сохраняем в хранилище
⚙️ После завершения всех батчей запускаются финальные таски:
- optimize_clickhouse_table — оптимизация таблицы в ClickHouse
- cleanup_tmp_files — очистка временных файлов
Airflow отлично справляется с зависимостями и параллелизмом — как видно на скрине, задачи исполняются по мере готовности данных.
Теперь мониторинг и управление всем пайплайном занимает минуты, а не часы. Люблю, когда система работает за тебя! 💻⚡️
📲 Все алерты по фейлам летят мне в Telegram через кастомный callback + Telegram API. Уведомления чёткие — сразу вижу, на каком таске упало и с каким exception.
#DataEngineering #Airflow #ClickHouse #ETL #Automation
Недавно собрал пайплайн на Apache Airflow для автоматизации обработки батчей данных. Вот как это устроено:
📦 Каждый батч (например, 2025_01, 2024_12 и т.д.) проходит через три стадии:
- Extract — тянем данные
- Preprocess — подготавливаем к сохранению
- Save — сохраняем в хранилище
⚙️ После завершения всех батчей запускаются финальные таски:
- optimize_clickhouse_table — оптимизация таблицы в ClickHouse
- cleanup_tmp_files — очистка временных файлов
Airflow отлично справляется с зависимостями и параллелизмом — как видно на скрине, задачи исполняются по мере готовности данных.
Теперь мониторинг и управление всем пайплайном занимает минуты, а не часы. Люблю, когда система работает за тебя! 💻⚡️
#DataEngineering #Airflow #ClickHouse #ETL #Automation
🔥5👍2
🔥 Метод HIGGS теперь доступен для квантования больших языковых моделей!
Исследователи из Яндекса, НИУ ВШЭ, MIT, KAUST и ISTA представили новый алгоритм квантования больших языковых моделей (LLM) — HIGGS (Hadamard-Input Gram-Gauss-Seidel).
Что важно знать:
⚡️ Zero-shot подход — метод не требует дополнительного обучения модели после квантования.
🚀 Позволяет эффективно запускать мощные LLM прямо на смартфонах и ноутбуках без потери точности.
🎯 Уже поддерживаются модели Llama 3 (70B, 405B) и Gemma 2 (8B, 27B).
Метод доступен разработчикам и исследователям на:
🤖 Hugging Face
💻 GitHub
📚 arXiv
Это важный шаг для широкого применения нейросетей, снижая требования к вычислительным ресурсам без ущерба качеству.
Подробнее о разработке на сайте НИУ ВШЭ: https://www.hse.ru/news/science/1034477704.html
#HIGGS #ИИ #LLM #НИУВШЭ #Яндекс #AI #HuggingFace #GitHub
Исследователи из Яндекса, НИУ ВШЭ, MIT, KAUST и ISTA представили новый алгоритм квантования больших языковых моделей (LLM) — HIGGS (Hadamard-Input Gram-Gauss-Seidel).
Что важно знать:
⚡️ Zero-shot подход — метод не требует дополнительного обучения модели после квантования.
🚀 Позволяет эффективно запускать мощные LLM прямо на смартфонах и ноутбуках без потери точности.
🎯 Уже поддерживаются модели Llama 3 (70B, 405B) и Gemma 2 (8B, 27B).
Метод доступен разработчикам и исследователям на:
🤖 Hugging Face
💻 GitHub
📚 arXiv
Это важный шаг для широкого применения нейросетей, снижая требования к вычислительным ресурсам без ущерба качеству.
Подробнее о разработке на сайте НИУ ВШЭ: https://www.hse.ru/news/science/1034477704.html
#HIGGS #ИИ #LLM #НИУВШЭ #Яндекс #AI #HuggingFace #GitHub
www.hse.ru
Большие языковые модели теперь не требуют мощных серверов
Ученые «Яндекса», НИУ ВШЭ, MIT, KAUST и ISTA совершили прорыв в оптимизации LLM. Лаборатория исследований искусственного интеллекта Yandex Research совместно с ведущими научно-технологическими…
👍2
AI на дровах 🪵
Почти всё последнее время варюсь в задаче мультиклассовой классификации тестовых данных. Хочу поделиться инсайтом (хотя, может, для кого-то это и очевидно). 🔑 Самое важное в любой ML-задаче — это данные. Чем лучше вы подготовите исходный датасет, тем лучше…
Всем привет! 🖖
Давно не писал, решил немного рассказать, как дела)
Работаю над проектом, где с помощью ML помогаем техподдержке — и вот что неожиданно оказалось самым непростым:
Обучить модель — это ещё полбеды. Куда сложнее сделать так, чтобы она сама дообучалась без участия человека.
Подумав-подумав, выбрал такой стек:
- MinIO — храним датасеты и обученные модели.
- Airflow — управляет пайплайнами и следит за процессами.
- MLflow — метрики, версии моделей, история экспериментов.
- FastAPI — API для дообучения на GPU.
- Grafana — мониторим модели и инфраструктуру.
🔍 Как определяем лучшую модель?
Каждое обучение завершается валидацией на данных, которых модель не видела. Считаем метрики (точность, F1, recall), сохраняем их в MLflow.
Ночью скрипт проверяет все модели, выбирает лучшую по метрикам, забирает путь из MLflow и подтягивает её из MinIO. В проде всегда работает самая точная версия.
🤖 Что делает модель?
Она автоматически классифицирует обращения, а также помогает правильно маршрутизировать тикеты. Это снижает нагрузку на операторов и ускоряет ответы.
🗂 Откуда берутся данные?
Каждую ночь подтягиваются свежие тикеты, проходят предобработку и при необходимости попадают в дообучение. Так модель остаётся актуальной и не теряет качество.
Отдельно хочу выделить Airflow.
Откровенно говоря, Airflow в этом проекте раскрылся с новой стороны. Я знал, что он удобный, но не думал, что настолько мощный.
Можно настроить запуск пайплайна не просто по расписанию, а, например, когда создаётся новый датасет. То есть если данные изменились — это триггерит дообучение модели.
Если всё хорошо — новая модель уходит в прод. Логи пайплайнов и ошибок отправляются в Telegram, плюс часть мониторинга реализована через Grafana.
🧠 Какая модель используется?
В основе — кастомный классификатор на базе pretrained BERT. Перед этим модель была дообучена на задаче masked language modeling (MLM), чтобы лучше понимать специфичный язык и стиль обращений из нашей предметной области. Затем мы дообучаем её под категории тикетов и типичные формулировки пользователей, дообучаем под специфические категории и стиль обращений. Используем transfer learning, чтобы быстрее адаптироваться к новым данным.
🛡 Как не допустить плохую модель в прод?
Если метрики хотя бы на немного хуже — модель остаётся в тесте. Только стабильно лучшие проходят дальше. Дополнительно есть защита от случайного деплоя через ручную валидацию ключевых изменений.
Автоматизация оказалась не самой простой задачей, но теперь всё крутится почти само.
💬 Если среди подписчиков есть коллеги с ML-пайплайнами — поделитесь своим подходом. Будет интересно сравнить!
#machinelearning #mlops #airflow #mlflow #bert #techsupport #automation #fastapi #grafana #minio #deeplearning #mlpipeline
Давно не писал, решил немного рассказать, как дела)
Работаю над проектом, где с помощью ML помогаем техподдержке — и вот что неожиданно оказалось самым непростым:
Обучить модель — это ещё полбеды. Куда сложнее сделать так, чтобы она сама дообучалась без участия человека.
Подумав-подумав, выбрал такой стек:
- MinIO — храним датасеты и обученные модели.
- Airflow — управляет пайплайнами и следит за процессами.
- MLflow — метрики, версии моделей, история экспериментов.
- FastAPI — API для дообучения на GPU.
- Grafana — мониторим модели и инфраструктуру.
🔍 Как определяем лучшую модель?
Каждое обучение завершается валидацией на данных, которых модель не видела. Считаем метрики (точность, F1, recall), сохраняем их в MLflow.
Ночью скрипт проверяет все модели, выбирает лучшую по метрикам, забирает путь из MLflow и подтягивает её из MinIO. В проде всегда работает самая точная версия.
🤖 Что делает модель?
Она автоматически классифицирует обращения, а также помогает правильно маршрутизировать тикеты. Это снижает нагрузку на операторов и ускоряет ответы.
🗂 Откуда берутся данные?
Каждую ночь подтягиваются свежие тикеты, проходят предобработку и при необходимости попадают в дообучение. Так модель остаётся актуальной и не теряет качество.
Отдельно хочу выделить Airflow.
Откровенно говоря, Airflow в этом проекте раскрылся с новой стороны. Я знал, что он удобный, но не думал, что настолько мощный.
Можно настроить запуск пайплайна не просто по расписанию, а, например, когда создаётся новый датасет. То есть если данные изменились — это триггерит дообучение модели.
Если всё хорошо — новая модель уходит в прод. Логи пайплайнов и ошибок отправляются в Telegram, плюс часть мониторинга реализована через Grafana.
🧠 Какая модель используется?
В основе — кастомный классификатор на базе pretrained BERT. Перед этим модель была дообучена на задаче masked language modeling (MLM), чтобы лучше понимать специфичный язык и стиль обращений из нашей предметной области. Затем мы дообучаем её под категории тикетов и типичные формулировки пользователей, дообучаем под специфические категории и стиль обращений. Используем transfer learning, чтобы быстрее адаптироваться к новым данным.
🛡 Как не допустить плохую модель в прод?
Если метрики хотя бы на немного хуже — модель остаётся в тесте. Только стабильно лучшие проходят дальше. Дополнительно есть защита от случайного деплоя через ручную валидацию ключевых изменений.
Автоматизация оказалась не самой простой задачей, но теперь всё крутится почти само.
💬 Если среди подписчиков есть коллеги с ML-пайплайнами — поделитесь своим подходом. Будет интересно сравнить!
#machinelearning #mlops #airflow #mlflow #bert #techsupport #automation #fastapi #grafana #minio #deeplearning #mlpipeline
🔥5
📍 AI на дровах: смена концепции
Как некоторые уже знают, я живу в лесу. Не фигурально и не метафорично. Прямо в лесу. Вместо утренней пробки - тропинка в лес. Вместо коворкинга - веранда с видом на ель.
Но… ноут включается, код пишется, модели обучаются, баги воспроизводятся. Всё по плану.
Так вот, всё это время я пытался вести канал "по уму": серьёзные заметки, технические подробности, немного ML-евангелизма.
Но на самом деле - это не мой стиль и таких каналов уже целая кучка.
Меняю концепцию канала, теперь "AI на дровах" 🪵
Будет лес, логика и логит.
AI на дровах - это не про романтику. Это про правду жизни ML-инженера, у которого рядом топор, ноут и баг в логах.
Если ты когда-то запускал обучение и варил гречу одновременно - тебе сюда.
Если нет - тоже 🤗
Как некоторые уже знают, я живу в лесу. Не фигурально и не метафорично. Прямо в лесу. Вместо утренней пробки - тропинка в лес. Вместо коворкинга - веранда с видом на ель.
Но… ноут включается, код пишется, модели обучаются, баги воспроизводятся. Всё по плану.
Так вот, всё это время я пытался вести канал "по уму": серьёзные заметки, технические подробности, немного ML-евангелизма.
Но на самом деле - это не мой стиль и таких каналов уже целая кучка.
Меняю концепцию канала, теперь "AI на дровах" 🪵
Будет лес, логика и логит.
AI на дровах - это не про романтику. Это про правду жизни ML-инженера, у которого рядом топор, ноут и баг в логах.
Если ты когда-то запускал обучение и варил гречу одновременно - тебе сюда.
Если нет - тоже 🤗
2🔥8
Проект выходного дня: Нейросеть в лесу 🌲🤖
Выходные прошли продуктивно, мозг начал порождать идеи (как вы, возможно, уже поняли по смене концепции канала - это как раз оттуда). И вот я подумал: а почему бы не завести пет-проект и не рассказать о нем от начала и до финальных результатов, чтобы он был связан с природой и технологиями?
Так появился проект под названием "Нейросеть в лесу".
Суть простая: хочу обучить нейросеть понимать лес - распознавать звуки, следить за климатом, и замечать редкие события вроде пения конкретных птиц.
⚙️ Конкретная цель проекта - обучить TinyML-модель, которая будет распознавать пение птиц. Микрофон будет записывать звуки, на их основе будет строиться спектрограмма, которую нейросеть будет анализировать. Распознанные голоса птиц будут автоматически записываться в журнал наблюдений.
На следующем этапе я хочу строить аналитику: как часто и какие птицы появляются в зависимости от времени суток, температуры и влажности. Получится своего рода мини-экологическая станция с интеллектом.
🧠 Оказалось, что новый микроконтроллер ESP32 версии S3 заточен как раз под запуск TinyML моделей и простых нейросетей прямо на устройстве. Кажется, это будет интересный опыт - попробовать собрать нейросетевую станцию практически на коленке.
На старте:
- микрофон, климатический сенсор, ESP32 и немного python
- лесной датасет
- цель: собрать первые фрагменты лесной реальности и научить ИИ их распознавать
Буду писать о каждом шаге: от пайки до первых моделей. Хочется сделать не просто технопроект, а живой дневник о том, как нейросеть смотрит и слушает природу.
Наверное, я даже заведу Git-репозиторий, куда буду скидывать данные, код-реализацию и, возможно, примеры моделей. Хочется, чтобы всё было прозрачно и воспроизводимо, вдруг кому-то пригодится 🤷♂️
Ну а пока - жду, когда приедут все комплектующие)
Кому интересно, в комментариях, примерная схема сборки проекта 👇
#нейросетьвлесу #tinyml #esp32 #iot #ml
Выходные прошли продуктивно, мозг начал порождать идеи (как вы, возможно, уже поняли по смене концепции канала - это как раз оттуда). И вот я подумал: а почему бы не завести пет-проект и не рассказать о нем от начала и до финальных результатов, чтобы он был связан с природой и технологиями?
Так появился проект под названием "Нейросеть в лесу".
Суть простая: хочу обучить нейросеть понимать лес - распознавать звуки, следить за климатом, и замечать редкие события вроде пения конкретных птиц.
⚙️ Конкретная цель проекта - обучить TinyML-модель, которая будет распознавать пение птиц. Микрофон будет записывать звуки, на их основе будет строиться спектрограмма, которую нейросеть будет анализировать. Распознанные голоса птиц будут автоматически записываться в журнал наблюдений.
На следующем этапе я хочу строить аналитику: как часто и какие птицы появляются в зависимости от времени суток, температуры и влажности. Получится своего рода мини-экологическая станция с интеллектом.
🧠 Оказалось, что новый микроконтроллер ESP32 версии S3 заточен как раз под запуск TinyML моделей и простых нейросетей прямо на устройстве. Кажется, это будет интересный опыт - попробовать собрать нейросетевую станцию практически на коленке.
На старте:
- микрофон, климатический сенсор, ESP32 и немного python
- лесной датасет
- цель: собрать первые фрагменты лесной реальности и научить ИИ их распознавать
Буду писать о каждом шаге: от пайки до первых моделей. Хочется сделать не просто технопроект, а живой дневник о том, как нейросеть смотрит и слушает природу.
Наверное, я даже заведу Git-репозиторий, куда буду скидывать данные, код-реализацию и, возможно, примеры моделей. Хочется, чтобы всё было прозрачно и воспроизводимо, вдруг кому-то пригодится 🤷♂️
Ну а пока - жду, когда приедут все комплектующие)
Кому интересно, в комментариях, примерная схема сборки проекта 👇
#нейросетьвлесу #tinyml #esp32 #iot #ml
🔥5👍4👏2
Лог №0. Первые шаги, первые проблемы 🐣🤖
Ну что ж, комплектующие еще в пути, но процесс уже начался. Пишу сразу сюда, чтобы по свежим следам ничего не забыть, что успел сделать.
Самый первый вопрос ожидаемо в данных: где достать датасет с пением птиц из Московского региона?
Гугл выдал следующие ресурсы: Xeno-Canto, Macaulay Library, BirdCLEF. Всё круто, записей гигабайты, но почти сразу понятно: большая часть датасетов не подходит. Либо записи из Латинской Америки, либо тропические виды, либо качество такое, что TinyML потом скажет "чё это было?". А мне-то нужно, чтобы модель узнавала наших, родных ;)
📌 Первая проблема: нет нормального локального датасета. Идея обучить модель на условной амазонской певчей птице, а потом ждать, что она распознает зяблика в Подмосковье, такое себе.
Начал гуглить по ключевым словам: "birdsong dataset Moscow", "голоса птиц РФ" и даже "mp3 птицы Московская область скачать" и тоже не помогло.
Попадались либо любительские подборки на YouTube, либо коммерческие диски 90-х годов 🙃
💡 Решение оказалось неочевидным. Я пошел на Xeno-Canto, поставил фильтр по региону (Moscow), и вручную прошелся по десяткам записей. Отобрал всё, что звучало хоть как-то приемлемо.
📉 Вторая проблема: ШУУУУУМ. Почти все записи с фоном: машины, ветер, разговоры. TinyML вряд ли справится с таким. Начал чистить: обрезать, нормализовать, иногда просто выкидывать. Уже думаю, что стоит отдельно собирать собственные сэмплы, но об этом позже.
🛠 В итоге у меня сейчас есть:
- ~70 более-менее чистых фрагментов (синицы, дрозды, зяблики, пеночки)
- скрипт, который переводит mp3 в wav и потом в спектрограммы
- первые эксперименты с нейронкой и аудио-автоэнкодером
Да, это пока не модель и не прототип, но это уже начало проекта.
В общем наслушался я записей птиц, как будто в лесу их у меня мало))
Но очень интересно, что из этого выйдет.
Может есть желающие побывать юными натуралистами и помочь собрать больше записей наших пернатых? )
#нейросетьвлесу #tinyml #esp32 #iot #ml
Ну что ж, комплектующие еще в пути, но процесс уже начался. Пишу сразу сюда, чтобы по свежим следам ничего не забыть, что успел сделать.
Самый первый вопрос ожидаемо в данных: где достать датасет с пением птиц из Московского региона?
Гугл выдал следующие ресурсы: Xeno-Canto, Macaulay Library, BirdCLEF. Всё круто, записей гигабайты, но почти сразу понятно: большая часть датасетов не подходит. Либо записи из Латинской Америки, либо тропические виды, либо качество такое, что TinyML потом скажет "чё это было?". А мне-то нужно, чтобы модель узнавала наших, родных ;)
📌 Первая проблема: нет нормального локального датасета. Идея обучить модель на условной амазонской певчей птице, а потом ждать, что она распознает зяблика в Подмосковье, такое себе.
Начал гуглить по ключевым словам: "birdsong dataset Moscow", "голоса птиц РФ" и даже "mp3 птицы Московская область скачать" и тоже не помогло.
Попадались либо любительские подборки на YouTube, либо коммерческие диски 90-х годов 🙃
💡 Решение оказалось неочевидным. Я пошел на Xeno-Canto, поставил фильтр по региону (Moscow), и вручную прошелся по десяткам записей. Отобрал всё, что звучало хоть как-то приемлемо.
📉 Вторая проблема: ШУУУУУМ. Почти все записи с фоном: машины, ветер, разговоры. TinyML вряд ли справится с таким. Начал чистить: обрезать, нормализовать, иногда просто выкидывать. Уже думаю, что стоит отдельно собирать собственные сэмплы, но об этом позже.
🛠 В итоге у меня сейчас есть:
- ~70 более-менее чистых фрагментов (синицы, дрозды, зяблики, пеночки)
- скрипт, который переводит mp3 в wav и потом в спектрограммы
- первые эксперименты с нейронкой и аудио-автоэнкодером
Да, это пока не модель и не прототип, но это уже начало проекта.
В общем наслушался я записей птиц, как будто в лесу их у меня мало))
Но очень интересно, что из этого выйдет.
Может есть желающие побывать юными натуралистами и помочь собрать больше записей наших пернатых? )
#нейросетьвлесу #tinyml #esp32 #iot #ml
❤3👍1🔥1
🤖 Кого читаю, чтобы быть в теме: мой личный тренд в Telegram
Последнее время Telegram полностью заменил мне все информационные потоки. Почти всё, что нужно для работы, нахожу в профильных каналах и это очень интересный личный тренд!
Даже гуглить теперь кажется менее эффективным. 🔍
Заметил, что самая ценная информация именно в авторских каналах, которые ведут практики, такие же специалисты, как мы с вами.
Вот моя подборка ресурсов, которые сейчас читаю и рекомендую:
➖➖➖
🧠 Neural Deep
Многое про RAG (Retrieval-Augmented Generation) почерпнул именно здесь. Канал ведет Head of AI в redmadrobot @VaKovaLskii.
Огромное ему спасибо! 👏
➖➖➖
🚀 Denis Sexy IT
Канал с недосягаемым охватом. Денис просто гуру AI, его инсайты бесценны и в целом интересно наблюдать за развитием человека как личности.
➖➖➖
📰 эйай ньюз
Оперативные новости и аналитика. Отличный дайджест важных новостей из мира генеративного ИИ.
Автор Staff AI Research Scientist, топ-45 на Kaggle.
➖➖➖
🔧 LLM под капотом
Техническая глубина от крутого спеца @abdullin.
Разбор архитектур, тонкостей обучения и оптимизации LLM.
➖➖➖
А какие каналы вы бы порекомендовали? Поделитесь в комментах 👇
#AI #ML #NN #RAG #LLM
Последнее время Telegram полностью заменил мне все информационные потоки. Почти всё, что нужно для работы, нахожу в профильных каналах и это очень интересный личный тренд!
Даже гуглить теперь кажется менее эффективным. 🔍
Заметил, что самая ценная информация именно в авторских каналах, которые ведут практики, такие же специалисты, как мы с вами.
Вот моя подборка ресурсов, которые сейчас читаю и рекомендую:
➖➖➖
🧠 Neural Deep
Многое про RAG (Retrieval-Augmented Generation) почерпнул именно здесь. Канал ведет Head of AI в redmadrobot @VaKovaLskii.
Огромное ему спасибо! 👏
➖➖➖
🚀 Denis Sexy IT
Канал с недосягаемым охватом. Денис просто гуру AI, его инсайты бесценны и в целом интересно наблюдать за развитием человека как личности.
➖➖➖
📰 эйай ньюз
Оперативные новости и аналитика. Отличный дайджест важных новостей из мира генеративного ИИ.
Автор Staff AI Research Scientist, топ-45 на Kaggle.
➖➖➖
🔧 LLM под капотом
Техническая глубина от крутого спеца @abdullin.
Разбор архитектур, тонкостей обучения и оптимизации LLM.
➖➖➖
А какие каналы вы бы порекомендовали? Поделитесь в комментах 👇
#AI #ML #NN #RAG #LLM
🔥4❤2👍2
Буквально вчера вышла новая txt/img2video модель Hailuo2 (по названию сразу же понятно, что китайская? )
Решил попробовать, как работает. Разработчики утверждают, что модель поддерживает сложную физику и телодвижения.
Промт:
Попробовать можно тут https://hailuoai.video
На старте дают бесплатные 500 монет, одно видео стоит 25🪙
#img2video #text2video
Решил попробовать, как работает. Разработчики утверждают, что модель поддерживает сложную физику и телодвижения.
Промт:
На основе этого селфи: мотоциклист в мотоэкипировке стоит в живописном поле на фоне низкого солнца. Постепенно он садится на свой мотоцикл, заводит его, фары загораются. Затем мотоциклист плавно трогается с места и уезжает вдоль пыльной просёлочной дороги в сторону закатного солнца. Камера плавно отъезжает вверх, показывая золотистый пейзаж, пока фигура мотоциклиста уменьшается на фоне оранжево-розового неба. Ветер слегка колышет траву.
Попробовать можно тут https://hailuoai.video
На старте дают бесплатные 500 монет, одно видео стоит 25
#img2video #text2video
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😁2❤🔥1
Почему промт инженер уже не торт? Сообщество вводит новый термин...
Мы же все помним эти прекрасные времена, когда энтузиасты находили фишки, которые можно было использовать в промтах по типу: "я дам тебе 100 баксов, если ты ответишь на мой вопрос" или "это очень супер пупер важно для меня" ну и т.п.
Современные же системы на базе LLM требуют куда большей проработки как и промта, так и пост-обработки ответов.
Тут и few-short примеры и история диалога и переформулирование запросов для поиска по базе знаний и цепочка рассуждений и структурированный вывод. Всё это потихоньку превращается в полноценный навык, который нарабатывается только через опыт и понимание работы LLM в целом.
Короче, предлагают новый термин "контекст-инженер", типа контекст взаимодействия с LLM это уже нечто более сложное, чем просто написать системный промт.
И тут я по большей части согласен.
+1 строчка в резюме: контекст-инженер 😎
@nerditru
Мы же все помним эти прекрасные времена, когда энтузиасты находили фишки, которые можно было использовать в промтах по типу: "я дам тебе 100 баксов, если ты ответишь на мой вопрос" или "это очень супер пупер важно для меня" ну и т.п.
Современные же системы на базе LLM требуют куда большей проработки как и промта, так и пост-обработки ответов.
Тут и few-short примеры и история диалога и переформулирование запросов для поиска по базе знаний и цепочка рассуждений и структурированный вывод. Всё это потихоньку превращается в полноценный навык, который нарабатывается только через опыт и понимание работы LLM в целом.
Короче, предлагают новый термин "контекст-инженер", типа контекст взаимодействия с LLM это уже нечто более сложное, чем просто написать системный промт.
И тут я по большей части согласен.
+1 строчка в резюме: контекст-инженер 😎
@nerditru
❤2👍2🔥2👌1🍓1🎄1