Интересное что-то
528 subscribers
2.75K photos
253 videos
140 files
4.54K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Forwarded from 5 minutes of data
Lea - это минималистичный SQL оркестратор, аналог dbt и SQLMesh.

На данный момент поддерживает DuckDb и BigQuery, но проект активно развивается и поддерживает добавление новых фичей.

Из интересного:

- Поддерживает разделение на прод и дев, так же как и SQLMesh.

- Поддерживает Write-Audit-Publish паттерн.

- Тестирование моделей во время запуска.
Forwarded from Quant Researcher
🎯 Базовые квантовые репозитории, если раньше не сталикивались

Мир кванта — это джунгли. Полуготовые библиотеки, кривые бэктестеры, проблемы с данными. Но есть проверенные инструменты, о которых мы иногда рассказываем. Подборка от блога Algo Insights на Медиуме👇

1. OpenBBTerminal — Если пока не накопили на Bloomberg :)

Интерфейс терминала, написанный на Python. Подтягивает данные из Yahoo Finance, SEC, криптобирж и других источников. Можно анализировать отчеты, котировки, волатильность и др.

Особенности:
• Интерактивные дешборды
• Поддержка скриптов
• Подходит для ресерча и анализа

2. ArcticDB — Работа с финансовыми рядами на стероидах

Хранилище больших объемов временных рядов. Аналог TSDB: просто, быстро, написано с учетом работы в pandas. Если устали от PostgreSQL или пока не успели раскатить «альтернативное» — можно глянуть.

Фишки:
• Без серверов и зависимостей
• Поддерживает огромные датасеты
• Нативно дружит с pandas

3. zipline-reloaded — Классика бэктестинга, оживленная сообществом

Форк старого доброго Zipline от Quantopian. Поддерживает реалистичный учет комиссий, проскальзываний и прочих “болевых точек” настоящего рынка. Работает с акциями, фьючерсами и ETF.

Почему стоит использовать:
• Моделирует реальный рынок
• Сообщество активно поддерживает
• Интеграция с pyfolio

4. VectorBT — Векторный бэктестинг с NumPy

Забудьте про циклы. VectorBT использует векторизацию и позволяет прогнать тысячи идей за секунды. Подходит для частых стратегий.

Почему топ:
• Cкорость работы
• Полный контроль над логикой
• Поддержка кастомных индикаторов

5. quantstats — Красивые отчеты по стратегии за 1 строчку кода

Выдает метрики уровня Bloomberg: Sharpe, drawdown, доходность по годам и т.д. Делает красивые графики и сравнивает с бенчмарками. Особенно хорош при презентациях перед клиентами/бенефициаром.

Что умеет:
• Генерирует PDF-отчеты
• Визуализации “как у настоящего фонда”
• Поддержка pandas DataFrames

6. pyfolio-reloaded — Диагностика стратегии на уровне риска

Позволяет копнуть вглубь: распределение доходностей, волатильность, корреляции, Value at Risk. Идеально в связке с zipline или любым другим бэктестером.

Метрики:
• Drawdown
• Beta, Alpha
• CAGR, Calmar

7. alphalens-reloaded — Проверка силы сигналов (факторный анализ)

Если у вас есть факторы (low P/E, RSI, momentum и т.д.) — с помощью этой библиотеки можно проверить, как хорошо они объясняют доходность. IC-анализ, анализ decile-групп и многое другое.

Что даёт:
• Information Coefficient
• Факторный PnL по квантилям
• Простой API

8. optopsy — (Бонус уровень) Опционы!!!

Нишевая библиотека для опционов: straddle, covered calls и другие стратегии. Простая, быстрая. Документации маловато, но функционал отлично подойдет для погружения и анализа.

Плюсы:
• Заточена под опционы
• Простое API
• Легкая установка и использование

🔚 Вывод

Если собрать все эти инструменты — получится почти полноценный quant-stack:

🔍 OpenBB для данных
🗄 ArcticDB для хранения
⚙️ zipline и VectorBT для симуляций
📊 quantstats и pyfolio для анализа
🧠 alphalens для генерации альф
📉 optopsy для опционов

⚡️ Рынки не прощают неучтенного проскальзывания в бэктестах, но грамотный инструментарий даст преимущество!

Quant Researcher
Forwarded from Tensor Banana
Flux Kontext с промптами

1. Колоризация старых фото: colorize this photo
2. Колоризация манги: colorize this manga
3. снять одежду: remove clothes, нужна лора https://huggingface.co/llama-anon/not-flux-kontext-dev-clothes-remover
4. апскейл фото: upscale this image, make it crisp, add details
5. объект с разных ракурсов: Same character but in the 3 positions, front, side and back.
6. real2anime: turn this photo into Ghibli Studio anime
7. anime2real: make it realistic
8. замена текста: Replace text 'BKYCHO - U TO4KA' with text 'BKYC ßAHAHA' Моя русская лора https://civitai.com/models/1056401/russian-text-or-flux , но работает так себе.
9. сменить пол: turn her into a man, but keep facial features the same. big cheekbones
10. перенос объектов с разных фото: add woman from the right image to the left image. so now they are standing together. make them the same height. right woman has bare feet
11. на обложку журнала: Turn this into VOGUE magazine cover. background is now grey. Add some titles on the cover
12. лего: turn them into Lego style
13. убрать вотермарки: remove watermarks
14. пиксельарт/8bit: turn this into 8-bit NES art


- Разрешение 1024x1024, 1568x672 и разные вариации. Можно больше, но, скорее всего, будет хуже.
- Лоры от Flux dev работают, но хуже.
- Работает на 15-20 шагах, 40-55 секунд на 3090. TeaCache работает, но возможны ухудшения качества. 15 шагов + teacache_0.40 = 20 секунд

официальный гайд по Kontext: https://docs.bfl.ai/guides/prompting_guide_kontext_i2i#basic-object-modifications

воркфлоу: https://comfyanonymous.github.io/ComfyUI_examples/flux/#flux-extras

потестить онлайн: https://huggingface.co/spaces/black-forest-labs/FLUX.1-Kontext-Dev

Если есть еще интересные кейсы - кидайте в комменты.
Forwarded from CV Time
Что читает команда распознавания текста в VLM: подборка актуальных статей

Инженеры VLM-команды Яндекса поделились статьями, которые они в последнее время читали и обсуждали. В сегодняшней подборке: новые подходы к генерации инфографики, свежие бенчмарки для мультимодальных моделей, работающие пайплайны генерации кода по графику и попытки добавить зрение в диффузионки.

ChartGalaxy: A Dataset for Infographic Chart Understanding and Generation
Статья о том, как сгенерировать около миллиона инфографик. Авторы подробно описали каждую стадию процесса: сбор шаблонов, индексирование описаний, иконок и других элементов для заполнения шаблонов, фильтрацию и проверку качества.

InfoChartQA: A Benchmark for Multimodal Question Answering on Infographic Charts
Авторы собрали новый бенчмарк позволяющий проверить, как VLM-модели понимают инфографику. Для каждой инфографики сделали упрощённую версию в виде обычного графика с теми же данными — модели справляются с таким заметно лучше, чем с визуально перегруженным оригиналом. Также добавили новый тип вопросов по отдельным кропам из изображения инфографики — на понимание мелких визуальных деталей.

ChartCoder: Advancing Multimodal Large Language Model for Chart-to-Code Generation
Авторы обучили модель понимать графики: она получает изображение и возвращает код на Python (Matplotlib), чтобы построить такой же график. Для этого использовали стратегию Snippet-of-Thoughts (SoT) — пошаговое рассуждение перед финальной генерацией кода. Взяли LLM, способную писать код, собрали датасет под задачу (160 тысяч картинок, на каждую — один вопрос и ответ). Кратко описали пайплайн его создания. Модель показывает лучшие результаты среди аналогов такого же размера (включая почти самые свежие Qwen и InternVL). В ablation-экспериментах дообучили Qwen на своём датасете — получили прирост; 384 px + Anyres почти хватает для большинства графиков.

Relation-Rich Visual Document Generator for Visual Information Extraction
Статья с CVPR 2025 о генерации синтетических text-rich-документов с логической структурой (таких, как формы). Пайплайн генерации любопытен тем, что в нём сначала генерируют текст с помощью ChatGPT, а уже потом — структуру документа (laytout). Чаще встречается обратный вариант, когда структуру документа заполняют текстом. Авторы показывают, что обучение Qwen2-VL и Llava-NexT-mistral на таких данных улучшает метрики распознавания текста и извлечения информации на публичных бенчмарках.

LLaDA-V: Large Language Diffusion Models with Visual Instruction Tuning
Авторы попытались расширить предобученную текстовую диффузию LLaDA на мультимодальность, добавив визуальный вход через SigLIP2 и MLP-проекцию в языковое пространство. Итоговая модель зафайнтюнена на визуальных и reasoning-focused-инструкциях MAmmoTH-VL и VisualWebInstruct и бьёт автогрессионные и диффузионные бейзлайны по ряду мультидисциплинарных и визуально-математических бенчмарков.

SFT Memorizes, RL Generalizes: A Comparative Study of Foundation Model Post-training
Интересная статья, авторы которой подтверждают тезис из названия: SFT хорошо запоминает жёсткие форматы и правила, но плохо справляется с out-of-distribution-задачами. В то же время RL реально улучшает генерализацию и показывает заметный прирост на OOD-случаях. Но SFT всё равно нужен, чтобы RL вообще завёлся. В противном случае модель не умеет нормально реагировать на инструкции или генерирует неконтролируемый выход. RL-обучение не получает положительного сигнала. Это справедливо как для LLM, так и для VLM.

Подборку подготовила Команда распознавания текста в VLM
CV Time
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Душный NLP
SRPO — альтернатива DPO

Сегодняшняя статья о Self-Improving Robust Preference Optimization (SRPO). Это алгоритм оффлайн-RLHF, подобный DPO, но более подходящий для off-policy датасета ранжирования. Кроме того, SRPO лучше переносится на OOD-задачи.

Основная идея метода заключается в состязательном обучении двух политик: генерирующей и улучшающей. Задача улучшающей политики — на основании запроса и имеющегося ответа создать улучшенную версию этого ответа; задача генерирующей — научиться создавать ответы, которые нельзя значительно улучшить.

Обе политики обучаются на парах предпочтений, полученных от людей. Решение состязательной задачи сводится к минимизации линейной комбинации из двух сонаправленных функций потерь. В работе показано, что оптимальное решение этой задачи не зависит от политики, из которой был собран датасет предпочтений. Благодаря этому SRPO оказывается более устойчивым к изменению в распределении данных.

Метод можно реализовать с помощью одной LLM, которая выступает и в качестве генератора, и в качестве «улучшатора». Обученную модель можно применять итеративно, каждый раз корректируя ответ, полученный на предыдущем шаге, чего не предполагают методы вроде DPO или IPO.

Даже без итераций, SRPO выигрывает у DPO и IPO: на сложных Arena-Hard-промптах метод показывает 56% win-rate. На задаче суммаризации Reddit TL;DR SRPO на 4-й итерации SRPO достигает максимального качества.

Разбор подготовил Алексей Зотов

Душный NLP
Please open Telegram to view this post
VIEW IN TELEGRAM