Интересное что-то
517 subscribers
2.71K photos
252 videos
138 files
4.51K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Хотите я ультану гайдом на оконные функции?💪

Специально для вас подготовил мини урок на оконные функции в SQL. Постарался осветить данную тему максимально просто и без лишней воды, каждую функцию показывал через примеры и пояснения, в конце дал 3 своих задачи и 4 задачи из литкода. Надеюсь, что вам понравится такой мощный хардовый пост и вы будете увереннее чувствовать себя на собеседованиях с ними😎

По моим ощущениям на всех собесах у меня спрашивали про оконки хотя бы базово и каждый второй собес предполагал написание задач через оконки. Изучайте сами и делитесь с друзьями полезным материалом😘

https://colab.research.google.com/drive/1VZL9nBnZHAwMICNzN0IJo0VMpr863U8R?usp=sharing

Поставьте лайк, если полезно!😊
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from дAI потестить!
Базовый ролик получен — нашу Ясю уже можно грузить в Одноклассники и начинать лутать Суперклассы. Но мы же тут собрались как люди творческие, высокодуховные и слегка помешанные на перфекционизме, так что хотим не просто ролик, а шедевр. Правильно? Ну вот и давайте попробуем сделать вид, что мы всё контролируем.

Перове на что обращаешь внимание, это "утекает" мелкая детализация: зубы местами в кашу, глаза при моргании деформируются (см. видео 1). Лечить будем апскейлом на Wan2.2. В интернете схем полно, принцип один — аккуратно прошлифовать картинку Wan-ом на малых шагах и молиться, что сегодня ComfyUI будет работать. Можно взять схему, которой поделился Дмитрий @TuXoHoB в комментариях. Спасибки направляйте ему в ЛС, и лучше если это будут спасибки от Сбера😊. Что получилось см. видео 2.

Второе, что портит видео, — маленькое разрешение (720p… Google, серьёзно?). Есть несколько путей решить этот позор:
astra.app
www.topazlabs.com

Из опенсорса (если сможешь настроить)
https://huggingface.co/JunhaoZhuang/FlashVSR-v1.1
https://github.com/IceClear/SeedVR2

Я же решил воспользоваться новинкой https://fal.ai/models/fal-ai/bytedance-upscaler/upscale/video просто потому что она стоит 4 цента на Fal.ai. Результат средний, astra.app может лучше, но деньги я уже потратил, поэтом придется вам смотреть на это (см. видео 3).

Это ещё не всё, что можно улучшить, но я на сегодня закончился и пошёл спать.

P.S. И немного ночных рассуждений. Чтобы сделать базовый ролик, достаточно уметь работать в нескольких сервисах. Например, я люблю Google. Но чтобы «дотянуть» его до приемлемого качества, уже нужно лезть в дебри, расширять инструментарий и дружить с опенсорсом.
P.S.S. Если хотите еще поработать с этим видео, мне нужны сердечки под постом.
Forwarded from Get Rejected
Вы вроде любите посты про то как экономить в облаках:

Вот вам пример:
Есть AWS S3, у него есть несколько вариантов Storage Class'ов, которые стоят по разному.

Допустим, у нас 70 TB данных в S3 Standard без версионирования.
Это примерно, 1600$.

Вот примерная тарификация:
Первые 50 ТБ в месяц - 0,0245 USD за 1 ГБ
Последующие 450 ТБ в месяц - 0,0235 USD за 1 ГБ
Свыше 500 ТБ в месяц - 0,0225 USD за 1 ГБ

Многие скажут, всего лишь 1600 баксов, а что если я скажу что можно сэкономить в несколько раз?

Тогда мы просто создаем правила для перемещения lifecycle, которые будут переносить ваши файлы в холодное хранилище.

Вот пример несколько архивных Storage class'ов для холодного хранения данных, которые могут потребоваться раз в квартал/год и тд c разным временем доступности от миллисекундной до 12 часов. Более подробно можете почитать на сайте AWS в ценообразовании.
S3 Glacier Instant Retrieval - 0,005 USD за 1 ГБ
S3 Glacier Flexible Retrieval 0,00405 USD за 1 ГБ
S3 Glacier Deep Archive - 0,0018 USD за 1 ГБ

Итого:
Настроив одно правило перехода данных старше 90 дней в холодное хранилище S3 Glacier Instant Retrieval мы сможем понизить счет до 350$.
Получается 1600$ -> 350$. Экономия ~1250$

Можно конечно еще больше заморочиться и настроить несколько правил для перехода данных спустя 180 дней в Deep Archive и так далее, но это уже у кого больше 400 ТБ данных мне кажется будет играть значительную роль. Важно еще учесть что файлы должны быть больше чем 128 КВ, так как перенос более мелких файлов может быть стоить гораздо больше чем держать их в Standart Class. (это тоже можно настроить и переносить только те что больше чем 128 КВ)
Forwarded from Мутный AI
Астрологи опять снова объявили неделю нано-бананы, за которую платят господа Gemini Ultra, т.к. их опять заставили отваливать кредиты за Fast генерации из-за перегруза серверов.
Спасибо, мистер гигол. 🚬

Я не хочу захламлять вам ленту очередным постом про МЕГА ПРОРЫВ БОЖЕ МОЙ ОДНА КНОПКА НЕВЕРОЯТНО ВЫПЬЕМ ЗА ВСЕХ И НА ЗАВОД, вместо этого хочу поговорить про прикладную задачу, которую прошка, как и обычная банана, нормально решить не может.

Речь о дрейфе цветов при их переносе с референсов.

Как бы ты ни прокачивал "мозги" диффузии, базовые проблемы технологии никуда не денутся.

И если между ракурсами простеньких 2d-шных ассетов дрейф не такой сильный (но все равно есть), то вот при попытке перенести конкретные цвета на одежду или другие штуки — бой о бой. Начинается веселуха.

Ловите микрогайдик, как перенести цвет максимально близко к оригиналу и не поехать крышей в процессе.
Я думал, он потеряет актуальность с выходом новой модели, но кажись нет.

И да, я понимаю, что текстура, освещение и геометрия не позволят перенести цвет 1 в 1, но вы хотя бы приблизитесь к этому.

1. Уберите любые цвета с оригинального объекта, особенно насыщенно-темные.
Лучше всего сначала перегенерить объект в белый цвет.

Диффузионки лишь частично зашумляют целевое изображение, оставляя информацию о цветах. Это сильно влияет на результат.

2. Добавьте референсный цвет прямо на целевое изображение.
Можно просто расширить холст и добавить цвет сбоку. Затем перегенерируйте, попросив перенести цвет на объект из этого рефа.

Обычно у in-сontext моделей при переносе цвета с отдельного референса изображение идет через семантический энкодер, где теряются точные оттенки — важнее передать форму, материал, стиль и примерную палитру. Плюс модели устойчивы к цветовому расхождению, им необходимо это для распознавания объектов при разном освещении.

А вот если поместить цвет на самом холсте, то он проходит через тот же латентный энкодер, что и остальная часть изображения. Короче, информация о цвете остается «внутри» изображения, поэтому он переносится точнее.

3. Готово, вы практически великолепны.
Практически — потому что идеально все равно не получится, но для большинства задач и работы на коленке без геморроя с Comfy или чем-то еще — достаточно.

Если хотите порассматривать цвета, PDF в комментах.

Мутный AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#llm #books

Тут и перевод подвезли (оригинал репостил тут)
Forwarded from КПД
SMOL_секреты_создания_LLM_мирового_класса_Перевод_t_me_aivkube.pdf
14.6 MB
Русскоязычный перевод The Smol Training Playbook от @sergeydolgov с качественной версткой.

Оригинальный материал представляет собой очень полезное пособие по обучению LLM, да и DL в целом.
CS231n: Deep Learning for Computer Vision by Stanford

Computer Vision has become ubiquitous in our society, with applications in search, image understanding, apps, mapping, medicine, drones, and self-driving cars. Core to many of these applications are visual recognition tasks such as image classification, localization and detection. Recent developments in neural network (aka “deep learning”) approaches have greatly advanced the performance of these state-of-the-art visual recognition systems.

This course is a deep dive into the details of deep learning architectures with a focus on learning end-to-end models for these tasks, particularly image classification. During the 10-week course, students will learn to implement and train their own neural networks and gain a detailed understanding of cutting-edge research in computer vision. Additionally, the final assignment will give them the opportunity to train and apply multi-million parameter networks on real-world vision problems of their choice.

Through multiple hands-on assignments and the final course project, students will acquire the toolset for setting up deep learning tasks and practical engineering tricks for training and fine-tuning deep neural networks.

Links:
- Course Materials
- Useful Notes
- Videos (2025)

Navigational hashtags: #armknowledgesharing #armcourses
General hashtags: #cv #computervision #nn #neuralnetworks

@data_science_weekly
Forwarded from partially unsupervised
Чистил канпюктер от старья и внезапно обнаружил, что за последний год перестал использовать в разработке четыре столпа, которые казались незыблемыми последние лет десять: iTerm, Pycharm, Pyenv, Docker Desktop.

iTerm и Pycharm продолжали обрастать фичами, которые мне ни к чему. Фичи бесплатными не бывают: у iterm в 2024 всплыла неприятная уязвимость, Pycharm продолжал слегка тормозить даже на свежем железе (возможно, я просто не знаю все флаги, как дать ему еще больше памяти). Так я перешел на более легкие альтернативы - Wezterm и Zed.

Pyenv когда-то был отличным способом управлять зоопарком питонов и вместе с poetry делал управление зависимостями терпимым. Но uv разрубил этот узел, оно просто работает. Лучшее, что случилось с Python экосистемой, не считая maturin.

Про избавление от Docker Desktop мне пришлось подумать на работе, потому что в Большой Корпорации для него нужна отдельная лицензия, которая положена не всем. Мне таки положена, но дать продакту демку стало сложнее. Так я познакомился с colima, перешел на нее (все еще с docker runtime / docker cli, которые не требуют коммерческой лицензии) на рабочей тачке, а заодно и на своей, совершенно этого не заметив. Впрочем, чистым докером я тоже пользуюсь все меньше, потому что меня покусал Dagger.
Forwarded from Refat Talks: Tech & AI
Великий rclone (или иногда агенту нужны просто файлы)

Делаем агента для европейской маркетинговой компании. Они год мучались с RAG - индексировали, чанкали, перебирали эмбединги, то лагает, то галлюцинирует, то не находит нужное.

Предложил радикально другой подход: выкинуть RAG, вместо этого - Claude Agent SDK + обычная файловая система и MCP как интерфейс. Сделал им прототип - результат настолько лучше, что сначала не поверили. Сравнить можно +/- с тем, насколько Claude Code лучше чем обычный AI чат в кодинге. Поиск по гигабайтам PDF, DOCX, PPTX - доли секунды. Залетает новый файл - агент сразу готов его учитывать. Никакого чанкинга, никакой индексации. По сути - это то же самое что Claude Code или Codex CLI делают с кодовой базой, только тут вместо code base у нас knowledge base.
Но есть нюанс, и даже несколько. Вообще, планирую серию постов на эту тему, начну с проблемы синхронизации файлов и ее решения.

Итак, проблема. Основной источник знаний в их случае - Google Drive. Там все: презентации клиентам, стратегии, исследования. Но делать квери туда - слишком долго и мы ограничены только встроенным поиском драйва - не пойдет. Нам нужно чтобы Claude Code (Agent SDK) шустро шуршал по файлам.

Решение - rclone

Rclone - это как rsync для облачных хранилищ. Поддерживает Google Drive, OneDrive, Dropbox и десятки других. Крутая штука: умеет автоматически экспортировать форматы. Google Docs превращается в .docx, Sheets в .xlsx, презентации в .pptx и тд.


rclone sync "gdrive:/" "/local/path" --drive-export-formats docx,xlsx,pptx


Файлы летят на сервер, конвертируются, агент работает с ними как с обычными файлами.

Почему file-first лучше

Storage дешевый и быстрый. Иногда (особенно для использования внутри компании) куда проще загрузить все на диск и работать с файлами напрямую, чем городить удаленный инджестинг с векторными базами и пайплайн индексации.

Современные CLI агенты прекрасно справляются с файловым поиском. "Найди все упоминания проекта X за последние 3 месяца" - делает за секунды через обычные файловые операции. Когда нужно читает файлы по частям или целиком. А еще на лету пишет скрипты для работы с ними если надо (!), собственно эту концепцию сейчас и продвигают Антропик со своими Skills.


В общем, если строите агента для работы с документами:
- Посмотрите на file-first подход. Может быть быстрее и надежнее RAG.
- Используйте rclone для синхронизации облачных хранилищ.
- Дайте агенту доступ к файловой системе и нормальным тулам поиска - часто лучше наивного RAG.

---

Этот проект оказался интереснее чем я ожидал. Куча нюансов, неочевидных решений и инсайтов, которыми буду делиться дальше. Продолжение следует.
Forwarded from Refat Talks: Tech & AI
Продолжаю про file-first подход к агентам для работы с базами знаний. В прошлом посте рассказал про общий концепт и rclone. В этом посте как и обещал расскажу про поиск по бинарным (не-текстовым) файлам.

Напомню что общая идея - использовать всю мощь передовых кодинг-агентов (в данном случае Claude Code) для задачи работы с базами знаний.

Итак, синхронизация настроена, имеем на быстром диске файлы, но большинство из них в формате Word, PDF, Excel, PowerPoint. По дефолту Claude Code (а точнее в его обертке под названием Agent SDK) доступны все инструменты для поиска по текстовым файлам (grep, ripgrep и тд), но эти файлы не текстовые.

Первая мысль была: ок, давай конвертнем все в plain text (есть же docling, markitdown и тд). Но хотелось чего-то проще, не хотелось строить пайплайн индексации: это и время, и дублирование источника истины, и проблема инвалидации - файлы-то постоянно обновляются. Хотелось найти решение которое работает напрямую с Office файлами.

Эксперименты

Создал тестовое окружение: 150 документов в разных форматах и сравнивал такой шортлист, который мне подкинул deep research:

- ripgrep c расширенными настройками (на самом деле их было больше) - почти сразу отпал
- pdfgrep - прекрасно ищет по PDF файлам
- ugrep - хоть и ищет по всем файлам, но по-началу давал средние результаты, например был хуже pdfgrep для pdf и плохо искал по презентациям, но потом я открыл его суперсилу - фильтры!

Фильтры ugrep - вот где магия

ugrep умеет на лету конвертить файлы через внешние тулы перед поиском. Для этого используется флаг --filter или его алиас `ug+`. Работает просто: ты говоришь "для файлов .docx юзай pandoc, для .pdf юзай pdftotext" и все.

Пример:

ugrep --filter="docx:pandoc %f -t plain" --filter="pdf:pdftotext % -" "искомая фраза"


Или еще проще:

ug+ "искомая фраза"


Самое крутое - ugrep уже идет с набором преднастроенных фильтров для популярных форматов. В итоге pdfgrep и другие специализированные тулы оказались не нужны - ugrep is all you need.

ugrep еще умеет искать в архивах (zip, tar, gz) без распаковки, поддерживает fuzzy-поиск и regex с Unicode, может выдавать контекст вокруг найденного текста с подсветкой и все это можно конфигурировать через .ugrep конфиг-файл. Короче, швейцарский нож для поиска.

По скорости. На деле с быстрым диском поиск по тысячам документам занимает доли секунды и не является узким местом в агентных сценариях. Но если база огромная и нужна реальная скорость - у ugrep есть встроенная система индексирования через ugrep-indexer, которая может дать ускорение в разы.

Далее, чтобы это эффективно работало было несколько раундов работы с промптом агента. Одна из лучших идей оказалась - инструктировать агента сначала запускать команду tree чтобы понять структуру директорий, а потом уже делать таргетированные запросы. Это хорошо фокусирует поиск и помогает агенту лучше ориентироваться в контексте.

Почему file-first - это кайф

Мне нравится работать в file-first экосистеме. Linux - это filesystem-first операционка и в этом мире много сильных инженеров и очень развитый опенсорс. Поражаешься как много эффективных и производительных тулов доступны, они просто работают. Плюс это же все текстовые интерфейсы - CLI + stdin/stdout - кодинговые агенты (считай LLM) с ними на ты. Никаких API оберток, никаких дополнительных слоев абстракции. Просто композиция мощных Unix-тулов.

В будущих постах по этой теме планирую покрыть:
- Другие челленджи: чтение и понимание содержимого нетекстовых файлов
- Когда все-таки нужны индексы или "шпаргалки" (или навигаторы) для таких агентов
- Опыт с Remote MCP и вопросы авторизации
- Подходы к разграничению прав доступа
- Вопросы изоляции (безопасность)

🔥 🔁 поддержите если хотите больше на эту тему