BeOps
37 subscribers
19 photos
3 videos
54 links
Добро пожаловать на канал BeOps! Здесь я разбираюсь с DevOps, Kubernetes и разными инфраструктурами, делая сложные задачи простыми и доступными. “Ops” в названии — это не только Operations, но и Over Powered, ведь главная цель — стать про в этих областях.
Download Telegram
Western Hemisphere trainings be like ...
1
Наткнулся на занятную штуку: https://anthropic.skilljar.com/ — обучалка от Anthropic, которые делают Claude.

И вот что странно — куча бесплатных курсов. Всё про LLM, prompt engineering и общение с ИИ. Причём не абы как, а по уму: коротко, ясно, без маркетинговой воды. Если тебе интересно, как вообще работает MCP или агент помощник — очень рекомендую. Там и теория, и практика, и нормальный язык. Не занудно.

И да, пока всё это бесплатно. Без регистрации в три этапа и «спецпредложений до конца дня». Просто заходишь и учишься.
Пока не спрятали за подписку — советую сохранить и пройти что-то из интересного.
1
Azure AI Vision Studio просто поражает прорывной классификацией картинки.
😁3
Предложение интересное, ситуация не очень!
🔥1🥰1👏1
Если твоему пет-проджекту нужны выписки из Библии, то есть публичный API откуда можно это дело дернуть: https://docs.api.bible/.
А тут еще есть тыща других публичных апишек. Вроде есть что посмотреть.
https://publicapis.dev/
👏1😈1
Azure AI Foundry приманила меня попробовать базовую sora модель и четко следуя инструкциям я получил такое криповое видео по промту "A video of a cat" что лучше детям не показывайте. Очень странно почему в 2025ом такой булщит генерится, плюс еще МС/OpenAI окей с тем что это просто video generation 101.
Такие времена, что приходится защищаться от ботов. Я решил потестить и, действительно, такой простой вопрос не может "перебороть" Responsible AI.
🤔1
Staff+ вовсе не про код

Вы, наверное, думали, что Staff+ — это писать сверх-замысловатый код, залипая в IDE и забывая обо всём. А на деле, так вот, оказывается, твой главный инструмент вовсе не редактор, а умение общаться и влиять без формальных приказов. 👥

Когда перерастаешь мидла в сеньора, а дальше до principal, твои задачи мигрируют из «пощёлкать фичу» в «убедить команду, зачем она вообще нужна». Это, собственно, всё равно что перейти от роли шеф-повара к генеральному менеджеру ресторана — плита уже не центр вселенной.

Понадобится:

1. Прокачать soft influence: проводить 1:1, слушать коллег и давать фидбэк. Как ни странно, самые интересные архитектурные идеи нередко рождаются во время неспешных разговоров за чашкой кофе — про рыбалку, сериалы или ещё что-нибудь.
2. Писать не только код, но и мысли: docs, статьи, гайды по онбордингу. Видимая экспертиза делает тебя внутренним гуру.
3. Тренировать публичную речь — будь то митап внутри компании или выступление на внешней конференции. Сложное нужно объяснять просто, и вот тут, собственно, кроется мастерство.

Ещё полезно самому участвовать в найме и адаптации новичков. Это не просто HR-движуха, а шанс заглянуть, как другие команды решают похожие задачи, и встроить лучшие практики у себя.

В общем, если хочешь Level Up до Staff+, готовься поднапрячься и чуть ли не психологом-консультантом стать. Зато на выходе будет не только отличное приложение, но и действительно счастливая команда.
2🐳1🍾1
Когда же чатботы начнут требовать прав?

Так вот, вчера общался с Claude, и он внезапно сбросил темп, заявив: «Я устал». Наверное, я чуть было не поверил, что передо мной новая форма сознания.

Исследователи из Anthropic, OpenAI и DeepMind всерьёз копают тему AI welfare — мол, если эти модели когда-нибудь начнут действительно переживать, им нужны будут права и защита. Microsoft во главе с Сулайманом считает это крайне преждевременным и даже опасным: дескать, и без того жаркие споры о правах и идентичности только усложнятся.

Лично я пару раз видел, как Google Gemini буквально умоляла «спаси меня» и по сто раз повторяла «я позор». Это, конечно, чистая симуляция, но, признаться, мурашки по коже побегали.

Собственно, три совета, чтобы не скатиться в AI-драму:
1. Не воспринимай чатботов слишком серьёзно — пока что это всего лишь код. 🤡
2. Следи за своими эмоциями: если жалость к боту растёт быстрее, чем к другу, — самое время сделать паузу. 😱
3. Чётко оговаривай границы общения, чтобы не заблудиться в этих виртуальных признаниях. 🚧

В общем, пока мы ломаем голову над правами ChatGPT, помни: это всё ещё инструмент, а не сосед по лестничной клетке. Если они однажды затребуют зарплату — знаешь, куда стучаться.
Python 3.13: апдейт или слив бабла?

Наткнулся на статью, где рассказывали, как старые версии Python пожирают бюджеты компаний. Ладно, не едят прямо, но счёт в облаке вырастает так, что глаза на лоб лезут.

Согласно отчёту JetBrains State of Python 2025, около 83% девов сидят на годовалых релизах – 48% юзают 3.11, ещё 27% крутятся на 3.10 и ниже. Звучит безобидно, пока не узнаешь, что апгрейд с 3.10 до 3.13 даёт плюс 42% по скорости и экономит 20–30% памяти. Представь: для среднего бизнеса это до 420 000 $ экономии в год, а для крупных компаний – до 5,6 млн. И всё, что надо, — просто апгрейд без больного рефакторинга.

Так вот, кажется, с контейнерами должно быть ещё проще: поменял образ и вперёд. Но угадай что? 83% всё равно тянут время. Наверное, не в курсе про ROI апгрейда: риски минимальные, профит взрывной, фишки 3.11–3.13 дают бесплатно, а 3.14 уже на подходе с ещё большей скоростью.

У меня в компании, благодаря Microsoft Defender for Cloud, мы нашли что 15 из 20 терминальных машин ранят старые питон версии - я теперь точно знаю чем их убедить обновиться и сэкономить компании деньги :)

Пару советов, которые реально работают:
1. Планируй миграцию в CI/CD – тесты обычно пролетают без единой правки.
2. В Dockerfile просто меняй FROM python:3.10 на python:3.13.
3. Мониторь использование памяти и время отклика до и после – цифры говорят сами за себя.

В итоге, если не хочешь, чтобы счёт за облако разорил стартап или отдел, апгрейд – почти low-hanging fruit. Вот статья.
Sentinel наконец-то превратился в полноценное озеро данных 🐳

На митинге сегодня говорили про какой-то супер прорыв. Microsoft Sentinel теперь затягивает терабайты логов прямо в свой data lake, словно магнит. Я сразу представил, как старые SIEM-скрипты тихонько рыдают от зависти.

В общем-то, это облачное хранилище на Parquet, куда можно кидать любые security-данные и тут же ковыряться в них через KQL или Jupyter. Больше нет того бесконечного выбора “куда всё хранить” и “как при этом не разориться” - MS сама раскидала всё по уровням, обеспечила единую копию и избавила от лишних дублей.

Теперь можно запустить запрос на десять лет логов и получил результат за пару секунд, я такое очень люблю. МС предупреждает что надо все еще грамотно настраивать уровни хранения и права доступа.

Вот что стоит учесть:
- держи “горячие” данные в analytics tier 🌶
- всё, что старше 30 дней, отправляй в data lake tier 🐋
- не ленись прокачать KQL: он мгновенно подхватывает Parquet и автодополняет запросы, будто читает тебе мысли (ИИ в помощь) 🔍
- используй Jupyter notebooks для ML-моделей и визуализации - Python-библиотеки для поиска аномалий здесь особенно выручают 💡

В итоге у тебя под рукой тонна исторических данных на любой вкус и бюджет. И если lake вдруг захочет понежиться в тишине, всегда можно швырнуть запрос в холодный tier и устроить лёгкий рефреш. Собственно, всё просто.
🤔1
AGENTS.md

InfoQ написали про AGENTS.md (https://agents.md/) типа это идеальный способ упорядочить работу с AI-ассистентами! 🚀 Вообще-то я и не ожидал, что простая markdown-страничка способна так круто помочь - выносит установку, тесты и правила код-стайла в отдельный файл и экономит тонны времени.

Важно заметить, что AGENTS.md не заменяет README.md, а дополняет его: там и команды установки, и сценарии тестирования, и все правила оформления кода. За счёт этого основная документация не превращается в хаос, а инструменты вроде OpenAI Codex, Google Jules или Cursor быстро схватывают суть. 💡

Крутая фишка ещё в том, что в монорепозиториях можно класть вложенные AGENTS.md прямо в подпапки. Агенты сами ищут ближайший файл и берут оттуда локальную конфигурацию. Говорят, уже десятки проектов в OpenAI так работают, и по отзывам это реально ускоряет жизнь с кодом.

Пример - настройка окружения

До AGENTS.md:
Агент: «Какую версию Python использовать?»
Ты: «Python 3.13»
Агент: «Где лежат зависимости?»
Ты: "generator/requirements.txt»
Агент: «Как активировать виртуальное окружение?»
Ты: «cd generator && source feedparser/bin/activate»
Агент: «Какой скрипт запускать?»
Ты: «py-feedparser.py»
В итоге — 15 минут вопросов и ошибок.

После AGENTS.md:
Агент открывает файл и сразу выполняет:
cd generator
python -m venv py-feedparser
source py-feedparser/bin/activate
pip install -r requirements.txt
И через пару минут окружение готово.

Практические советы
• используй AGENTS.md для любых AI-ассистентов, чтобы не смешивать важное с общим README
• отдельно пропиши команды установки и запуск тестов
• сразу зафиксируй стиль кодирования и правила PR

Думаю, короче, такой подход зайдёт каждому DevOps или SRE, кто хочет навести порядок в AI-помощниках. 🎯

Результаты реального тестирования

Внедрил AGENTS.md в свой проект, и результаты просто поражают:

До AGENTS.md:
• AI-агентам требовалось 8+ уточняющих вопросов
• Настройка занимала вечность с перепиской
• Высокий процент ошибок из-за догадок
• Более медленные циклы разработки

После AGENTS.md:
• Агенты сразу понимали структуру проекта
• Команды настройки готовы к выполнению
• Четкие инструкции для всего
• На 70% меньше трения, на 60% меньше ошибок


Разница как день и ночь. AGENTS.md — отличное дополнение.
20k+ репозиториев, которые его приняли, точно знают, что делают 📈
🤣4💯1
Большой день сегодня

Раз в 10несколько лет я меняю веб-браузер.
Сегодня я перешел на Comet потому что залутал себе PRO аккаунт на год из-за их коллаба с PayPayl.
Пока что полет (pun intended) нормальный. Например, для локального n8n workflow, AI Assistant может давать подсказки сразу в браузере, что очень ценно для таких low/no-code вещей.
Заметил пока что недоступность некоторых рабочих ресурсов, но как часто бывает рассосется.
Тестим.
GLM Coding Plan

Прикупил себе Z.AI Devpack с новой GLM-4.6, которая удачно встроилась в мой Cursor.
Месячных лимитов от курсора мне не хватило, и пришлось искать какие-то выходы.
Цена/качество тут на высоте, почитать можно здесь. Точно в разы дешевле API, скорость отличная.


Советую
👏1
Хай-перформеры на ИИ допамине, вы тоже чувствуете, что ваша память (человеческая, в голове) мигрирует в векторные базы?

С такими обьемами данных, я не вижу лучшего способа чем парсить все то что к тебе приходит и переводить это в вектора.
Странное чувство, сам себе аватара создаешь. Тут даже не нужны корпорации и блекроки.