Работая в айтишечке
898 subscribers
152 photos
1 video
35 links
Канал о том, как эффективно работать в IT: простые объяснения технических вещей, лайфхаки, лучшие практики и полезные инструменты для повседневных задач.

Автор: @Shevtsoff
Download Telegram
🖥 Сценарии использования LLM

Неожиданно для себя обнаружил, что ещё не все вокруг "сидят в обнимку" с LLMками вроде ChatGPT, DeepSeek, Qwen и т.д. (последние две кстати бесплатные и очень даже неплохие).

Решил исправить эту ситуацию и подготовил описание маленькой части сценариев, в которых может использоваться ИИ, чтобы рассылать всем, кто ещё только думает начать.

Лично у меня окно с Qwen открыто постоянно. Практически любое начинание я стараюсь прогнать через модель, посмотреть что она выдаст. Она отлично помогает побороть страх "чистого листа", экономит время на рутине (анализ логов, генерация SQL, визуализация архитектур), даёт неплохую базу, которую можно просто поправить и пойти дальше, делать другую задачу.

Главное: не бояться начинать. LLM — не замена опыту, а вспомогательный инструмент для ускорения и снижения стресса 😁.

Попробуйте сами!
🔗 Qwen — мощная модель от Alibaba Cloud.
🔗 DeepSeek — альтернатива с отличной поддержкой технических задач.

В прикреплённых карточках — конкретные сценарии использования. Кликайте, экспериментируйте и делитесь опытом в комментариях! 🚀

#tools #ai #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥123👍2
☕️ Дайджест публикаций канала №1 (20.02.2025 - 28.05.2025)

💼 Менеджмент
Метрики продукта - фреймворки для создания метрик
Сегментация пользователей - как не тратить ресурсы на «всех сразу»?
Triple Diamond - методология проектирования для разработки продуктов (и не только)
Техники управления временем, которые действительно работают - лайфхаки по продуктивности
Как enterprise architecture (EA) помогает достигать "быстрых побед" - как использовать знания о корпоративной архитектуре (EA) для быстрых улучшений
Продуктовые паттерны - как решать проблему «неправильного порядка действий»
Внутренние vs Внешние продукты - сравнение в подходах к менеджменту
Как управлять крупными проектами - опытом управления крупными проектами
"Почему" вместо "что" - как объяснение причин экономит время и нервы
Friction Logs - как найти скрытые боли пользователей в вашем продукте
Проведение проблемных интервью - практическое руководство по составлению скрипта
Вопросы к членам команды ИТ-проекта - подборка вопросов для погружения в контекст

🧱 Работа с данными
Data Pipeline Overview - Как данные становятся ценным ресурсом
JSON в табличку? Легко! - веб-приложение, для конвертации JSON в Excel
Когда Excel спасает ситуацию - делаем JOIN в Excel

📚 Документация и шаблоны
Метрики качества контента - исследование набора метрик
Путеводитель по сводам знаний (Body Of Knowledge) - подборка наиболее известных "сводов знаний"
The Good Docs Project - библиотека шаблонов и руководств по составлению документов для IT-проектов

⚙️ Системный дизайн и архитектура
System Design от ByteByteGo - материалы по системному дизайну и архитектуре доступным языком
Как устроен современный веб - описание клиент-серверной архитектуры
Как спроектирован Instagram*? - доступное объяснение архитектуры
Топ-20 ключевых понятий в ИИ - простыми словами

🤌 How-to
Сценарии использования LLM - описание небольшой части сценариев, где может быть полезен LLM
Делаем скриншоты - инструменты для скриншотов
Как скачать svg-картинки с сайта? - браузерное расширение для скачивания svg-файлов
Поиск на стероидах - адресная строка для поиска по разным системам
Devtools - must-have для работы в ИТ

#digest
🔥74
Пятничный мем

#memes
😁192🔥1
☕️ Артефакты продуктового менеджмента

Пару месяцев назад я задумался: почему так много статей о продуктовом менеджменте сосредоточены на том «что должен делать PM», но почти нет материалов о том, какие документы и артефакты он создает? Ведь именно артефакты — это то, что остается после встреч, спринтов и релизов. Они становятся памятью команды, инструментом коммуникации и основой для принятия решений.

Решил разобраться, какие артефакты действительно важны на каждом этапе жизни продукта. Покопался в материалах коллег, перечитал блоги, посмотрел разные шаблоны. В итоге получился список, который хочу представить вам.

Он не претендует на истину в последней инстанции — это просто попытка структурировать то, что работает (или может работать) в реальности.

Если вы только начинаете работать PM или хотите улучшить процессы:
Не бойтесь начинать с малого. Выберите 2–3 артефакта, которые решают самые острые проблемы.
Используйте шаблоны. Не изобретайте велосипед — адаптируйте чужие решения под себя.
Не стремитесь к идеалу. Артефакты — это инструмент, а не цель. Если документ не помогает, уберите его.

А как вы работаете с артефактами? Какие из них спасают вас в рутине, а какие кажутся бесполезными? Буду рад обсудить в комментариях!

#pm #artifacts
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍4🔥4
☕️ Как устроен RAG: два шага к идеальному ответу

Представьте, что вы спрашиваете у ИИ-ассистента про новый фильм. Обычно он опирается на данные, «встроенные» в него во время обучения. Но если информация устарела или слишком специфична, ИИ может ошибиться. Тут на помощь приходит RAG.

RAG (Retrieval-Augmented Generation) — технология, позволяющая ИИ-моделям использовать внешние источники знаний для генерации более точных и актуальных ответов. В отличие от стандартного подхода, где модель обучается на фиксированном наборе данных, RAG динамически дополняет контекст запроса пользователя информацией из специализированных баз, не участвовавших в обучении модели. Это делает LLM «умнее» в конкретных областях без необходимости повторного обучения.

Как работает RAG?
Процесс RAG можно разбить на шесть этапов:

Запрос пользователя
Пользователь задает вопрос через интерфейс LLM (например, текстовое поле или голосовой ввод). Запрос направляется на сервер.

Преобразование в вектор и поиск
Сервер конвертирует запрос в векторное представление («переводит» ваш вопрос на свой язык) и отправляет его в систему поиска.

Поиск релевантной информации
Система ищет ответы в ваших базах знаний: PDF-файлах, базах данных, репозитории кода, веб-страницах или API. Цель — найти самые актуальные данные для ответа.

Обогащение контекста
Полученная информация возвращается на сервер, где добавляется к исходному запросу, создавая «обогащенный контекст».

Генерация ответа LLM
Обогащенный контекст передается LLM (например, GPT, Gemini, Claude). Модель использует новые данные для формирования ответа.

Возврат результата
Готовый ответ возвращается пользователю.

В чем преимущества?
Всегда актуально: даже если помощник «не знал» чего-то раньше, он найдёт свежую информацию.
Точность: подходит для сложных тем, где ошибаться нельзя — медицина, законы, наука.
Не нужно учить заново: вместо того чтобы «переучивать» помощника на новые данные, просто обновляют источники информации.

Итог
RAG — это как дать умному помощнику шпаргалку с самой важной информацией. Он остаётся таким же быстрым и сообразительным, но теперь может помочь в любой области, где есть знания. Если вы когда-нибудь задумывались, как ИИ даёт точные ответы на специфические вопросы — теперь знаете секрет!

#ai #ByteByteGo
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍42