This media is not supported in your browser
VIEW IN TELEGRAM
Мне конечно нечего тут сказать за репертура но ремикс Агутина и стиль подобный Миадзаки делает такие вещи приятными к просмотру
FLUX + Runaway внутри моего бота 4 генерации картинки и 4 генерации видео(с первого раза) склейка в CapCut за 2 минуты
FLUX + Runaway внутри моего бота 4 генерации картинки и 4 генерации видео(с первого раза) склейка в CapCut за 2 минуты
👍8❤5🔥3😁3
Хочу поделиться с вами интересным эссе от Дарио Амодеи, CEO Anthropic, о потенциальном влиянии Powerful AI на мир:
"Machines of Loving Grace: How AI Could Transform the World for the Better"
Амодеи рассматривает, как Powerful AI может изменить различные сферы жизни в ближайшие 5-10 лет после его создания:
• Здравоохранение и биология
• Нейронаука и психическое здоровье
• Экономическое развитие
• Управление и демократия
• Смысл жизни в эпоху AI
Интересно, что автор отходит от термина AGI в пользу "Powerful AI", что отражает уход от хайпа в прагматичный взгляд на развитие технологий LLM
Рекомендую к прочтению всем, кто интересуется будущим AI и его влиянием на общество и еще написано достаточно круто и легко читается.
https://darioamodei.com/machines-of-loving-grace
"Machines of Loving Grace: How AI Could Transform the World for the Better"
Амодеи рассматривает, как Powerful AI может изменить различные сферы жизни в ближайшие 5-10 лет после его создания:
• Здравоохранение и биология
• Нейронаука и психическое здоровье
• Экономическое развитие
• Управление и демократия
• Смысл жизни в эпоху AI
Интересно, что автор отходит от термина AGI в пользу "Powerful AI", что отражает уход от хайпа в прагматичный взгляд на развитие технологий LLM
Рекомендую к прочтению всем, кто интересуется будущим AI и его влиянием на общество и еще написано достаточно круто и легко читается.
https://darioamodei.com/machines-of-loving-grace
Darioamodei
Dario Amodei — Machines of Loving Grace
How AI Could Transform the World for the Better
1👍9❤8 2
Media is too big
VIEW IN TELEGRAM
Мы с вами живём в очень интересное время!
С первого раза поймали!
С первого раза поймали!
🔥15👍5😁2❤1
Neural Deep
Всем привет! Что-то я давно не писал лонгридов, а только пересылал посты из моего наблюдения. И накопилось порядком много тем которые я прорабатывал последний месяц, вот пришел спросить у вас, что вам было бы интересно почитать. Проголосовать можно в комментариях…
Всем привет!
Как обещал, раскрываю 5 пункт! 🚀
Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач
Ключевые особенности на мой взгляд
Использование vLLM
Применение lm-format-enforcer для структурированного вывода
Многопоточная обработка на NVIDIA RTX 4090 в 10 потоков
📊 Архитектура системы:
Супервизор (на базе Llama 3.1 8b)
RAG Agent разработки NDT (для работы с базой знаний)
SQL Agent (для запросов к БД)
ResponseGenerator Agent (для генерации ответов)
🤔 Почему lm-format-enforcer, а не function calling?
Я попробовал lm-format-enforcer, и мне понравилось, как я могу контролировать детерминированность структурированного вывода, что критично для сложных многоагентных систем.
Как это работает?
Внутри кода запуска модели происходит фильтрация путем создания маски разрешенных токенов на основе текущего состояния парсера и применения этой маски к выходным логитам языковой модели, обнуляя вероятности недопустимых токенов перед выбором следующего токена.
📝 Пример схемы для запроса:
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
Запрос:
Ответ от модели:
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос
и вернет данные в responce generator
Преимущества подхода:
Точный контроль над форматом вывода
Снижение вероятности галлюцинаций
Улучшенная интеграция между агентами
Масштабируемость на сложные сценарии
Что дальше?
- Усложнение агентской сети
- Работа над сборкой датасета для агентов
- Дальнейшая оптимизация производительности
Как обещал, раскрываю 5 пункт! 🚀
Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач
Ключевые особенности на мой взгляд
Использование vLLM
Применение lm-format-enforcer для структурированного вывода
Многопоточная обработка на NVIDIA RTX 4090 в 10 потоков
📊 Архитектура системы:
Супервизор (на базе Llama 3.1 8b)
RAG Agent разработки NDT (для работы с базой знаний)
SQL Agent (для запросов к БД)
ResponseGenerator Agent (для генерации ответов)
🤔 Почему lm-format-enforcer, а не function calling?
Я попробовал lm-format-enforcer, и мне понравилось, как я могу контролировать детерминированность структурированного вывода, что критично для сложных многоагентных систем.
Как это работает?
Внутри кода запуска модели происходит фильтрация путем создания маски разрешенных токенов на основе текущего состояния парсера и применения этой маски к выходным логитам языковой модели, обнуляя вероятности недопустимых токенов перед выбором следующего токена.
📝 Пример схемы для запроса:
schema = {
"type": "object",
"properties": {
"agent": {"type": "string", "enum": ["RAG", "SQL", "ResponseGenerator"]},
"task": {
"type": "object",
"properties": {
"query": {"type": "string"},
"additional_info": {"type": "string"}
},
"required": ["query"]
}
},
"required": ["agent", "task"]
}
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
request_data = {
"messages": messages,
"model": "llama-3.1-8b-instruct",
"max_tokens": 1000,
"temperature": 0.0,
"guided_json": json.dumps(schema),
"guided_decoding_backend": "lm-format-enforcer"
}
Запрос:
Когда была последняя продажа проекта компании 'Супервизор'?
Ответ от модели:
{
"task": {
"query": "Последняя продажа проекта компании 'Супервизор'"
},
"agent": "SQL"
}
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос
SELECT * FROM sales WHERE company_name = 'Супервизор'
и вернет данные в responce generator
[
0:"2023-05-15"
1:"2023-08-22"
]
Преимущества подхода:
Точный контроль над форматом вывода
Снижение вероятности галлюцинаций
Улучшенная интеграция между агентами
Масштабируемость на сложные сценарии
Что дальше?
- Усложнение агентской сети
- Работа над сборкой датасета для агентов
- Дальнейшая оптимизация производительности
23🔥12❤5👍1
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁11🔥6❤1
https://huggingface.co/nvidia/Llama-3.1-Nemotron-70B-Instruct-HF/tree/main
Просто оставлю этот тут
Для 4 карт 4090 https://huggingface.co/leafspark/Llama-3.1-Nemotron-70B-Instruct-HF-FP8-Dynamic/tree/main
Просто оставлю этот тут
Для 4 карт 4090 https://huggingface.co/leafspark/Llama-3.1-Nemotron-70B-Instruct-HF-FP8-Dynamic/tree/main
🔥9😁2❤1
Forwarded from Сергей Горюшко
Красивое с реддита:
https://www.reddit.com/r/LocalLLaMA/s/1HkJlDtZsF
Кастомный билд 4 4090, Threadripper Pro 7965WX, 256GB RAM, два БП (be quiet! Straight Power 12 Platinum 1500W , Cooler Master V SFX Platinum 1300W), водное охлаждение и несколько 360mm вентиляторов. Материнка Asus Pro WRX90E-SAGE SE.
https://www.reddit.com/r/LocalLLaMA/s/1HkJlDtZsF
Кастомный билд 4 4090, Threadripper Pro 7965WX, 256GB RAM, два БП (be quiet! Straight Power 12 Platinum 1500W , Cooler Master V SFX Platinum 1300W), водное охлаждение и несколько 360mm вентиляторов. Материнка Asus Pro WRX90E-SAGE SE.
🔥14❤7
А вот и контент от нас NDT!
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени на обновление данных часто не хватает, поиск материалов стал сложнее, а часть информации вообще канула в лету вместе с ушедшими сотрудниками. В итоге пересылка документов в чатах и многочисленные гугл-таблички стали самым простым, но не самым удобным и тем более безопасным вариантом.
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени на обновление данных часто не хватает, поиск материалов стал сложнее, а часть информации вообще канула в лету вместе с ушедшими сотрудниками. В итоге пересылка документов в чатах и многочисленные гугл-таблички стали самым простым, но не самым удобным и тем более безопасным вариантом.
Хабр
Как мы сделали базу знаний Smarty на основе RAG
За 15 лет работы red_mad_robot база знаний компании сильно масштабировалась. Появление новых артефактов и рост количества проектов усложнили актуализацию знаний для сотрудников. Времени...
👍9❤7🔥6
Forwarded from Лёха ведет дневник
Media is too big
VIEW IN TELEGRAM
Завтра принимаю участие в GENERATIONS INNOVATION AWARD.
Вот так звучит в приглашении)
Что значит в формате «TED Talks» мне не очень понятно, но сказали, что ничего готовить не надо, кроме того, что мы уже присылали, когда подавались на это мероприятие.
А подавались мы на 2 номинации:
1. Внутренняя инновация года:
В рамках номинации оцениваются внутренние инновационные проекты компаний, которые помогли улучшить процессы, а также эффективность от их реализации, в 2023 г.
2. Международная кооперация и экспорт инноваций:
В рамках номинации оцениваются результаты кооперации в области инноваций, совместных проектов и разработок технологий и высокотехнологичной продукции российских компаний с партнерами из дружественных стран, в 2023 г.
Прикрепленный видосик к посту как раз таки про вторую номинацию)
Посмотрим, как все пройдет. Если повезёт, то может и победим.
Завтра отпишусь! Stay tuned.
Деловая программа традиционно будет посвящена вопросам перехода на инновационную модель российской экономики, развитию технологий и выстраиванию международной кооперации.
Завершит деловую программу презентация лучших кейсов российских компаний и вузов в формате «TED Talks» и награждение победителей.
Вот так звучит в приглашении)
Что значит в формате «TED Talks» мне не очень понятно, но сказали, что ничего готовить не надо, кроме того, что мы уже присылали, когда подавались на это мероприятие.
А подавались мы на 2 номинации:
1. Внутренняя инновация года:
В рамках номинации оцениваются внутренние инновационные проекты компаний, которые помогли улучшить процессы, а также эффективность от их реализации, в 2023 г.
2. Международная кооперация и экспорт инноваций:
В рамках номинации оцениваются результаты кооперации в области инноваций, совместных проектов и разработок технологий и высокотехнологичной продукции российских компаний с партнерами из дружественных стран, в 2023 г.
Прикрепленный видосик к посту как раз таки про вторую номинацию)
Посмотрим, как все пройдет. Если повезёт, то может и победим.
Завтра отпишусь! Stay tuned.
11👍11🔥4❤1
Мой личный батхерт к которому я пришел в течении года
2025 не за горами а зумеры из LLM заново изобрели RPA!
Помните обещания OpenAI про AGI к 2025 году? На пороге обещанной даты, а что мы видим?
Спойлер: зумеры с восторгом переизобретают RPA на базе LLM! 😅
Агент управления ПК от антропик в туже копилку
Что происходит на самом деле и что я вижу:
"Автоматизирую процессы с помощью GPT!" — по факту, обычный RPA
"Революционные AI-ассистенты" — классические таск-трекеры с NLP
"AI-агенты" — хайп-термин для скриптов автоматизации
Забавные наблюдения:
Цены на API упали в 25 раз — "уникальная" технология стала коммодити
Prompt-инженеры по сути пишут правила для классификаторов
"AI-стартапы" делают то, что Automation Anywhere умел 10 лет назад
В чем twist?
Вместо обещанного искусственного интеллекта получили новый способ писать условия для if-else, только теперь на естественном языке
Мораль истории?
Новое поколение просто переупаковало старые идеи в модную обёртку. Но может, это и неплохо? RPA стал доступнее, а космические обещания про AGI превратились в практичные инструменты автоматизации.
И кстати в следующем интенсиве я буду рассказывать про MAS и агентов (как собрать себе агента для рабочих задач)
2025 не за горами а зумеры из LLM заново изобрели RPA!
Помните обещания OpenAI про AGI к 2025 году? На пороге обещанной даты, а что мы видим?
Спойлер: зумеры с восторгом переизобретают RPA на базе LLM! 😅
Агент управления ПК от антропик в туже копилку
Что происходит на самом деле и что я вижу:
"Автоматизирую процессы с помощью GPT!" — по факту, обычный RPA
"Революционные AI-ассистенты" — классические таск-трекеры с NLP
"AI-агенты" — хайп-термин для скриптов автоматизации
Забавные наблюдения:
Цены на API упали в 25 раз — "уникальная" технология стала коммодити
Prompt-инженеры по сути пишут правила для классификаторов
"AI-стартапы" делают то, что Automation Anywhere умел 10 лет назад
В чем twist?
Вместо обещанного искусственного интеллекта получили новый способ писать условия для if-else, только теперь на естественном языке
Мораль истории?
Новое поколение просто переупаковало старые идеи в модную обёртку. Но может, это и неплохо? RPA стал доступнее, а космические обещания про AGI превратились в практичные инструменты автоматизации.
И кстати в следующем интенсиве я буду рассказывать про MAS и агентов (как собрать себе агента для рабочих задач)
11👍14 10😁2
Neural Deep
Всем привет! Как обещал, раскрываю 5 пункт! 🚀 Создание мультиагентной системы на базе Llama 3.1-8b: Интеллектуальный супервизор задач Ключевые особенности на мой взгляд Использование vLLM Применение lm-format-enforcer для структурированного вывода Многопоточная…
Понял что формат работы Супервизора был неполностью описан, дополнил модель данных и ответы от агентов
Кстати все больше агентов появляется в нашем арсенале если интересно узнать ставьте 🔥 расскажу про каждого агента
📝 Пример схемы для запроса:
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
Запрос:
Ответ от модели:
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос из неявного пользовательского запроса
Как? Ему передали модель данных таблиц и провели небольшой инконтекст лернинг
Теперь он умеет джоинть таблички если надо и шарит в каком месте доставать данные
и вернет данные в responce generator
P.S Это работает на моделях и меньше 8b и может быть встроено в ваш бизнес!
Кстати все больше агентов появляется в нашем арсенале если интересно узнать ставьте 🔥 расскажу про каждого агента
📝 Пример схемы для запроса:
schema = {
"type": "object",
"properties": {
"agent": {"type": "string", "enum": ["RAG", "SQL", "ResponseGenerator"]},
"task": {
"type": "object",
"properties": {
"query": {"type": "string"},
"additional_info": {"type": "string"}
},
"required": ["query"]
}
},
"required": ["agent", "task"]
}
Эта схема определяет структуру ответа модели, гарантируя, что она выберет подходящего агента и сформулирует задачу в нужном формате.
Пример использования lm-format-enforcer:
request_data = {
"messages": messages,
"model": "llama-3.1-8b-instruct",
"max_tokens": 1000,
"temperature": 0.0,
"guided_json": json.dumps(schema),
"guided_decoding_backend": "lm-format-enforcer"
}
Запрос:
Когда была последняя продажа проекта компании 'Супервизор'?
Ответ от модели:
{
"task": {
"query": "Последняя продажа проекта компании 'Супервизор'"
},
"agent": "SQL"
}
Модель в режиме агента смогла правильно классифицировать агента и далее запуститься пайплан работы SQL агента который сгенерирует SQL запрос из неявного пользовательского запроса
Как? Ему передали модель данных таблиц и провели небольшой инконтекст лернинг
Теперь он умеет джоинть таблички если надо и шарит в каком месте доставать данные
SELECT * FROM sales WHERE company_name = 'Супервизор'
и вернет данные в responce generator
[
0:"2023-05-15"
1:"2023-08-22"
]
P.S Это работает на моделях и меньше 8b и может быть встроено в ваш бизнес!
🔥21 7👍6
Всем привет! Хочу поделится репозиторием для валидации CV моделей.
https://github.com/MiXaiLL76/faster_coco_eval
Этот репозиторий в одиночку тащит мой друг @mixaill76 и не сдается.
Сейчас он остался единственным, кто в эту NLP поддерживает валидационные CV пайплайны и обновляет свои библиотеки.
Кроме того, он обошел все остальные библиотеки по скорости валидации.
В общем, прошу поддержать лайком и звездочкой на github!
А для тех, кто еще увлекается CV, вот вам простой код запуска этой либы:
install:
usage:
Сравнение по скорости работы прилагаю скрином:
https://github.com/MiXaiLL76/faster_coco_eval
Этот репозиторий в одиночку тащит мой друг @mixaill76 и не сдается.
Сейчас он остался единственным, кто в эту NLP поддерживает валидационные CV пайплайны и обновляет свои библиотеки.
Кроме того, он обошел все остальные библиотеки по скорости валидации.
В общем, прошу поддержать лайком и звездочкой на github!
А для тех, кто еще увлекается CV, вот вам простой код запуска этой либы:
install:
pip install faster-coco-eval
usage:
import faster_coco_eval
# Replace pycocotools with faster_coco_eval
faster_coco_eval.init_as_pycocotools()
from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOeval
anno = COCO(str(anno_json)) # init annotations api
pred = anno.loadRes(str(pred_json)) # init predictions api (must pass string, not Path)
val = COCOeval(anno, pred, "bbox")
val.evaluate()
val.accumulate()
val.summarize()
Сравнение по скорости работы прилагаю скрином:
🔥11👍6❤5
Forwarded from red_mad_robot
В чём C-level хочет разобраться прямо сейчас? В AI, конечно.
❤️ Поэтому мы вместе со SberDevices запустили серию митапов GenAI Pulse, где помогали российскому бизнесу разобраться в этих ваших (и наших) LLM. Рассказываем, как всё прошло.
✔️ Кто пришёл?
В этот раз с нами были: VK, Burger King, ФСК, А101, Kerama Marazzi, Merlion и другие.
✔️ Что обсуждали?
Теория: погружались в контекст разных слоёв рынка AI, его тренды и вызовы для бизнеса;
Практика: ideation-воркшоп, где мы вместе с участниками генерировали гипотезы по применению AI в сфере их бизнеса;
Выпускной Демо: мы представили демо-версии сценариев, разработанных на воркшопе, чтобы участники могли наглядно увидеть, как LLM решает их задачи.
✔️ А ещё мы создали специальный чат-бот GenAI Pulse, куда не только отправляли материалы со встреч, но и делились эксклюзивными исследованиями рынка от аналитического центра r_m_r.
😊 Слово участнику:
Что мы поняли: такие мероприятия рынку сейчас нужны, как никогда. Поэтому в начале 2025 года мы снова соберёмся в нашей штаб-квартире на Ленинскомс лучшим видом на Москву , чтобы разбираться в AI.
↗️ Подписывайтесь на нашу рассылку, чтобы не пропустить набор на следующие митапы.
В этот раз с нами были: VK, Burger King, ФСК, А101, Kerama Marazzi, Merlion и другие.
Теория: погружались в контекст разных слоёв рынка AI, его тренды и вызовы для бизнеса;
Практика: ideation-воркшоп, где мы вместе с участниками генерировали гипотезы по применению AI в сфере их бизнеса;
«Митапы оказались именно тем, что сейчас нужно для моих проектов: половина из них уже включает AI, и здесь я смог углубиться в детали, которые важны для их дальнейшего развития. Команды red_mad_robot и SberDevices доступно объяснили, как работает RAG и как он позволяет использовать внешние данные для более точных ответов. Приятно, что спикеры не переборщили со сложной терминологией, поэтому погружение в генеративный AI было плавным и понятным». — Лев Корнев, ведущий менеджер продукта в B2C-направлении VK.
Что мы поняли: такие мероприятия рынку сейчас нужны, как никогда. Поэтому в начале 2025 года мы снова соберёмся в нашей штаб-квартире на Ленинском
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥5👍4
Media is too big
VIEW IN TELEGRAM
Сцена из фильма где Уилл Смит спрашивает робота может ли тот рисовать картины и сочинять музыку =)
😁13❤1
Однозначно требует тестов!
Что-то мало шума про open-source в коде а это
А нам как раз нужно проверить пару гипотез на клиенте, об эффективности напишу позднее
Qwen2.5-Coder-7b-instruct
Возможно мало доверия ведь это Китай
Ссылка на коллекцию
Что-то мало шума про open-source в коде а это
А нам как раз нужно проверить пару гипотез на клиенте, об эффективности напишу позднее
Qwen2.5-Coder-7b-instruct
Возможно мало доверия ведь это Китай
Ссылка на коллекцию
🔥8👍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Ваш карманный спец по GenAI
слетал тут на днях в МСК, провел очень интересный, на мой взгляд, воркшоп по применению ИИ в бизнесе.
Скоро раскрою чуть подробнее, но кейсов для себя я достал предостаточно. Ну и гипотезу подтвердил.
Чекаем крутые облака!
слетал тут на днях в МСК, провел очень интересный, на мой взгляд, воркшоп по применению ИИ в бизнесе.
Скоро раскрою чуть подробнее, но кейсов для себя я достал предостаточно. Ну и гипотезу подтвердил.
Чекаем крутые облака!
🔥13 8❤3
Всем привет пока подрастет новое поколение после спокойной ночи, у меня добрались руки развернуть Qwen 2.5 Coder
Дано
1. Новости о том что появилась Open-Source LLM которая по написанию кода сопоставима с GPT-4o
2. Код бота который состоит из более чем 600 строк и является монолитом
3. Qwen2.5-Coder-32B-Instruct развернута на нашем сервере с четырьмя 4090 на кастомном охлаждении который мы собрали вместе с одной крутой хардварной студией из Санкт-Петербурга
Характеристики запуска:
- 32B
- FP16
- Скорость чтения более 2к токенов в секунду
- Скорость генерации 20 токенов в секунду
- Контекст вмещает 32k токенов
- Длина очереди 2
Загрузил код в промпт и написал простую задачу на русском а именно "расширить модель лимитов и добавить туда новые возможности логирования последней активности пользователя по любым действиям" что влечет как по мне не мало изменений в коде
Результат
Модель за два прохода выдала 400 строк в первый раз и 200 во второй код заработал с первого раза без исправлений
Одна и небольшая задача изменения кода на питоне конечно не очень репрезентативно так что отдал на тест в свой отдел разработки посмотрим что скажут ребята по диффу модель сделала 15 изменений в этой портянке и предложила создать мерж скрипт на случай если этого поля нет в БД что ж я всегда считал этих ребят сверхлюдьми
Как всегда все со скринами и пруфами
Дано
1. Новости о том что появилась Open-Source LLM которая по написанию кода сопоставима с GPT-4o
2. Код бота который состоит из более чем 600 строк и является монолитом
3. Qwen2.5-Coder-32B-Instruct развернута на нашем сервере с четырьмя 4090 на кастомном охлаждении который мы собрали вместе с одной крутой хардварной студией из Санкт-Петербурга
Характеристики запуска:
- 32B
- FP16
- Скорость чтения более 2к токенов в секунду
- Скорость генерации 20 токенов в секунду
- Контекст вмещает 32k токенов
- Длина очереди 2
Загрузил код в промпт и написал простую задачу на русском а именно "расширить модель лимитов и добавить туда новые возможности логирования последней активности пользователя по любым действиям" что влечет как по мне не мало изменений в коде
Результат
Модель за два прохода выдала 400 строк в первый раз и 200 во второй код заработал с первого раза без исправлений
Одна и небольшая задача изменения кода на питоне конечно не очень репрезентативно так что отдал на тест в свой отдел разработки посмотрим что скажут ребята по диффу модель сделала 15 изменений в этой портянке и предложила создать мерж скрипт на случай если этого поля нет в БД что ж я всегда считал этих ребят сверхлюдьми
Как всегда все со скринами и пруфами
🔥14👍5❤3