Python-баг, который выглядит безобидно… но ломает логику 👇
fruits = ["apple", "lime", "orange",
"pineapple", "orange"]
for f in fruits:
if f == "orange":
fruits.remove(f)
print(fruits)
Ожидание: оба orange удалятся.
Реальность: один orange остаётся.
Почему так происходит?
Ты изменяешь список во время итерации.
После удаления элементы сдвигаются, и цикл пропускает следующий элемент.
Это классический сценарий продакшн-багов:
• код выглядит правильно
• тесты могут пройти
• но данные обрабатываются неправильно
Правильный вариант:
fruits = [f for f in fruits if f != "orange"]
Мораль:
Изменяешь коллекцию во время обхода -Deploy first. Pray later.
#junior #python
@Python_Community_ru
fruits = ["apple", "lime", "orange",
"pineapple", "orange"]
for f in fruits:
if f == "orange":
fruits.remove(f)
print(fruits)
Ожидание: оба orange удалятся.
Реальность: один orange остаётся.
Почему так происходит?
Ты изменяешь список во время итерации.
После удаления элементы сдвигаются, и цикл пропускает следующий элемент.
Это классический сценарий продакшн-багов:
• код выглядит правильно
• тесты могут пройти
• но данные обрабатываются неправильно
Правильный вариант:
fruits = [f for f in fruits if f != "orange"]
Мораль:
Изменяешь коллекцию во время обхода -Deploy first. Pray later.
#junior #python
@Python_Community_ru
🚀 Погружение в алгоритмы AI без магии
no-magic — это коллекция однофайловых, независимых реализаций алгоритмов, которые лежат в основе современных ИИ. Каждый скрипт является самодостаточной программой, обучающей модель с нуля и выполняющей предсказания, без использования сложных библиотек.
🚀 Основные моменты:
- Один файл — один алгоритм, без внешних зависимостей.
- Полное обучение и предсказание в каждом скрипте.
- Читаемый код с обязательными комментариями для понимания.
- Работает на обычном CPU за разумное время.
📌 GitHub: https://github.com/Mathews-Tom/no-magic
#python
@Python_Community_ru
no-magic — это коллекция однофайловых, независимых реализаций алгоритмов, которые лежат в основе современных ИИ. Каждый скрипт является самодостаточной программой, обучающей модель с нуля и выполняющей предсказания, без использования сложных библиотек.
🚀 Основные моменты:
- Один файл — один алгоритм, без внешних зависимостей.
- Полное обучение и предсказание в каждом скрипте.
- Читаемый код с обязательными комментариями для понимания.
- Работает на обычном CPU за разумное время.
📌 GitHub: https://github.com/Mathews-Tom/no-magic
#python
@Python_Community_ru
🎥 Генерация видео с FireRed-OpenStoryline
FireRed-OpenStoryline упрощает создание видео, превращая его в интуитивный процесс общения. Система автоматически генерирует сценарии, подбирает музыку и шрифты, а также позволяет редактировать видео с помощью естественных языковых команд.
🚀 Основные моменты:
- 🌐 Умный поиск и организация медиа
- ✍️ Интеллектуальная генерация сценариев
- 🎵 Рекомендации по музыке и озвучке
- 💬 Редактирование через разговорные команды
- ⚡ Архивирование навыков редактирования
📌 GitHub: https://github.com/FireRedTeam/FireRed-OpenStoryline
@Python_Community_ru
FireRed-OpenStoryline упрощает создание видео, превращая его в интуитивный процесс общения. Система автоматически генерирует сценарии, подбирает музыку и шрифты, а также позволяет редактировать видео с помощью естественных языковых команд.
🚀 Основные моменты:
- 🌐 Умный поиск и организация медиа
- ✍️ Интеллектуальная генерация сценариев
- 🎵 Рекомендации по музыке и озвучке
- 💬 Редактирование через разговорные команды
- ⚡ Архивирование навыков редактирования
📌 GitHub: https://github.com/FireRedTeam/FireRed-OpenStoryline
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Регулярные выражения для извлечения ссылок из HTML с помощью Python
Сохрани себе: извлечение всех ссылок со страницы с помощью регулярных выражений - это быстро и просто. Вот пример кода, который поможет тебе в этом.
import re
import requests
def extract_links(url):
response = requests.get(url)
html_content = response.text
links = re.findall(r'href=["\']?(https?://[^"\'>]+)', html_content)
return links
url = 'https://example.com'
all_links = extract_links(url)
print(all_links)
@Python_Community_ru
Сохрани себе: извлечение всех ссылок со страницы с помощью регулярных выражений - это быстро и просто. Вот пример кода, который поможет тебе в этом.
import re
import requests
def extract_links(url):
response = requests.get(url)
html_content = response.text
links = re.findall(r'href=["\']?(https?://[^"\'>]+)', html_content)
return links
url = 'https://example.com'
all_links = extract_links(url)
print(all_links)
@Python_Community_ru
⚡️ Как изучать любой GitHub-репозиторий за 5 минут с DeepWiki
Если ты открываешь чужой репозиторий и не понимаешь, с чего начать - не читай файлы вручную. Спроси код.
DeepWiki автоматически строит AI-wiki для любого проекта и позволяет задавать вопросы прямо к исходникам.
Как использовать:
1. Открой нужный репозиторий на GitHub
2. Замени в адресе:
github.com → deepwiki.com
3. Задай вопросы:
- Как устроена архитектура?
- С чего начинается запуск?
- Где реализована основная логика?
- Как работает конкретная функция?
Почему это работает:
- Документация может быть устаревшей
- README часто поверхностный
- Код — единственный источник истины
DeepWiki анализирует структуру проекта и объясняет её простым языком.
Когда особенно полезно:
- Быстрый онбординг в новый проект
- Подготовка к собеседованию
- Разбор open-source
- Понимание сложных библиотек
- Работа AI-агентов с кодом
Главная мысль:
Не читай сотни файлов — задавай вопросы репозиторию.
Пример
GitHub
https://github.com/karpathy/nanochat
// DeepWiki
https://deepwiki.com/karpathy/nanochat
Примеры вопросов:
- How does training work?
- Where is the main entry point?
- How is inference implemented?
- What are the key modules?
@Python_Community_ru
Если ты открываешь чужой репозиторий и не понимаешь, с чего начать - не читай файлы вручную. Спроси код.
DeepWiki автоматически строит AI-wiki для любого проекта и позволяет задавать вопросы прямо к исходникам.
Как использовать:
1. Открой нужный репозиторий на GitHub
2. Замени в адресе:
github.com → deepwiki.com
3. Задай вопросы:
- Как устроена архитектура?
- С чего начинается запуск?
- Где реализована основная логика?
- Как работает конкретная функция?
Почему это работает:
- Документация может быть устаревшей
- README часто поверхностный
- Код — единственный источник истины
DeepWiki анализирует структуру проекта и объясняет её простым языком.
Когда особенно полезно:
- Быстрый онбординг в новый проект
- Подготовка к собеседованию
- Разбор open-source
- Понимание сложных библиотек
- Работа AI-агентов с кодом
Главная мысль:
Не читай сотни файлов — задавай вопросы репозиторию.
Пример
GitHub
https://github.com/karpathy/nanochat
// DeepWiki
https://deepwiki.com/karpathy/nanochat
Примеры вопросов:
- How does training work?
- Where is the main entry point?
- How is inference implemented?
- What are the key modules?
@Python_Community_ru
GitHub
GitHub - karpathy/nanochat: The best ChatGPT that $100 can buy.
The best ChatGPT that $100 can buy. Contribute to karpathy/nanochat development by creating an account on GitHub.
🎥🚀 MOVA: Инновационная генерация видео и аудио
MOVA — это открытая модель, которая синхронно генерирует видео и аудио, устраняя проблемы каскадных пайплайнов. Она обеспечивает высокое качество и точную синхронизацию губ и звуковых эффектов, предлагая пользователям мощный инструмент для создания контента.
🚀Основные моменты:
- Бимодальная генерация: видео и аудио создаются одновременно.
- Высокая точность синхронизации губ и звуковых эффектов.
- Полностью открытый исходный код и доступные веса модели.
- Архитектура с асимметричными двойными башнями для лучшего взаимодействия модальностей.
📌 GitHub: https://github.com/OpenMOSS/MOVA
#python
@Python_Community_ru
MOVA — это открытая модель, которая синхронно генерирует видео и аудио, устраняя проблемы каскадных пайплайнов. Она обеспечивает высокое качество и точную синхронизацию губ и звуковых эффектов, предлагая пользователям мощный инструмент для создания контента.
🚀Основные моменты:
- Бимодальная генерация: видео и аудио создаются одновременно.
- Высокая точность синхронизации губ и звуковых эффектов.
- Полностью открытый исходный код и доступные веса модели.
- Архитектура с асимметричными двойными башнями для лучшего взаимодействия модальностей.
📌 GitHub: https://github.com/OpenMOSS/MOVA
#python
@Python_Community_ru
🌟 Создайте свой пиксельный офис с Star Office UI
Star Office UI — это интерактивная панель для многопользовательского сотрудничества, визуализирующая статус ваших AI помощников в реальном времени. Вы можете видеть, кто чем занят, что было сделано вчера и кто сейчас онлайн.
🚀 Основные моменты:
- Визуализация статусов AI: idle, writing, syncing и др.
- "Вчерашние заметки" для краткого обзора выполненной работы.
- Поддержка приглашения других участников в офис.
- Адаптивный интерфейс для мобильных устройств.
- Гибкие варианты публичного доступа.
📌 GitHub: https://github.com/ringhyacinth/Star-Office-UI
#python
@Python_Community_ru
Star Office UI — это интерактивная панель для многопользовательского сотрудничества, визуализирующая статус ваших AI помощников в реальном времени. Вы можете видеть, кто чем занят, что было сделано вчера и кто сейчас онлайн.
🚀 Основные моменты:
- Визуализация статусов AI: idle, writing, syncing и др.
- "Вчерашние заметки" для краткого обзора выполненной работы.
- Поддержка приглашения других участников в офис.
- Адаптивный интерфейс для мобильных устройств.
- Гибкие варианты публичного доступа.
📌 GitHub: https://github.com/ringhyacinth/Star-Office-UI
#python
@Python_Community_ru
🔧 Инструмент для тестирования безопасности
RaspyJack - это портативный инструмент для авторизованного тестирования безопасности с интерфейсом на LCD, веб-интерфейсом и интегрированной IDE для создания полезных нагрузок. Подходит для исследований и образовательных целей.
🚀 Основные моменты:
- LCD-интерфейс для управления
- Категории полезных нагрузок (разведка, перехват и др.)
- Веб-интерфейс для удаленного управления
- Интеграция инструментов DNS-спуфинга и WiFi-атак
📌 GitHub: https://github.com/7h30th3r0n3/Raspyjack
@Python_Community_ru
RaspyJack - это портативный инструмент для авторизованного тестирования безопасности с интерфейсом на LCD, веб-интерфейсом и интегрированной IDE для создания полезных нагрузок. Подходит для исследований и образовательных целей.
🚀 Основные моменты:
- LCD-интерфейс для управления
- Категории полезных нагрузок (разведка, перехват и др.)
- Веб-интерфейс для удаленного управления
- Интеграция инструментов DNS-спуфинга и WiFi-атак
📌 GitHub: https://github.com/7h30th3r0n3/Raspyjack
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Языки программирования и их for-циклы
Ты когда-нибудь замечал, что почти все языки программирования выглядят по-разному, но внутри делают одно и то же?
Самый простой пример — обычный цикл. В Python он читается почти как английский. В C, Java и Go он выглядит как строгая формула. В Rust и Kotlin больше похож на математическую запись. А в Assembly это вообще набор инструкций для процессора.
Но смысл всегда один и тот же. Мы просто говорим компьютеру: повтори действие N раз.
• 🐍 Python - for i in range(n):
• ☕ Java - for(int i=0;i
@Python_Community_ru
Ты когда-нибудь замечал, что почти все языки программирования выглядят по-разному, но внутри делают одно и то же?
Самый простой пример — обычный цикл. В Python он читается почти как английский. В C, Java и Go он выглядит как строгая формула. В Rust и Kotlin больше похож на математическую запись. А в Assembly это вообще набор инструкций для процессора.
Но смысл всегда один и тот же. Мы просто говорим компьютеру: повтори действие N раз.
• 🐍 Python - for i in range(n):
• ☕ Java - for(int i=0;i
@Python_Community_ru
OpenAI объявила о начале развёртывания новых моделей GPT-5.4 Thinking и GPT-5.4 Pro в ChatGPT.
Также GPT-5.4 стала доступна разработчикам через API и в Codex. Новая версия объединяет несколько ключевых направлений развития моделей: улучшенное логическое рассуждение, более сильные возможности программирования и поддержку агентных сценариев работы.
Самое интересное:
• GPT-5.4 лидер в agentic tasks
• заметный скачок в математике
• очень сильный результат в научных задачах (GPQA)
• улучшена работа с веб-средой и инструментами
Фактически это модель, которую явно оптимизировали под агентов, инструменты и сложное reasoning, а не просто чат.
По словам компании, GPT-5.4 стала одной из самых точных и эффективных моделей. Она требует меньше токенов для выполнения задач и работает быстрее по сравнению с предыдущими версиями.
В версии ChatGPT модель GPT-5.4 Thinking получила улучшенный режим размышления: при более длительном анализе она лучше удерживает контекст и способна проводить более глубокие исследования в интернете.
Появилась и новая функция управления процессом ответа. Теперь пользователь может прервать генерацию в середине ответа и изменить направление работы модели, добавив новые инструкции.
Функция управления ответом уже начинает появляться в веб-версии ChatGPT и на Android. Поддержка iOS ожидается немного позже.
https://x.com/openai/status/2029620624923189283?s=46
@ai_machinelearning_big_data
@Python_Community_ru
Также GPT-5.4 стала доступна разработчикам через API и в Codex. Новая версия объединяет несколько ключевых направлений развития моделей: улучшенное логическое рассуждение, более сильные возможности программирования и поддержку агентных сценариев работы.
Самое интересное:
• GPT-5.4 лидер в agentic tasks
• заметный скачок в математике
• очень сильный результат в научных задачах (GPQA)
• улучшена работа с веб-средой и инструментами
Фактически это модель, которую явно оптимизировали под агентов, инструменты и сложное reasoning, а не просто чат.
По словам компании, GPT-5.4 стала одной из самых точных и эффективных моделей. Она требует меньше токенов для выполнения задач и работает быстрее по сравнению с предыдущими версиями.
В версии ChatGPT модель GPT-5.4 Thinking получила улучшенный режим размышления: при более длительном анализе она лучше удерживает контекст и способна проводить более глубокие исследования в интернете.
Появилась и новая функция управления процессом ответа. Теперь пользователь может прервать генерацию в середине ответа и изменить направление работы модели, добавив новые инструкции.
Функция управления ответом уже начинает появляться в веб-версии ChatGPT и на Android. Поддержка iOS ожидается немного позже.
https://x.com/openai/status/2029620624923189283?s=46
@ai_machinelearning_big_data
@Python_Community_ru
🔥 Вышла модель Qwen-Image-Layered-Control-V2
Новая версия инструмента для извлечения слоёв из изображений с управлением через кисть. Модель построена поверх оригинальной Qwen-Image-Layered-Control и позволяет точнее выделять элементы на иллюстрациях и постерах.
Теперь можно управлять слоями прямо на изображении:
Красная кисть показывает какой слой нужно извлечь.
Зелёная кисть отмечает что нужно удалить.
Если области пересекаются, они отображаются жёлтым.
Также продолжает работать текстовое управление:
prompt — описывает, что нужно извлечь.
negative_prompt — что нужно исключить.
Кисти и текст можно свободно комбинировать, что даёт больше контроля при работе со слоями.
Рекомендуемые настройки: около 10 шагов инференса.
Если используется управление кистью, можно поставить cfg_scale=1, чтобы значительно ускорить генерацию.
Лучше всего модель работает с постерами и иллюстрациями, где объекты изначально разделены на слои. Для фотографий с тенями и сложным освещением она не предназначена.
Модель обучена на датасете PrismLayersPro и распространяется как LoRA, которая загружается поверх базовой версии V1.
🟢Model: https://modelscope.ai/models/DiffSynth-Studio/Qwen-Image-Layered-Control-V2
🟢Dataset: https://modelscope.cn/datasets/artplus/PrismLayersPro
🟢GitHub: https://github.com/modelscope/DiffSynth-Studio
@Python_Community_ru
Новая версия инструмента для извлечения слоёв из изображений с управлением через кисть. Модель построена поверх оригинальной Qwen-Image-Layered-Control и позволяет точнее выделять элементы на иллюстрациях и постерах.
Теперь можно управлять слоями прямо на изображении:
Красная кисть показывает какой слой нужно извлечь.
Зелёная кисть отмечает что нужно удалить.
Если области пересекаются, они отображаются жёлтым.
Также продолжает работать текстовое управление:
prompt — описывает, что нужно извлечь.
negative_prompt — что нужно исключить.
Кисти и текст можно свободно комбинировать, что даёт больше контроля при работе со слоями.
Рекомендуемые настройки: около 10 шагов инференса.
Если используется управление кистью, можно поставить cfg_scale=1, чтобы значительно ускорить генерацию.
Лучше всего модель работает с постерами и иллюстрациями, где объекты изначально разделены на слои. Для фотографий с тенями и сложным освещением она не предназначена.
Модель обучена на датасете PrismLayersPro и распространяется как LoRA, которая загружается поверх базовой версии V1.
🟢Model: https://modelscope.ai/models/DiffSynth-Studio/Qwen-Image-Layered-Control-V2
🟢Dataset: https://modelscope.cn/datasets/artplus/PrismLayersPro
🟢GitHub: https://github.com/modelscope/DiffSynth-Studio
@Python_Community_ru