🎮🚀 NitroGen: Модель для игровых агентов
NitroGen — это открытая модель для создания универсальных игровых агентов, способная предсказывать действия на основе пиксельного ввода. Обученная на крупнейшем наборе данных игрового видео, модель может адаптироваться к новым играм.
🚀Основные моменты:
- Многофункциональная модель для различных игр.
- Обучение на данных из интернет-видео.
- Поддержка адаптации к новым играм после обучения.
- Работает на Windows с Python ≥ 3.12.
📌 GitHub: https://github.com/MineDojo/NitroGen
#python
NitroGen — это открытая модель для создания универсальных игровых агентов, способная предсказывать действия на основе пиксельного ввода. Обученная на крупнейшем наборе данных игрового видео, модель может адаптироваться к новым играм.
🚀Основные моменты:
- Многофункциональная модель для различных игр.
- Обучение на данных из интернет-видео.
- Поддержка адаптации к новым играм после обучения.
- Работает на Windows с Python ≥ 3.12.
📌 GitHub: https://github.com/MineDojo/NitroGen
#python
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
☠️ Один Python-скрипт - убивает потребность в Excel #python #Excel
CSV в папке - и через секунды у тебя:
- быстрый анализ без ручных фильтров
- топ товаров и суммарная выручка
- график продаж по дням
- один повторяемый сценарий вместо 20 кликов
Фишка в том, что ты один раз написал скрипт - и дальше просто кидаешь новые CSV, получая одинаковый отчёт каждый раз.
CSV в папке - и через секунды у тебя:
- быстрый анализ без ручных фильтров
- топ товаров и суммарная выручка
- график продаж по дням
- один повторяемый сценарий вместо 20 кликов
Фишка в том, что ты один раз написал скрипт - и дальше просто кидаешь новые CSV, получая одинаковый отчёт каждый раз.
import pandas as pd
import matplotlib.pyplot as plt
df = pd.read_csv("sales.csv", parse_dates=["date"])
print("Выручка:", df["revenue"].sum())
print(df.groupby("product")["revenue"].sum().sort_values(ascending=False).head(5))
daily = df.groupby(df["date"].dt.date)["revenue"].sum()
daily.plot(title="Выручка по дням")
plt.tight_layout(); plt.show()
❤4👎2🤬2🔥1
Представь фэнтези-мир, где заклинания - это SQL-запросы, а древние артефакты спрятаны в таблицах и JSON-документах.
🧙Ты - боевой дата-аналитик, который с помощью SQL, Python, ETL и визуализаций охотится за харизматичным злодеем Архивариусом Пакостусом, что ломает индексы, крадёт данные и готовит “шторм данных” на столицу.🔮
В каждом эпизоде тебя ждут: выборы с последствиями, хитрые задачи от простых SELECT до рекурсивных CTE и BigQuery, юмор, эпик и неожиданные повороты.
Хочешь проверить, сможешь ли ты спасти королевство не мечом, а запросами? Тогда добро пожаловать в SQL-квест.
🪄 Начать квест: https://uproger.com/sql-kvest-fentezijnoe-priklyuchenie-dlya-analitikov-dannyh/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🎄🐍 Новогодний Python фокус для джунов: меньше шума, больше смысла
Новогодний Python-совет: перестань вручную подписывать отладочные принты. Используй f"{var=}", чтобы сразу видеть и имя переменной, и значение — чище, быстрее и без путаницы. Подходит и для пет-проектов, и для продакшена. Подписывайся, больше фишек каждый день !
Новогодний Python-совет: перестань вручную подписывать отладочные принты. Используй f"{var=}", чтобы сразу видеть и имя переменной, и значение — чище, быстрее и без путаницы. Подходит и для пет-проектов, и для продакшена. Подписывайся, больше фишек каждый день !
user = "Santa"
count = 3
items = ["🍪", "🎁", "✨"]
print(f"{user=}")
print(f"{count=}")
print(f"{items=}")
def greet(name):
return f"Happy New Year, {name}!"
print(f"{greet(user)=}")
❤4👍4🥰3
🔥 На Stepik вышел топ курс, который учит работать с Docker так, как это делают в реальных проектах с уклоном на реальные рейсы.
Этот практический курс покажет, как упаковывать приложения в контейнеры, собирать лёгкие и безопасные образы, поднимать несколько сервисов через docker-compose и готовить окружение для продакшена.
Ты пройдёшь путь от первого контейнера до полной инфраструктуры: с логами, сетями, томами, переменными окружения, безопасностью и отладкой.
Никакой теории ради теории, только реальные шаги, из которых рождается рабочая среда разработчика и прод-окружение.
🎁 В честь нового года ближайшие 48 часов - скидка 50 процентов!
👉 Начать обучение
Этот практический курс покажет, как упаковывать приложения в контейнеры, собирать лёгкие и безопасные образы, поднимать несколько сервисов через docker-compose и готовить окружение для продакшена.
Ты пройдёшь путь от первого контейнера до полной инфраструктуры: с логами, сетями, томами, переменными окружения, безопасностью и отладкой.
Никакой теории ради теории, только реальные шаги, из которых рождается рабочая среда разработчика и прод-окружение.
🎁 В честь нового года ближайшие 48 часов - скидка 50 процентов!
👉 Начать обучение
❤2👍1🥰1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎄🎄 Qwen-Image: обновление как раз к Новому году
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
❤2
Курс по Docker, написанный программистами для программистов. Мы выкинули историю контейнеризации и скучную теорию.
Вместо этого жесткая практика: ментальные модели через ООП, анатомия Linux-процессов, написание Dockerfile, docker-compose и подготовка к продакшену.
Экономь время: учись только тому, что реально используется в индустрии
https://uproger.com/docker-bolshoj-ischerpyvayushhij-kurs-glava-1-arhitektura-ponyatiya-i-pervyj-zapusk/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
🧠 Claude Cognitive: Умная память для Claude Code
Claude Cognitive добавляет рабочую память к Claude Code, позволяя эффективно управлять контекстом и координировать многопоточную работу. Это решение значительно снижает затраты токенов и улучшает производительность разработчиков, обеспечивая сохранение контекста и предотвращая дублирование работы.
🚀Основные моменты:
- Умная маршрутизация файлов с учетом внимания (HOT/WARM/COLD).
- Многофункциональная координация состояния для долгосрочных сессий.
- Экономия токенов до 95% в зависимости от размера кодовой базы.
- Поддержка многопоточной работы без повторного открытия задач.
📌 GitHub: https://github.com/GMaN1911/claude-cognitive
Claude Cognitive добавляет рабочую память к Claude Code, позволяя эффективно управлять контекстом и координировать многопоточную работу. Это решение значительно снижает затраты токенов и улучшает производительность разработчиков, обеспечивая сохранение контекста и предотвращая дублирование работы.
🚀Основные моменты:
- Умная маршрутизация файлов с учетом внимания (HOT/WARM/COLD).
- Многофункциональная координация состояния для долгосрочных сессий.
- Экономия токенов до 95% в зависимости от размера кодовой базы.
- Поддержка многопоточной работы без повторного открытия задач.
📌 GitHub: https://github.com/GMaN1911/claude-cognitive
❤3👍3
Один Python-бот заработал $153 752, много раз подряд используя одну и ту же ошибку в ценах.
На аккаунте distinct-baguette в лидерборде Polymarket и почти закрыл вкладку - обычный бот на 15-минутных окнах.
А потом увидел: 70% побед при шестизначной прибыли. Обычно прибыльные боты держат 85%+. Что-то было не так, но не с ботом, а с моим пониманием.
Главное: этот бот ничего не предсказывает.
Ему всё равно, вырастет BTC или упадёт. Он следит только за одним: когда цены на рынке перестают сходиться по математике.
На Polymarket есть две стороны — YES и NO.
Одна из них всегда платит $1, значит:
> YES + NO должны равняться $1.
Но во время резких движений рынка происходит проскальзывание:
- YES = $0.48
- NO = $0.49
- Всего: $0.97
Бот видит расхождение - покупает обе стороны одновременно.
Ждёт исход. Одна сторона платит $1.
Стоимость сделки — $0.97.
Разница - $0.03 прибыли, независимо от результата.
Скрипт сканирует Polymarket каждые несколько секунд по BTC, SOL, XRP — всё, где есть объём.
Как только сумма падает ниже $0.99 - он срабатывает.
Три цента звучат смешно, но если повторить это десятки тысяч раз, выходит $316K.
И тогда становится понятным 70% win-rate:
бот не выбирает победителей — он собирает ценовые ошибки.
Пока большинство делает ставки на исход,
этот бот зарабатывает на том, что ордербук иногда “забывает считать”.
👉 Аккаунт: https://polymarket.com/@distinct-baguette?via=marlowxbt
На аккаунте distinct-baguette в лидерборде Polymarket и почти закрыл вкладку - обычный бот на 15-минутных окнах.
А потом увидел: 70% побед при шестизначной прибыли. Обычно прибыльные боты держат 85%+. Что-то было не так, но не с ботом, а с моим пониманием.
Главное: этот бот ничего не предсказывает.
Ему всё равно, вырастет BTC или упадёт. Он следит только за одним: когда цены на рынке перестают сходиться по математике.
На Polymarket есть две стороны — YES и NO.
Одна из них всегда платит $1, значит:
> YES + NO должны равняться $1.
Но во время резких движений рынка происходит проскальзывание:
- YES = $0.48
- NO = $0.49
- Всего: $0.97
Бот видит расхождение - покупает обе стороны одновременно.
Ждёт исход. Одна сторона платит $1.
Стоимость сделки — $0.97.
Разница - $0.03 прибыли, независимо от результата.
Скрипт сканирует Polymarket каждые несколько секунд по BTC, SOL, XRP — всё, где есть объём.
Как только сумма падает ниже $0.99 - он срабатывает.
Три цента звучат смешно, но если повторить это десятки тысяч раз, выходит $316K.
И тогда становится понятным 70% win-rate:
бот не выбирает победителей — он собирает ценовые ошибки.
Пока большинство делает ставки на исход,
этот бот зарабатывает на том, что ордербук иногда “забывает считать”.
👉 Аккаунт: https://polymarket.com/@distinct-baguette?via=marlowxbt
👍11❤7👎2
🔥 Какой базовый Docker-образ Python стоит выбирать для финансовых задач.
- В большинстве задач разница в скорости между образами не превышает ~10 %.
- Поэтому по умолчанию выгоднее брать маленький образ python:3.14-slim (~150 МБ), а не тяжёлые Anaconda/Intel (~3 ГБ).
- Исключение — тяжёлая линейная алгебра на Intel CPU: там MKL даёт заметное ускорение (1.1×–2×).
Реальный кейс из хедж-фонда
- Команда использовала Intel Python для ночных batch-задач.
- После перехода на python:3.14-slim джобы ускорились примерно на 40 %, без изменения кода.
- Причина — выигрыш дал новый интерпретатор Python 3.14, а не библиотека MKL, потому что нагрузка была больше про pandas и бизнес-логику, чем про чистые матрицы.
Ключевая идея:
меньше время обработки — быстрее решения и реакции рынка.
Как выбирать образ: простое «дерево решений»
1️⃣ По CPU
AMD (Ryzen, EPYC, Threadripper)
- Использовать python:3.14-slim.
- MKL из Intel Python / Anaconda на AMD часто даже медленнее из-за особенностей оптимизаций.
Intel (Xeon, Core)
- Если основная нагрузка — плотная линейная алгебра (умножение матриц, SVD и т. д.), тогда имеет смысл Intel Python или Anaconda (MKL).
- Если ETL, pandas, смешанные пайплайны — python:3.14-slim почти не уступает, но гораздо легче.
2️⃣ По типу нагрузки
- IO-bound (файлы, сети, БД) — образ почти не влияет, выигрывает slim из-за размера.
- ETL на pandas/Polars — разница 5–10 %, slim обычно оптимален.
- BLAS-heavy (NumPy-линейка)
- Intel CPU — MKL-образы могут дать 1.5–2× ускорение.
- AMD CPU — OpenBLAS в slim обычно быстрее.
- CPU-bound Python (циклы, логика) — важен сам интерпретатор и multiprocessing.
GIL и параллелизм
- GIL не даёт потокам ускорять CPU-bound задачи.
- Для CPU-bound лучше применять multiprocessing, ProcessPoolExecutor, joblib, Numba.
- BLAS (NumPy) параллелится сам — потоками на уровне C-кода, GIL не мешает.
Почему Python 3.14 так важен
- Интерпретатор 3.14 даёт +10–20 % к производительности CPU-bound кода.
- Intel Python и Anaconda пока чаще держатся на 3.12 — из-за этого они иногда медленнее даже при наличии MKL.
Общий практический вывод
- Начинать почти всегда стоит с python:3.14-slim — он компактный, быстрый и современный.
- Идти в Intel/Anaconda только если:
- у вас Intel-сервер,
- значимая часть времени уходит на чистую линейную алгебру,
- замеры показывают реальную выгоду.
Если коротко:
бери самый маленький образ по умолчанию и отходи от него только тогда, когда честные бенчмарки на твоём железе доказывают обратное.
https://jiripik.com/2025/12/19/choosing-the-right-python-docker-image-for-finance-workloads/
- В большинстве задач разница в скорости между образами не превышает ~10 %.
- Поэтому по умолчанию выгоднее брать маленький образ python:3.14-slim (~150 МБ), а не тяжёлые Anaconda/Intel (~3 ГБ).
- Исключение — тяжёлая линейная алгебра на Intel CPU: там MKL даёт заметное ускорение (1.1×–2×).
Реальный кейс из хедж-фонда
- Команда использовала Intel Python для ночных batch-задач.
- После перехода на python:3.14-slim джобы ускорились примерно на 40 %, без изменения кода.
- Причина — выигрыш дал новый интерпретатор Python 3.14, а не библиотека MKL, потому что нагрузка была больше про pandas и бизнес-логику, чем про чистые матрицы.
Ключевая идея:
меньше время обработки — быстрее решения и реакции рынка.
Как выбирать образ: простое «дерево решений»
1️⃣ По CPU
AMD (Ryzen, EPYC, Threadripper)
- Использовать python:3.14-slim.
- MKL из Intel Python / Anaconda на AMD часто даже медленнее из-за особенностей оптимизаций.
Intel (Xeon, Core)
- Если основная нагрузка — плотная линейная алгебра (умножение матриц, SVD и т. д.), тогда имеет смысл Intel Python или Anaconda (MKL).
- Если ETL, pandas, смешанные пайплайны — python:3.14-slim почти не уступает, но гораздо легче.
2️⃣ По типу нагрузки
- IO-bound (файлы, сети, БД) — образ почти не влияет, выигрывает slim из-за размера.
- ETL на pandas/Polars — разница 5–10 %, slim обычно оптимален.
- BLAS-heavy (NumPy-линейка)
- Intel CPU — MKL-образы могут дать 1.5–2× ускорение.
- AMD CPU — OpenBLAS в slim обычно быстрее.
- CPU-bound Python (циклы, логика) — важен сам интерпретатор и multiprocessing.
GIL и параллелизм
- GIL не даёт потокам ускорять CPU-bound задачи.
- Для CPU-bound лучше применять multiprocessing, ProcessPoolExecutor, joblib, Numba.
- BLAS (NumPy) параллелится сам — потоками на уровне C-кода, GIL не мешает.
Почему Python 3.14 так важен
- Интерпретатор 3.14 даёт +10–20 % к производительности CPU-bound кода.
- Intel Python и Anaconda пока чаще держатся на 3.12 — из-за этого они иногда медленнее даже при наличии MKL.
Общий практический вывод
- Начинать почти всегда стоит с python:3.14-slim — он компактный, быстрый и современный.
- Идти в Intel/Anaconda только если:
- у вас Intel-сервер,
- значимая часть времени уходит на чистую линейную алгебру,
- замеры показывают реальную выгоду.
Если коротко:
бери самый маленький образ по умолчанию и отходи от него только тогда, когда честные бенчмарки на твоём железе доказывают обратное.
https://jiripik.com/2025/12/19/choosing-the-right-python-docker-image-for-finance-workloads/
Jiri Pik
Choosing the Right Python Docker Image for Finance Workloads
Explore the Python Docker image performance benchmark. Uncover insights on speed and efficiency in containerized applications.
❤5
100 технических вопросов для интервью Data Analyst / Data Scientist (Middle/Senior)
В этом руководстве мы подробно разберем 100 реальных технических вопросов, которые часто встречаются на собеседованиях для аналитиков данных и специалистов по данным уровня middle и senior.
Вопросы сгруппированы по типам компаний (FAANG, стартапы, финтех, консалтинг), по уровню позиции (middle или senior) и по ключевым категориям знаний.
Используя этот гайд, вы сможете оценить свой уровень подготовки, понять глубину ответов, ожидаемую от опытных кандидатов, и избежать популярных ошибок. Давайте перейдем к вопросам. FAANG: Интервью в крупных технокомпаниях (FAANG – Amazon, Apple, Netflix, Google и аналогичные крупные IT-компании) Middle-уровень – FAANG
SQL – примеры вопросов (Middle, FAANG)
https://uproger.com/100-tehnicheskih-voprosov-dlya-intervyu-data-analyst-data-scientist-middle-senior/
В этом руководстве мы подробно разберем 100 реальных технических вопросов, которые часто встречаются на собеседованиях для аналитиков данных и специалистов по данным уровня middle и senior.
Вопросы сгруппированы по типам компаний (FAANG, стартапы, финтех, консалтинг), по уровню позиции (middle или senior) и по ключевым категориям знаний.
Используя этот гайд, вы сможете оценить свой уровень подготовки, понять глубину ответов, ожидаемую от опытных кандидатов, и избежать популярных ошибок. Давайте перейдем к вопросам. FAANG: Интервью в крупных технокомпаниях (FAANG – Amazon, Apple, Netflix, Google и аналогичные крупные IT-компании) Middle-уровень – FAANG
SQL – примеры вопросов (Middle, FAANG)
https://uproger.com/100-tehnicheskih-voprosov-dlya-intervyu-data-analyst-data-scientist-middle-senior/
❤7👍2🔥1
🚀 21 урок для инженеров от человека с 14-летним опытом в Google
Addy Osmani собрал ключевые выводы из своей карьеры в Google — не про фреймворки и хайп, а про то, что реально делает инженера сильнее.
Основные идеи:
- решай проблемы пользователей, а не абстрактные задачи
- цени ясность и простоту кода больше, чем сложные трюки
- умей договариваться и работать в команде, а не просто быть правым
- быстрее расти помогают не обсуждения, а итерации и действие
- долгосрочный рост — это обучение, обратная связь и передача знаний
Это не мотивационный текст, а практичный взгляд на то, как выглядит инженерная карьера изнутри большой технологической компании.
Полезно прочитать каждому, кто строит карьеру в разработке и хочет расти системно, а не случайно.
https://www.youtube.com/watch?v=fAzrx_t7IAE
Addy Osmani собрал ключевые выводы из своей карьеры в Google — не про фреймворки и хайп, а про то, что реально делает инженера сильнее.
Основные идеи:
- решай проблемы пользователей, а не абстрактные задачи
- цени ясность и простоту кода больше, чем сложные трюки
- умей договариваться и работать в команде, а не просто быть правым
- быстрее расти помогают не обсуждения, а итерации и действие
- долгосрочный рост — это обучение, обратная связь и передача знаний
Это не мотивационный текст, а практичный взгляд на то, как выглядит инженерная карьера изнутри большой технологической компании.
Полезно прочитать каждому, кто строит карьеру в разработке и хочет расти системно, а не случайно.
https://www.youtube.com/watch?v=fAzrx_t7IAE
❤2🔥1
Здесь на пальцах объясняют не только как писать SQL-запросы, а строить настоящие backend-сервисы с базой данных как у профи.
В этом курсе ты шаг за шагом создашь REST API на FastAPI + PostgreSQL:
от установки среды и первых таблиц - до масштабируемого приложения с безопасностью и CRUD-операциями.
🔹 На практике разберете:
• SQL-запросы, фильтры, агрегаты и подзапросы
• Связи между таблицами и нормализацию БД
• Взаимодействие Python и PostgreSQL
• Реализацию REST API и подключение базы
• Оптимизацию и разбор реальных задач с собеседований
⚡ После курса у вас будет свой работающий API-проект и реальные навыки работы с PostgreSQL в продакшене.
🎁 Торопись пока действует скидка в честь нвого года!
🚀 Прокачаю свои знания: https://stepik.org/course/255542/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нужно быстро поднять сервер под Python-проект без лишней возни?
Ставим системные пакеты, создаём отдельного пользователя, настраиваем venv, делаем systemd-сервис и сразу получаем автозапуск + рестарт при падении.
Идеально для FastAPI / Flask / любых API и ботов.
sudo apt update && sudo apt install -y python3-venv python3-pip nginx
sudo useradd -m -s /bin/bash app && sudo mkdir -p /opt/app && sudo chown -R app:app /opt/app
sudo -u app bash -lc 'cd /opt/app && python3 -m venv venv && ./venv/bin/pip install -U pip uvicorn fastapi'
sudo tee /etc/systemd/system/app.service >/dev/null <<'EOF'
[Unit]
After=network.target
[Service]
User=app
WorkingDirectory=/opt/app
ExecStart=/opt/app/venv/bin/uvicorn main:app --host 0.0.0.0 --port 8000
Restart=always
[Install]
WantedBy=multi-user.target
EOF
sudo systemctl daemon-reload
sudo systemctl enable --now app
sudo systemctl status app --no-pager
https://www.youtube.com/shorts/cbUNWU1Sbsc
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3😁2👍1🔥1