🎯 ЗАДАЧА: Восстановление распределения из агрегатов
У вас есть CSV-файл, содержащий агрегированные данные по группам пользователей в виде:
| Группа | Среднее значение | Стандартное отклонение | Кол-во наблюдений |
|--------|------------------|-------------------------|--------------------|
| A | 50.0 | 10.0 | 100 |
| B | 60.0 | 15.0 | 80 |
| C | 55.0 | 12.0 | 120 |
Ваша задача: восстановить вероятностное распределение внутри каждой группы (на уровне отдельных наблюдений) и проверить гипотезу: *"Среднее значение в группе B статистически выше, чем в группе A, на уровне значимости 0.05."*
Условия:
- У вас нет сырых данных — только агрегаты.
- Вы должны сгенерировать выборки из нормального распределения на основе предоставленных параметров и выполнить статистический тест.
💡 Разбор:
1️⃣ Генерация синтетических данных:
2️⃣ Проверка гипотезы:
3️⃣ Вывод:
Если p_value < 0.05, гипотеза подтверждается: группа B значимо выше по среднему.
В противном случае — различие незначимо.
🧠 Подвох:
Вы не знаете, что данные на самом деле НЕ обязательно нормально распределены.
Также важно понимать, что при генерации данных по агрегатам вы делаете допущение, что выборки соответствуют нормальным законам — что может быть неверно.
📌 Дополнительный уровень:
Проведите 1000 симуляций и постройте распределение p-value, чтобы оценить устойчивость вывода при варьирующихся выборках.
🔍 Эта задача проверяет:
- знание статистики и генерации данных
- навыки формулировки гипотез
- понимание ограничений моделирования из агрегатов
- умение мыслить критически и ставить под сомнение исходные допущения
У вас есть CSV-файл, содержащий агрегированные данные по группам пользователей в виде:
| Группа | Среднее значение | Стандартное отклонение | Кол-во наблюдений |
|--------|------------------|-------------------------|--------------------|
| A | 50.0 | 10.0 | 100 |
| B | 60.0 | 15.0 | 80 |
| C | 55.0 | 12.0 | 120 |
Ваша задача: восстановить вероятностное распределение внутри каждой группы (на уровне отдельных наблюдений) и проверить гипотезу: *"Среднее значение в группе B статистически выше, чем в группе A, на уровне значимости 0.05."*
Условия:
- У вас нет сырых данных — только агрегаты.
- Вы должны сгенерировать выборки из нормального распределения на основе предоставленных параметров и выполнить статистический тест.
💡 Разбор:
1️⃣ Генерация синтетических данных:
import numpy as np
np.random.seed(42)
a = np.random.normal(loc=50, scale=10, size=100)
b = np.random.normal(loc=60, scale=15, size=80)
2️⃣ Проверка гипотезы:
from scipy.stats import ttest_ind
stat, p_value = ttest_ind(b, a, equal_var=False)
print(f"p-value = {p_value:.4f}")
3️⃣ Вывод:
Если p_value < 0.05, гипотеза подтверждается: группа B значимо выше по среднему.
В противном случае — различие незначимо.
🧠 Подвох:
Вы не знаете, что данные на самом деле НЕ обязательно нормально распределены.
Также важно понимать, что при генерации данных по агрегатам вы делаете допущение, что выборки соответствуют нормальным законам — что может быть неверно.
📌 Дополнительный уровень:
Проведите 1000 симуляций и постройте распределение p-value, чтобы оценить устойчивость вывода при варьирующихся выборках.
🔍 Эта задача проверяет:
- знание статистики и генерации данных
- навыки формулировки гипотез
- понимание ограничений моделирования из агрегатов
- умение мыслить критически и ставить под сомнение исходные допущения
🔥9❤5👍5
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Devops: t.iss.one/DevOPSitsec
Базы данных: t.iss.one/sqlhub
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot -
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Devops: t.iss.one/DevOPSitsec
Базы данных: t.iss.one/sqlhub
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👎2
📐 Aryabhata 1.0* — интересный пример open-source подхода и model merging в действии.
Это небольшая языковая модель на 7B параметров, обученная для решения задач по математике. Её разработала индийская edtech-компания PhysicsWallah.
🧩 Как создавали модель:
1️⃣ *Model merging на старте*
Взяли три open-source модели:
— Qwen 2.5‑Math‑7B
— AceMath‑7B
— DeepSeek‑R1‑Distill‑Qwen‑7B
Объединили их веса (weighted average) и получили Aryabhata 0.5 — начальную модель без дополнительного обучения, просто усреднив параметры. Это заняло всего пару минут GPU-времени.
2️⃣ *Собрали датасет из задач по математике*
Взяли 250 000 заданий из своей базы JEE-экзаменов, очистили от лишнего, оставив ~130 000 актуальных заданий (2019–2024).
3️⃣ *Создание обучающих данных через CoT*
Aryabhata 0.5 решала каждую задачу, генерируя 4 цепочки рассуждений. Сохранили только те, что дали правильный ответ. Получилось 100 000 задач и 350 000 корректных reasoning-трейсов.
4️⃣ *Файнтюнинг (SFT)*
На этих парах дообучили модель, чтобы она писала решения в стиле студенческих ответов по стандарту экзаменов JEE.
💻 Обучение провели на связке из двух NVIDIA H100.
🧠 В результате получилась Aryabhata 1.0 — компактная, но точно заточенная под реальные экзаменационные задачи модель.
https://huggingface.co/PhysicsWallahAI/Aryabhata-1.0
Это небольшая языковая модель на 7B параметров, обученная для решения задач по математике. Её разработала индийская edtech-компания PhysicsWallah.
🧩 Как создавали модель:
1️⃣ *Model merging на старте*
Взяли три open-source модели:
— Qwen 2.5‑Math‑7B
— AceMath‑7B
— DeepSeek‑R1‑Distill‑Qwen‑7B
Объединили их веса (weighted average) и получили Aryabhata 0.5 — начальную модель без дополнительного обучения, просто усреднив параметры. Это заняло всего пару минут GPU-времени.
2️⃣ *Собрали датасет из задач по математике*
Взяли 250 000 заданий из своей базы JEE-экзаменов, очистили от лишнего, оставив ~130 000 актуальных заданий (2019–2024).
3️⃣ *Создание обучающих данных через CoT*
Aryabhata 0.5 решала каждую задачу, генерируя 4 цепочки рассуждений. Сохранили только те, что дали правильный ответ. Получилось 100 000 задач и 350 000 корректных reasoning-трейсов.
4️⃣ *Файнтюнинг (SFT)*
На этих парах дообучили модель, чтобы она писала решения в стиле студенческих ответов по стандарту экзаменов JEE.
💻 Обучение провели на связке из двух NVIDIA H100.
🧠 В результате получилась Aryabhata 1.0 — компактная, но точно заточенная под реальные экзаменационные задачи модель.
https://huggingface.co/PhysicsWallahAI/Aryabhata-1.0
👍6❤5🔥5
🏅 Ещё одна золотая медаль для ИИ на Международной математической олимпиаде (IMO)!
Стартап Harmonic запустил чат‑бота Aristotle — ИИ, который получил золото на IMO‑2025, решая задачи в формализованном виде.
📱 Aristotle уже доступен в приложении (iOS и Android). Он не просто решает задачи — он гарантирует отсутствие галлюцинаций в своих ответах, потому что все решения формально проверяются.
🧠 Фокус модели — на задачах количественного мышления (математика, логика и т.д.)
💰 Harmonic недавно привлек $100M инвестиций и уже оценён в $875M. Их цель — создать математический суперинтеллект.
И да, основатель Harmonic — это CEO Robinhood Влад Тенев.
🔥 Прямо сейчас это, возможно, самый надёжный ИИ для точных наук.
Стартап Harmonic запустил чат‑бота Aristotle — ИИ, который получил золото на IMO‑2025, решая задачи в формализованном виде.
📱 Aristotle уже доступен в приложении (iOS и Android). Он не просто решает задачи — он гарантирует отсутствие галлюцинаций в своих ответах, потому что все решения формально проверяются.
🧠 Фокус модели — на задачах количественного мышления (математика, логика и т.д.)
💰 Harmonic недавно привлек $100M инвестиций и уже оценён в $875M. Их цель — создать математический суперинтеллект.
И да, основатель Harmonic — это CEO Robinhood Влад Тенев.
🔥 Прямо сейчас это, возможно, самый надёжный ИИ для точных наук.
👎5❤4🔥4🥰3
Получи грант до 1,65 млн ₽ на высшее образование в ведущем ИТ-университете по специальности «Безопасность информационных систем»
Стань белым хакером и начни зарабатывать 200к+ уже через 2 года обучения!
НЕЙМАРК — ИТ-университет нового поколения:
1) реальные стажировки в технологических гигантах: Яндекс, ВК, Сбер, Альфа-Банк и другие
2) возможность запустить стартап при поддержке наставников во время обучения
3) освоение криптографии, пентестинга, анализа уязвимостей, а также принципа разработки защищённого ПО
4) 2 диплома: НГТУ им. Алексеева и НЕЙМАРК
5) отсрочка от армии
6) суперсовременные общежития в центре города
Узнай, как учиться бесплатно в лучшем ИТ-университете НЕЙМАРК — переходи в бот и забирай инструкцию!
Реклама. НЕЙМАРК, УНИВЕРСИТЕТ НЕЙМАРК. ИНН 5256209106.
Стань белым хакером и начни зарабатывать 200к+ уже через 2 года обучения!
НЕЙМАРК — ИТ-университет нового поколения:
1) реальные стажировки в технологических гигантах: Яндекс, ВК, Сбер, Альфа-Банк и другие
2) возможность запустить стартап при поддержке наставников во время обучения
3) освоение криптографии, пентестинга, анализа уязвимостей, а также принципа разработки защищённого ПО
4) 2 диплома: НГТУ им. Алексеева и НЕЙМАРК
5) отсрочка от армии
6) суперсовременные общежития в центре города
Узнай, как учиться бесплатно в лучшем ИТ-университете НЕЙМАРК — переходи в бот и забирай инструкцию!
Реклама. НЕЙМАРК, УНИВЕРСИТЕТ НЕЙМАРК. ИНН 5256209106.
❤3
📈 Как повысить точность LLM в задачах по математике?
Новая статья показывает: если дать модели примеры на двух уровнях, можно поднять точность на 16% даже для моделей с 8B параметров.
🧠 Что делают авторы:
1. Разбивают задачу на 3 ключевых элемента: тип, ключевые термины и метод решения. Это называют "conceptual unit".
2. По ним находят похожие задачи с решениями — и вставляют в промпт.
3. Во время поиска (MCTS) модель на каждом шаге сравнивает своё решение с мини-базой реальных фрагментов решений.
4. Специальная reward-модель оценивает шаги и направляет дерево в сторону осмысленных решений.
📊 Результаты:
— LLaMA‑3.1‑8B: с 46.6% до 52.5% на OlympiadBench
— Qwen2‑7B: до 60.6%
— Прирост точности сохраняется при увеличении пула примеров, но время почти не растёт (+5%)
⚠️ Если убрать один из уровней (примеры до поиска или во время) — прирост снижается вдвое. Оба уровня работают только вместе.
📄 arxiv.org/abs/2507.05557
Новая статья показывает: если дать модели примеры на двух уровнях, можно поднять точность на 16% даже для моделей с 8B параметров.
🧠 Что делают авторы:
1. Разбивают задачу на 3 ключевых элемента: тип, ключевые термины и метод решения. Это называют "conceptual unit".
2. По ним находят похожие задачи с решениями — и вставляют в промпт.
3. Во время поиска (MCTS) модель на каждом шаге сравнивает своё решение с мини-базой реальных фрагментов решений.
4. Специальная reward-модель оценивает шаги и направляет дерево в сторону осмысленных решений.
📊 Результаты:
— LLaMA‑3.1‑8B: с 46.6% до 52.5% на OlympiadBench
— Qwen2‑7B: до 60.6%
— Прирост точности сохраняется при увеличении пула примеров, но время почти не растёт (+5%)
⚠️ Если убрать один из уровней (примеры до поиска или во время) — прирост снижается вдвое. Оба уровня работают только вместе.
📄 arxiv.org/abs/2507.05557
arXiv.org
Enhancing Test-Time Scaling of Large Language Models with...
Test-time scaling has emerged as a promising paradigm in language modeling, leveraging additional computational resources at inference time to enhance model performance. In this work, we introduce...
❤5👍2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 Одна из самых красивых идей в математике — вычисление площади фигуры с помощью случайных точек
Не верится, что такое возможно?
Смотри на анимацию ниже: мы бросаем случайные точки в квадрат и считаем, сколько из них попали в круг.
Так можно приближённо вычислить площадь круга — а значит и значение π!
🔍 Как это работает:
1. Берём квадрат, в который вписан круг (например, единичный)
2. Бросаем N случайных точек в квадрат
3. Считаем, сколько из них попало внутрь круга
4. Отношение количества «внутренних» точек к общему числу даёт приближение площади круга
👉 Это называется метод Монте‑Карло — простой, но мощный инструмент для численных приближений.
@data_math
#math #geometry #π #montecarlo #visualmath
Не верится, что такое возможно?
Смотри на анимацию ниже: мы бросаем случайные точки в квадрат и считаем, сколько из них попали в круг.
Так можно приближённо вычислить площадь круга — а значит и значение π!
🔍 Как это работает:
1. Берём квадрат, в который вписан круг (например, единичный)
2. Бросаем N случайных точек в квадрат
3. Считаем, сколько из них попало внутрь круга
4. Отношение количества «внутренних» точек к общему числу даёт приближение площади круга
👉 Это называется метод Монте‑Карло — простой, но мощный инструмент для численных приближений.
@data_math
#math #geometry #π #montecarlo #visualmath
❤26👍8🔥5👎1
🧠 StepFun‑Prover Preview: 32B‑модель обучилась доказывать теоремы, общаясь с Lean 4
📌 Что делает классический prover :
Он просто перебирает возможные доказательства, не зная, в каком направлении двигаться. Это как угадывать код на замке: пробуешь один вариант, не подошло — пробуешь следующий.
📌 Что делает новая модель StepFun‑Prover)
Она "разговаривает" с Lean 4 — проверяющей системой формальных доказательств. Если модель предлагает доказательство и Lean выдает предупреждение или ошибку, модель читает это как обратную связь и учится. В следующий раз она делает более точную попытку.
🧠 В итоге:
Вместо перебора 30+ вариантов вслепую, как у обычных систем, модель с первого раза решает до 70 % задач, потому что понимает и учитывает отклик от системы.
Это как решать задачу в школе, где тебе не просто говорят «неправильно», а объясняют, что именно не так — и ты быстро учишься.
🔍 Как это работает:
- Исходные задачи из Lean очищаются и превращаются в набор для обучения синтаксису и вызовам тактик.
- На этих данных обучаются 7B и 32B‑модели на базе DeepSeek, с последующей правкой ошибок Kimina‑Prover.
- Модель учится смешивать обычный текст, код на Lean и sandbox‑ответы — всё в одном длинном контексте.
- Вознаграждение бинарное: если Lean-программа принимает доказательство — 1, иначе — 0.
📈 Результат:
- 32B‑модель обходит конкурентов на 72B более чем на 5 % (при этом использует **1 попытку вместо 32**).
- Увеличение длины контекста с 4K до 20K токенов повышает pass@1 с 58 % до 70 %.
- Модель сокращает доказательства, читая варнинги и на лету рефакторя тактики.
📦 Open‑веса (7B и 32B) выйдут скоро — можно будет запускать даже на скромном GPU.
📄 Paper: https://arxiv.org/abs/2507.20199
📌 Что делает классический prover :
Он просто перебирает возможные доказательства, не зная, в каком направлении двигаться. Это как угадывать код на замке: пробуешь один вариант, не подошло — пробуешь следующий.
📌 Что делает новая модель StepFun‑Prover)
Она "разговаривает" с Lean 4 — проверяющей системой формальных доказательств. Если модель предлагает доказательство и Lean выдает предупреждение или ошибку, модель читает это как обратную связь и учится. В следующий раз она делает более точную попытку.
🧠 В итоге:
Вместо перебора 30+ вариантов вслепую, как у обычных систем, модель с первого раза решает до 70 % задач, потому что понимает и учитывает отклик от системы.
Это как решать задачу в школе, где тебе не просто говорят «неправильно», а объясняют, что именно не так — и ты быстро учишься.
🔍 Как это работает:
- Исходные задачи из Lean очищаются и превращаются в набор для обучения синтаксису и вызовам тактик.
- На этих данных обучаются 7B и 32B‑модели на базе DeepSeek, с последующей правкой ошибок Kimina‑Prover.
- Модель учится смешивать обычный текст, код на Lean и sandbox‑ответы — всё в одном длинном контексте.
- Вознаграждение бинарное: если Lean-программа принимает доказательство — 1, иначе — 0.
📈 Результат:
- 32B‑модель обходит конкурентов на 72B более чем на 5 % (при этом использует **1 попытку вместо 32**).
- Увеличение длины контекста с 4K до 20K токенов повышает pass@1 с 58 % до 70 %.
- Модель сокращает доказательства, читая варнинги и на лету рефакторя тактики.
📦 Open‑веса (7B и 32B) выйдут скоро — можно будет запускать даже на скромном GPU.
📄 Paper: https://arxiv.org/abs/2507.20199
❤9🔥3👍2
Forwarded from Machine learning Interview
💥 Китайская AI-модель по математике — абсолютный прорыв
Свежая научная статья из Китая показала не просто сильную, а *лучшую в мире* AI-модель для решения олимпиадных задач по математике:
🏅 Модель взяла золото на IMO 2025
📈 Решает 78% всех задач прошлых IMO
🧠 Покрывает более 50% задач Putnam
✅ Даёт 100% точность на miniF2F (тест от OpenAI)
⚔️ Обходит AlphaGeometry2 от Google
📌 Как работает:
- Использует формальные доказательства на языке Lean
- МОдель открыл новые методы для решения геометрии, которых раньше не было
- Первая лаборатория, которая опубликовала полноценную статью о внутренностях модели
AI в математике выходит на новый уровень — и Китай сейчас показывает, что он идет в авангарде открытий.
📌 Статья
@machinelearning_interview
Свежая научная статья из Китая показала не просто сильную, а *лучшую в мире* AI-модель для решения олимпиадных задач по математике:
🏅 Модель взяла золото на IMO 2025
📈 Решает 78% всех задач прошлых IMO
🧠 Покрывает более 50% задач Putnam
✅ Даёт 100% точность на miniF2F (тест от OpenAI)
⚔️ Обходит AlphaGeometry2 от Google
📌 Как работает:
- Использует формальные доказательства на языке Lean
- МОдель открыл новые методы для решения геометрии, которых раньше не было
- Первая лаборатория, которая опубликовала полноценную статью о внутренностях модели
AI в математике выходит на новый уровень — и Китай сейчас показывает, что он идет в авангарде открытий.
📌 Статья
@machinelearning_interview
🔥16❤5👍3❤🔥2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Ведущие ML- и DS-инженеры соберутся 13 и 14 сентября на E-CODE.
Это масштабное IT-событие создано командой Ozon Tech. Вы приглашены, но нужно зарегистрироваться: https://s.ozon.ru/j9nQM2y⬅
Что будет:
6 контентных треков — один из них для ML/DS.
Выступления известных учёных.
Качественный нетворк — комьюнити middle+ специалистов.
Интеллектуальные интерактивы — и эксклюзивный мерч в подарок.
Вечеринки каждый день — на сцене НТР, Заточка, ILWT и Нейромонах Феофан.
E-CODE — комьюнити-пространство, в котором стоит быть💙
Это масштабное IT-событие создано командой Ozon Tech. Вы приглашены, но нужно зарегистрироваться: https://s.ozon.ru/j9nQM2y
Что будет:
6 контентных треков — один из них для ML/DS.
Выступления известных учёных.
Качественный нетворк — комьюнити middle+ специалистов.
Интеллектуальные интерактивы — и эксклюзивный мерч в подарок.
Вечеринки каждый день — на сцене НТР, Заточка, ILWT и Нейромонах Феофан.
E-CODE — комьюнити-пространство, в котором стоит быть
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
📸 Разработчик запустил свой код на сервере, имея лишь возможность изменения содержимого комментария в Python-скрипте
Участник соревнования UIUCTF 2025 обошёл ограничения задачи, где можно было изменять только содержимое комментария в Python-скрипте и подробно рассказал об этом. Вместо поиска уязвимостей в парсере, он использовал особенность интерпретатора — выполнение ZIP-архивов как Python-кода.
Секрет в структуре ZIP-файлов: Python ищет метаданные в конце архива, что позволило вставить архив в комментарий, сохранив валидность исходного скрипта. При запуске такого скрипта выполнялся код из main.py внутри архива.
🔗 Ссылка - *клик*
Участник соревнования UIUCTF 2025 обошёл ограничения задачи, где можно было изменять только содержимое комментария в Python-скрипте и подробно рассказал об этом. Вместо поиска уязвимостей в парсере, он использовал особенность интерпретатора — выполнение ZIP-архивов как Python-кода.
Секрет в структуре ZIP-файлов: Python ищет метаданные в конце архива, что позволило вставить архив в комментарий, сохранив валидность исходного скрипта. При запуске такого скрипта выполнялся код из main.py внутри архива.
🔗 Ссылка - *клик*
❤8👍4🥰3💩1