Forwarded from Machine learning Interview
В публикации на блоге vLLM описан новый режим работы - Sleep Mode - который позволяет резко ускорить переключение между языковыми моделями. Традиционные методы требуют либо держать обе модели загруженными (что удваивает нагрузку на GPU), либо перезагружать их по очереди с паузой в 30–100 секунд. Sleep Mode предлагает третий вариант: модели «усыпляют» и «просыпают» за считанные секунды, сохраняя уже инициализированное состояние.
Доступны два уровня сна: уровень 1 - веса сбрасываются на RAM, быстрый подъём, но требуется много оперативной памяти; уровень 2 - веса выгружаются полностью, минимальное использование RAM, подъём чуть медленнее. Оба уровня дали прирост производительности: переключения моделей стали от 18 до 200 раз быстрее, а время инференса после пробуждения - на 61–88 % выше, поскольку сохраняется память процессов, CUDA-графы и JIT-компиляция.
Sleep Mode идеально подходит для сценариев с частым использованием разных моделей и делает практичным мульти-модельное обслуживание даже на GPU среднего уровня - от A4000 до A100.
Блог: https://blog.vllm.ai/2025/10/26/sleep-mode.html
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3🤔2❤1
Эволюция инференса LLM: от Hugging Face к vLLM
Открытый вебинар от OTUS — первый шаг к продвинутому владению языковыми моделями.
Приходите на онлайн-встречу, где мы разберем ключевую, но часто упускаемую из виду тему — эволюцию инструментов инференса. Эти знания отличают специалиста, который просто использует модели, от того, кто может грамотно интегрировать их в продакшн, выбирая оптимальные решения для скорости, памяти и стоимости.
Что вы получите за час?
- системное понимание экосистемы инструментов для инференса;
- четкие критерии для выбора фреймворка под вашу задачу;
- практическое понимание, что дает переход на vLLM в реальных проектах (throughput, latency, экономия GPU-памяти).
Для кого:
• Практикующих Data Scientists
• Инженеров, работающих с текстовыми данными
Этот вебинар — введение в философию курса «NLP.Advanced», где вы с нуля осваиваете самые современные и эффективные подходы к работе с LLM.
Подробности и регистрация: https://otus.pw/FADt/?erid=2W5zFHkpVcU
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Открытый вебинар от OTUS — первый шаг к продвинутому владению языковыми моделями.
Приходите на онлайн-встречу, где мы разберем ключевую, но часто упускаемую из виду тему — эволюцию инструментов инференса. Эти знания отличают специалиста, который просто использует модели, от того, кто может грамотно интегрировать их в продакшн, выбирая оптимальные решения для скорости, памяти и стоимости.
Что вы получите за час?
- системное понимание экосистемы инструментов для инференса;
- четкие критерии для выбора фреймворка под вашу задачу;
- практическое понимание, что дает переход на vLLM в реальных проектах (throughput, latency, экономия GPU-памяти).
Для кого:
• Практикующих Data Scientists
• Инженеров, работающих с текстовыми данными
Этот вебинар — введение в философию курса «NLP.Advanced», где вы с нуля осваиваете самые современные и эффективные подходы к работе с LLM.
Подробности и регистрация: https://otus.pw/FADt/?erid=2W5zFHkpVcU
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤2
🏛️ США строят ИИ-суперкомпьютеры нового поколения для открытой науки
На конференции NVIDIA GTC DC 2025 представили масштабный проект: Argonne National Laboratory получит два суперкомпьютера на базе архитектуры Blackwell — Solstice и Equinox.
🔹 Solstice - главный вычислительный центр с 100 000 GPU NVIDIA Blackwell,
🔹 Equinox - вспомогательная система с 10 000 GPU, запуск ожидается в первой половине 2026 года.
Вместе они обеспечат до 2 200 экзафлопс производительности для ИИ-задач в области материаловедения, климата и биологии.
Это будет флагманская инфраструктура Министерства энергетики США, доступная для публичных исследователей.
💡 Обучение моделей будет идти через Megatron-Core — библиотеку NVIDIA для распределения моделей и данных между тысячами GPU с высокой стабильностью и загрузкой.
Инференс обеспечит TensorRT, компилирующий модели в оптимизированные ядра для минимальной задержки и высокой пропускной способности.
Особенность проекта - прямая интеграция с научными установками, вроде Advanced Photon Source: модели смогут анализировать потоки данных в реальном времени и запускать эксперименты без задержек на передачу информации.
🧠 Итог: США создают открытую платформу для науки, где агентные ИИ-модели будут помогать исследователям открывать материалы, лекарства и климатические решения нового поколения.
На конференции NVIDIA GTC DC 2025 представили масштабный проект: Argonne National Laboratory получит два суперкомпьютера на базе архитектуры Blackwell — Solstice и Equinox.
🔹 Solstice - главный вычислительный центр с 100 000 GPU NVIDIA Blackwell,
🔹 Equinox - вспомогательная система с 10 000 GPU, запуск ожидается в первой половине 2026 года.
Вместе они обеспечат до 2 200 экзафлопс производительности для ИИ-задач в области материаловедения, климата и биологии.
Это будет флагманская инфраструктура Министерства энергетики США, доступная для публичных исследователей.
💡 Обучение моделей будет идти через Megatron-Core — библиотеку NVIDIA для распределения моделей и данных между тысячами GPU с высокой стабильностью и загрузкой.
Инференс обеспечит TensorRT, компилирующий модели в оптимизированные ядра для минимальной задержки и высокой пропускной способности.
Особенность проекта - прямая интеграция с научными установками, вроде Advanced Photon Source: модели смогут анализировать потоки данных в реальном времени и запускать эксперименты без задержек на передачу информации.
🧠 Итог: США создают открытую платформу для науки, где агентные ИИ-модели будут помогать исследователям открывать материалы, лекарства и климатические решения нового поколения.
❤8🔥2🥰2
ВКонтакте запустил формат шопсов - публикаций с карточками товаров или ссылками на быструю покупку прямо из соцсети. Теперь с помощью LLM и визуальных моделей (VLM) платформа умеет автоматически распознавать не только товарные карточки или прямые ссылки, но и нативные обзоры или распаковки от авторов, включая их в shoppable-разметку.
Посмотрите, как инженеры AI VK внедряют это под капотом и почему это важный шаг к умному e-commerce.
https://t.iss.one/aihubvk/332
Посмотрите, как инженеры AI VK внедряют это под капотом и почему это важный шаг к умному e-commerce.
https://t.iss.one/aihubvk/332
Telegram
AI VK Hub
🔹У ВКонтакте появился новый формат — шопсы. Это публикации авторов с товарами, по которым можно быстро совершить покупку. Подобный контент появлялся в ленте и раньше, но с помощью LLM, VLM и правильной разметки теперь можно определить нативные обзоры или…
👎3❤1🔥1😁1
🤖 deepagents 0.2 — открытая мульти-модельная среда для агентов
Вышло обновление с ключевым новшеством — абстракцией backend, которая позволяет заменить файловую систему на любую другую среду:
локальную, удалённую VM, базу данных и даже кастомный источник.
Теперь deepagents становится гибким инструментом для экспериментов с агентами и интеграций на уровне инфраструктуры.
Подробнее в блоге: blog.langchain.com/doubling-down-on-deepagents
Вышло обновление с ключевым новшеством — абстракцией backend, которая позволяет заменить файловую систему на любую другую среду:
локальную, удалённую VM, базу данных и даже кастомный источник.
Теперь deepagents становится гибким инструментом для экспериментов с агентами и интеграций на уровне инфраструктуры.
Подробнее в блоге: blog.langchain.com/doubling-down-on-deepagents
LangChain Blog
Doubling down on DeepAgents
Two months ago we wrote about Deep Agents - a term we coined for agents that are able to do complex, open ended tasks over longer time horizons. We hypothesized that there were four key elements to those agents: a planning tool, access to a filesystem, subagents…
❤2🔥1
⚡ FlashVSR: Реальное время для видео-суперразрешения
FlashVSR — это инновационная система, использующая диффузионные модели для достижения суперразрешения видео в реальном времени. Она обеспечивает высокую эффективность и масштабируемость, работая на скорости около 17 FPS для видео 768 × 1408 на одном GPU A100. Проект включает новый набор данных VSR-120K для обучения и демонстрирует выдающиеся результаты, значительно опережая предыдущие модели.
🚀Основные моменты:
- Первая диффузионная модель для потокового видео-суперразрешения.
- Эффективная трехступенчатая дистилляция для быстрого обучения.
- Локально-ограниченное разреженное внимание для снижения вычислительных затрат.
- Поддержка ультра-высоких разрешений с до 12-кратным ускорением.
📌 GitHub: https://github.com/OpenImagingLab/FlashVSR
#python
FlashVSR — это инновационная система, использующая диффузионные модели для достижения суперразрешения видео в реальном времени. Она обеспечивает высокую эффективность и масштабируемость, работая на скорости около 17 FPS для видео 768 × 1408 на одном GPU A100. Проект включает новый набор данных VSR-120K для обучения и демонстрирует выдающиеся результаты, значительно опережая предыдущие модели.
🚀Основные моменты:
- Первая диффузионная модель для потокового видео-суперразрешения.
- Эффективная трехступенчатая дистилляция для быстрого обучения.
- Локально-ограниченное разреженное внимание для снижения вычислительных затрат.
- Поддержка ультра-высоких разрешений с до 12-кратным ускорением.
📌 GitHub: https://github.com/OpenImagingLab/FlashVSR
#python
GitHub
GitHub - OpenImagingLab/FlashVSR: Towards Real-Time Diffusion-Based Streaming Video Super-Resolution — An efficient one-step diffusion…
Towards Real-Time Diffusion-Based Streaming Video Super-Resolution — An efficient one-step diffusion framework for streaming VSR with locality-constrained sparse attention and a tiny conditional de...
Media is too big
VIEW IN TELEGRAM
МТС True Tech Champ — зрелищный шоу-чемпионат с ИИ-спецэффектами!
21 ноября МТС объединяет ИТ-конференцию и ИТ-чемпионат на одной площадке. Тебя ждет настоящий фестиваль технологий. Более 250 ИТ-талантов со всей России сразятся в лайв-кодинге и программировании роботов на скоростное прохождение лабиринтов со спецэффектами.
Между наблюдением за заездами и поединками ты сможешь:
▫️ послушать конференцию с международными спикерами в области ИИ;
▫️ поучаствовать в воркшопах и юмористических батлах в ИТ-качалке;
▫️ испытать себя в кодерских челленджах и других айтивностях;
▫️ перезагрузить карьеру в HR-Хабе вместе с командой МТС.
День завершится ярким афтепати со звездными хедлайнерами.
👉🏻 Участие бесплатно, количество мест ограничено. Успей зарегистрироваться
21 ноября МТС объединяет ИТ-конференцию и ИТ-чемпионат на одной площадке. Тебя ждет настоящий фестиваль технологий. Более 250 ИТ-талантов со всей России сразятся в лайв-кодинге и программировании роботов на скоростное прохождение лабиринтов со спецэффектами.
Между наблюдением за заездами и поединками ты сможешь:
▫️ послушать конференцию с международными спикерами в области ИИ;
▫️ поучаствовать в воркшопах и юмористических батлах в ИТ-качалке;
▫️ испытать себя в кодерских челленджах и других айтивностях;
▫️ перезагрузить карьеру в HR-Хабе вместе с командой МТС.
День завершится ярким афтепати со звездными хедлайнерами.
👉🏻 Участие бесплатно, количество мест ограничено. Успей зарегистрироваться
Mental Models — тогда и сейчас 🧠
В 2007-м нейросети только учились подражать мозгу.
В 2025-м — учёные уже *буквально* создают его цифрового двойника.
1️⃣ E11 Bio сегодня баркодирует *каждую клетку мозга*, определяя тип нейрона и его форму по экспрессируемым белкам.
С помощью expansion microscopy — они “раздувают” мозговые ткани изнутри, чтобы легче проследить связи под микроскопом.
👉 Цель — создать точную 3D-карту мозга, где видно не только нейроны, но и химические градиенты, каннабиноиды, вирусоподобные частицы и внеклеточный матрикс, который становится более гибким под действием психоделиков (работа Gul Dolen).
Вопрос остаётся открытым: *сколько сложности нужно, чтобы реально смоделировать состояние мозга?*
2️⃣ 2007 год.
Тогда энтузиасты строили нейромодели на первых NVIDIA GPU. Один из них создал самодельный суперкомпьютер за $2000, чтобы моделировать рост дендритов и формирование связей в коре мозга.
Каждая точка — сотни потенциальных соединений, каждая ветвь — вычислительный узел.
3️⃣ На старых схемах — RC-цепочки, дифференциальные уравнения и дендрит как *коаксиальный кабель*:
ионы внутри, липидная оболочка снаружи, мембранная ёмкость, сопротивление, ионные каналы, создающие нелинейную динамику.
Сигнал передаётся не потоком электронов, а *каскадом открывающихся каналов*, как пальцы на длинной флейте.
🧩 Вывод: дендрит — это не просто «провод», а самостоятельный вычислительный элемент.
И даже спустя почти 20 лет, мозг всё ещё остаётся самым загадочным суперкомпьютером из всех.
#neuroscience #AI #mentalmodels #brainmapping #E11Bio #LLM
В 2007-м нейросети только учились подражать мозгу.
В 2025-м — учёные уже *буквально* создают его цифрового двойника.
1️⃣ E11 Bio сегодня баркодирует *каждую клетку мозга*, определяя тип нейрона и его форму по экспрессируемым белкам.
С помощью expansion microscopy — они “раздувают” мозговые ткани изнутри, чтобы легче проследить связи под микроскопом.
👉 Цель — создать точную 3D-карту мозга, где видно не только нейроны, но и химические градиенты, каннабиноиды, вирусоподобные частицы и внеклеточный матрикс, который становится более гибким под действием психоделиков (работа Gul Dolen).
Вопрос остаётся открытым: *сколько сложности нужно, чтобы реально смоделировать состояние мозга?*
2️⃣ 2007 год.
Тогда энтузиасты строили нейромодели на первых NVIDIA GPU. Один из них создал самодельный суперкомпьютер за $2000, чтобы моделировать рост дендритов и формирование связей в коре мозга.
Каждая точка — сотни потенциальных соединений, каждая ветвь — вычислительный узел.
3️⃣ На старых схемах — RC-цепочки, дифференциальные уравнения и дендрит как *коаксиальный кабель*:
ионы внутри, липидная оболочка снаружи, мембранная ёмкость, сопротивление, ионные каналы, создающие нелинейную динамику.
Сигнал передаётся не потоком электронов, а *каскадом открывающихся каналов*, как пальцы на длинной флейте.
🧩 Вывод: дендрит — это не просто «провод», а самостоятельный вычислительный элемент.
И даже спустя почти 20 лет, мозг всё ещё остаётся самым загадочным суперкомпьютером из всех.
#neuroscience #AI #mentalmodels #brainmapping #E11Bio #LLM
❤4👍2
🤖 WorldVLA - объединение VLA и World Model в единое автогенеративное ядро
Alibaba представила WorldVLA, новый шаг к созданию *авторегрессионной модели мира действий*
где одна архитектура одновременно предсказывает следующие кадры и действия агента.
🧠 Ключевая идея
WorldVLA объединяет Vision-Language-Action (VLA) и World Model в одном трансформере:
- Вход: *(image + language + action)*
- Выход: *(image + language + action)*
То есть модель не только «понимает» физику мира, но и «учится действовать» в нём.
⚙️ Как это работает
- Архитектура: единый Transformer, обучаемый одновременно на данных action-моделей и world-моделей.
- Лосс: комбинированная функция, объединяющая предсказание действий и состояния мира.
- Трюк с attention mask: маскируются предыдущие действия при генерации текущих —
этот приём значительно улучшает качество «action-chunk» генерации.
📊 Результаты
Тестировалось в симуляции (LIBERO benchmark):
WorldVLA превзошла отдельно обученные action-модели и world-модели.
💬 По сути, Alibaba делает следующий шаг к AGI-агентам с реальным пониманием физики,
где одно ядро может предсказывать, воспринимать и действовать — как единая система.
📄 Paper: https://arxiv.org/abs/2506.21539
💻 Code: https://github.com/alibaba-damo-academy/WorldVLA
#AI #WorldModel #VLA #DeepLearning #Alibaba #Transformers
Alibaba представила WorldVLA, новый шаг к созданию *авторегрессионной модели мира действий*
где одна архитектура одновременно предсказывает следующие кадры и действия агента.
🧠 Ключевая идея
WorldVLA объединяет Vision-Language-Action (VLA) и World Model в одном трансформере:
- Вход: *(image + language + action)*
- Выход: *(image + language + action)*
То есть модель не только «понимает» физику мира, но и «учится действовать» в нём.
⚙️ Как это работает
- Архитектура: единый Transformer, обучаемый одновременно на данных action-моделей и world-моделей.
- Лосс: комбинированная функция, объединяющая предсказание действий и состояния мира.
- Трюк с attention mask: маскируются предыдущие действия при генерации текущих —
этот приём значительно улучшает качество «action-chunk» генерации.
📊 Результаты
Тестировалось в симуляции (LIBERO benchmark):
WorldVLA превзошла отдельно обученные action-модели и world-модели.
💬 По сути, Alibaba делает следующий шаг к AGI-агентам с реальным пониманием физики,
где одно ядро может предсказывать, воспринимать и действовать — как единая система.
📄 Paper: https://arxiv.org/abs/2506.21539
💻 Code: https://github.com/alibaba-damo-academy/WorldVLA
#AI #WorldModel #VLA #DeepLearning #Alibaba #Transformers
❤4🔥2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Облачный стартап Lambda объявил о многомиллиардном соглашении с Microsoft на создание новой инфраструктуры для ИИ. Она будет оснащена десятками тысяч чипов Nvidia, в частности системами NVIDIA GB300 NVL72. Точная сумма сделки не раскрывается.
Lambda была основана в 2012 году и специализируется на облачных сервисах для обучения и развертывания ИИ-моделей. Новое соглашение позволит ей значительно нарастить мощности на фоне растущего спроса на ИИ. В планах не только аренда дата-центров, но и строительство собственной инфраструктуры.
lambda.ai
Китайский техногигант выпустил предварительную ризонинг-версию своей топовой модели Qwen3-Max, которая все еще находится на стадии обучения. Модель показала в тестах стопроцентный результат на сложных бенчмарках для оценки логического мышления (AIME 2025 и HMMT).
Под капотом - 1 трлн. параметров на архитектуре MoE, так же как и в родительской Max, Alibaba обещает, что обучение будет продолжено. Попробовать превью уже можно в Qwen Chat и через API Alibaba Cloud.
Qwen в сети X
IBM опубликовала новое семейство открытых моделей Granite 4.0 Nano, которые созданы для работы в составе ИИ-агентов. Версия на 350 млн. параметров может работать на обычном CPU с 8–16 ГБ ОЗУ, а для варианта на 1,5 млрд. хватит GPU с 6-8 ГБ видеопамяти.
Семейство построено на гибридной архитектуре Mamba-2+Transformer, что позволило снизить потребление памяти на 70% и удвоить скорость инференса по сравнению с аналогами. По словам IBM, Granite 4.0 Nano показывают SOTA в следовании инструкциям и использовании инструментов. Все модели под Apache 2.0 и доступны на HuggingFace.
huggingface.co
В Университете KAUST создали ИИ-агента Huxley-Gödel Machine (HGM), который может самосовершенствоваться, изменяя собственный код. Система не затрагивает ядро языковой модели, а переписывает окружающую ее инфраструктуру: управляющую логику, скрипты и инструменты.
Главное отличие от конкурентов в фокусе на долгосрочной продуктивности, а не на результатах в бенчах. Для этого был создан показатель Clade Metaproductivity (CMP), который мониторит совокупную эффективность всех потомков агента.
В тесте SWE-Bench Verified, HGM-агент на базе GPT-5-mini решил 61.4% проблем. Это лучше, чем существующие агенты с той же моделью. Код агента доступен на Github.
arxiv.org
Skyfall-GS способна создавать детализированные и проходимые 3D-модели городов, используя только стандартные спутниковые изображения. В отличие от старых методов, которые могут воссоздать лишь крыши, Skyfall-GS генерирует недостающие элементы, что на выходе дает фотореалистичные городские пространства.
Пайплайн состоит из 3D Gaussian splatting (базовый 3D-каркас города) и диффузионных моделей, которые дорисовывают недостающие элементы (стены зданий и текстуры на уровне земли).
Skyfall-GS работает с 11 FPS на потребительском GPU и, по тестам, лучше аналогичных методик. Код проекта опубликован на GitHub.
skyfall-gs.jayinnn.dev
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍2👏1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍4🤔1
На Vertex AI заметили модель gemini-3-pro-preview-11-2025 (пока недоступна).
Что уже известно: предварительная версия Gemini 3 выйдет в ноябре и будет поддерживать контекстное окно в 1 миллион токенов.
https://x.com/legit_api/status/1986066955191665043
Что уже известно: предварительная версия Gemini 3 выйдет в ноябре и будет поддерживать контекстное окно в 1 миллион токенов.
https://x.com/legit_api/status/1986066955191665043
👍5❤1🔥1🤔1
⁉️Машинное обучение кажется чем-то сложным и недосягаемым? Всё проще, чем вы думаете!
Первый шаг — разобраться, как устроен ML-процесс и научиться работать в Jupyter Notebook — инструменте, с которого начинают все специалисты в Data Science.
На открытом уроке вы шаг за шагом поймёте, как строится путь от данных до модели. Научитесь запускать эксперименты в Jupyter Notebook и Google Colab, работать с виртуальными окружениями и не бояться “сломать” систему. Всё — в формате простых и наглядных примеров.
После урока вы сможете уверенно начать свой первый ML-проект и поймёте, какие инструменты нужны, чтобы перейти от теории к практике.
➡️ 13 ноября в 20:00 МСК. Открытый вебинар проходит в преддверии старта курса «Machine Learning. Basic». Регистрируйтесь и сделайте первый шаг в машинное обучение без страха и путаницы:т https://otus.pw/rPzg/?erid=2W5zFGnFXsN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Первый шаг — разобраться, как устроен ML-процесс и научиться работать в Jupyter Notebook — инструменте, с которого начинают все специалисты в Data Science.
На открытом уроке вы шаг за шагом поймёте, как строится путь от данных до модели. Научитесь запускать эксперименты в Jupyter Notebook и Google Colab, работать с виртуальными окружениями и не бояться “сломать” систему. Всё — в формате простых и наглядных примеров.
После урока вы сможете уверенно начать свой первый ML-проект и поймёте, какие инструменты нужны, чтобы перейти от теории к практике.
➡️ 13 ноября в 20:00 МСК. Открытый вебинар проходит в преддверии старта курса «Machine Learning. Basic». Регистрируйтесь и сделайте первый шаг в машинное обучение без страха и путаницы:т https://otus.pw/rPzg/?erid=2W5zFGnFXsN
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
По мере роста длины контекста классический attention всё хуже масштабируется: KV-кеш раздувается линейно, а prefill бьёт по задержкам квадратичным ростом.
Отсюда - всплеск интереса к гибридным архитектурам, где внимание смешивается с SSM, линейным attention и другими эффективными слоями.
В vLLM V1 такие модели стали first-class: единое управление состояниями (и KV-кеш, и SSM-стейт), оптимизации через CUDA Graphs, улучшенное префикс-кеширование. Это сильно повышает throughput на длинных последовательностях и моделях c MoE.
Итог: гибридные модели выходят в продовый стандарт - быстрее, дешевле по памяти и лучше подходят для LLM с большим контекстом.
Подробнее в статье: https://pytorch.org/blog/kernelfalcon-autonomous-gpu-kernel-generation-via-deep-agents/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Секрет - перестать использовать JSON и перейти на TOON (Token-Oriented Object Notation).
TOON сокращает количество токенов на 30–60% при тех же данных и остаётся полностью читаемым.
TOON идеально подходит для таблиц - массивов с одинаковыми полями в каждой строке. Это гибрид YAML (отступы) и CSV (структура), где синтаксис минимален, а лишние символы отсутствуют.
Пример.
JSON:
{
"users": [
{ "id": 1, "name": "Alice", "role": "admin" },
{ "id": 2, "name": "Bob", "role": "user" }
]
}
TOON:
users[2]{id,name,role}:
1,Alice,admin
2,Bob,user
Сразу видно: та же информация занимает гораздо меньше токенов.
Ключевые особенности:
- 30–60% меньше токенов
- Идеальный микс YAML и CSV
- Явная валидация: длина и поля задаются прямо в заголовке
- Минимальный синтаксис — никакой лишней пунктуации
Важно: для сильно вложенных и неоднородных структур JSON всё ещё может быть лучше.
TOON уже показывает стабильное снижение стоимости и рост точности извлечения данных у разных LLM.
Где бы это могло пригодиться в твоём процессе?
github.com/toon-format/toon
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍7🔥2
🔬 Генерация белков с BoltzGen
BoltzGen — это инструмент для генерации и оптимизации дизайна белков, использующий передовые методы машинного обучения. Он позволяет создавать наборы ранжированных дизайнов на основе спецификаций в формате YAML, обеспечивая гибкость и высокую производительность.
🚀 Основные моменты:
- Генерация белков с использованием спецификаций YAML.
- Поддержка GPU для ускорения вычислений.
- Выходные данные включают промежуточные и финальные дизайны.
- Возможность анализа и фильтрации результатов.
📌 GitHub: https://github.com/HannesStark/boltzgen
#python
BoltzGen — это инструмент для генерации и оптимизации дизайна белков, использующий передовые методы машинного обучения. Он позволяет создавать наборы ранжированных дизайнов на основе спецификаций в формате YAML, обеспечивая гибкость и высокую производительность.
🚀 Основные моменты:
- Генерация белков с использованием спецификаций YAML.
- Поддержка GPU для ускорения вычислений.
- Выходные данные включают промежуточные и финальные дизайны.
- Возможность анализа и фильтрации результатов.
📌 GitHub: https://github.com/HannesStark/boltzgen
#python
❤2👍1
Kimi K2 Thinking (32K) показал результат 4.2 балла на расширенном бенчмарке Extended NYT Connections.
Модель заметно ошибается в рассуждениях и нередко зацикливается при ответах. Тестирование проводилось через официальный API.
Подробнее: github.com/lechmazur/nyt-connections/
Модель заметно ошибается в рассуждениях и нередко зацикливается при ответах. Тестирование проводилось через официальный API.
Подробнее: github.com/lechmazur/nyt-connections/
😱3❤2👍1👎1🔥1
Этот практический гайд по статистике на Python - ваш надёжный проводник в мир анализа, визуализации и интерпретации данных.
От простых описательных показателей до регрессий и временных рядов — с примерами, кодом и реальными задачами. Всё, что нужно, чтобы уверенно применять статистику на практике.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1🔥1