📄 Превращайте тысячи PDF в данные, готовые для LLM - с Vision-First Agentic Document AI!
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
🤣6🔥3❤2
Компания ищет человека, который будет заранее продумывать и управлять рисками от быстро растущих возможностей ИИ.
Главная идея роли:
- понимать, где ИИ может пойти «не туда»
- предотвращать злоупотребления ИИ
- усиливать защиту кибербезопасности,
- закладывать правила для систем, которые умеют самоулучшаться
Это напряжённая и очень ответственная работа: мало примеров, много неизвестного - и высокий уровень влияния на решения.
По сути - задача проста по формулировке и сложна на практике: как развивать мощный ИИ и не дать ему причинить вред.
https://openai.com/careers/head-of-preparedness-san-francisco/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
⚡️ Neural Operator официально стал частью экосистемы PyTorch
PyTorch расширяет границы машинного обучения - в экосистему официально вошли Neural Operators.
Что это такое:
Neural Operators - это класс моделей, которые учатся не аппроксимировать данные, а аппроксимировать сами операторы. Проще говоря, они учатся решать целые классы задач, а не отдельные примеры.
Зачем это нужно:
- Решение дифференциальных уравнений
- Физическое моделирование
- Климат и погода
- CFD, материалы, биология
- Научные и инженерные симуляции
В отличие от обычных нейросетей:
- Neural Operators обобщаются на разные разрешения сетки
- Работают с непрерывными функциями
- Лучше подходят для задач, где данные описывают физические процессы
Что дает интеграция в PyTorch:
- Единый стандарт и API
- Совместимость с autograd, GPU и распределенным обучением
- Проще внедрять в реальные ML и scientific pipelines
- Меньше барьеров между research и production
PyTorch все больше становится не просто фреймворком для DL, а базовой платформой для научных вычислений и физически-осмысленного ИИ.
ML и scientific computing продолжают сближаться - и это один из самых сильных сигналов за последнее время.
Источник:
https://pytorch.org/blog/neuraloperatorjoins-the-pytorch-ecosystem/
PyTorch расширяет границы машинного обучения - в экосистему официально вошли Neural Operators.
Что это такое:
Neural Operators - это класс моделей, которые учатся не аппроксимировать данные, а аппроксимировать сами операторы. Проще говоря, они учатся решать целые классы задач, а не отдельные примеры.
Зачем это нужно:
- Решение дифференциальных уравнений
- Физическое моделирование
- Климат и погода
- CFD, материалы, биология
- Научные и инженерные симуляции
В отличие от обычных нейросетей:
- Neural Operators обобщаются на разные разрешения сетки
- Работают с непрерывными функциями
- Лучше подходят для задач, где данные описывают физические процессы
Что дает интеграция в PyTorch:
- Единый стандарт и API
- Совместимость с autograd, GPU и распределенным обучением
- Проще внедрять в реальные ML и scientific pipelines
- Меньше барьеров между research и production
PyTorch все больше становится не просто фреймворком для DL, а базовой платформой для научных вычислений и физически-осмысленного ИИ.
ML и scientific computing продолжают сближаться - и это один из самых сильных сигналов за последнее время.
Источник:
https://pytorch.org/blog/neuraloperatorjoins-the-pytorch-ecosystem/
❤21🔥8👍4
🎉 Yandex Cloud и Forbes совместно создали новогодний спецпроект-игру, вдохновленную классикой «Герои меча и магии», но с современным взглядом на работу с данными!
Вместо магии — PostgreSQL, ClickHouse, Trino, DataLens — все эти инструменты работают как артефакты в вашем распоряжении. Получайте их у хранителей, создавайте в кибер-кузнице и помогайте своим персонажам из сферы финтеха, ритейла и промышленности побеждать цель — победить хаос данных.
Проект — не только игра, но и демонстрация того, как Yandex Cloud помогает компаниям эффективно управлять данными. Играть можно на ПК и смартфонах.
Отличный вызов для всех CDO, аналитиков и дата-инженеров, кто хочет совместить полезное с ностальгическим!
👉 Поиграть и узнать больше
Вместо магии — PostgreSQL, ClickHouse, Trino, DataLens — все эти инструменты работают как артефакты в вашем распоряжении. Получайте их у хранителей, создавайте в кибер-кузнице и помогайте своим персонажам из сферы финтеха, ритейла и промышленности побеждать цель — победить хаос данных.
Проект — не только игра, но и демонстрация того, как Yandex Cloud помогает компаниям эффективно управлять данными. Играть можно на ПК и смартфонах.
Отличный вызов для всех CDO, аналитиков и дата-инженеров, кто хочет совместить полезное с ностальгическим!
👉 Поиграть и узнать больше
👍9❤3🔥3
Tesla стоит дороже, чем вся мировая автоиндустрия - вместе взятая 🚗⚡
Сегодня капитализация Tesla - примерно $1.62 трлн.
Вся глобальная автоиндустрия - около $1.33 трлн.
Иначе говоря, одна компания оценивается дороже, чем весь остальной рынок автомобилей.
Традиционные автопроизводители инвесторы воспринимают как зрелые промышленные бизнесы:
медленный рост, высокие капзатраты, жесткая конкуренция и ограниченные маржи.
С Tesla история другая.
Инвесторы платят за потенциал будущих направлений:
- автопилот и self-driving
- роботакси
- хранение и управление энергией
- робототехника
- новые высокомаржинальные сервисы
Фактически рынок считает, что :
> у Tesla - больше потенциала роста на каждую единицу будущего прогресса,
> чем у всей отрасли в целом.
И ещё один сигнал:
Tesla воспринимают как компанию,
которая способна превратить автомобиль в платформу -
где каждая новая функция (автономность, энергоинтеграция, эффективность производства)
повышает маржу и открывает новые источники дохода.
Это уже не просто автопроизводитель -
это ставка на то, что машины становятся программными продуктами на колёсах.
Сегодня капитализация Tesla - примерно $1.62 трлн.
Вся глобальная автоиндустрия - около $1.33 трлн.
Иначе говоря, одна компания оценивается дороже, чем весь остальной рынок автомобилей.
Традиционные автопроизводители инвесторы воспринимают как зрелые промышленные бизнесы:
медленный рост, высокие капзатраты, жесткая конкуренция и ограниченные маржи.
С Tesla история другая.
Инвесторы платят за потенциал будущих направлений:
- автопилот и self-driving
- роботакси
- хранение и управление энергией
- робототехника
- новые высокомаржинальные сервисы
Фактически рынок считает, что :
> у Tesla - больше потенциала роста на каждую единицу будущего прогресса,
> чем у всей отрасли в целом.
И ещё один сигнал:
Tesla воспринимают как компанию,
которая способна превратить автомобиль в платформу -
где каждая новая функция (автономность, энергоинтеграция, эффективность производства)
повышает маржу и открывает новые источники дохода.
Это уже не просто автопроизводитель -
это ставка на то, что машины становятся программными продуктами на колёсах.
🤔14🔥6🤣5❤3🌚2🥰1😱1
🚀 Agentic AI Crash Course: бесплатный курс про автономных AI-агентов
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
❤14🔥7👍4
🚨 DeepSeek уже в первый день года выкатывает сильное обновление: важное улучшение архитектуры трансформеров.
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
Китайцы предложили способ сделать shortcut-путь ( это когда выход слоя прибавляется к его же входу, то есть сеть не «заменяет» информацию, а добавляет к ней улучшенную версию) в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь.
Был один поток, а стало несколько.
Перед блоком модель выбирает, какие потоки подать на вычисления.
Во время блока часть сигнала идёт «в обход»,
чтобы ничего не потерять.
После блока всё снова аккуратно объединяется.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так:
потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
И трансформеры стали гибче и стабильнее.
Статья: https://arxiv.org/abs/2512.24880
Видео: https://www.youtube.com/watch?v=gT-0Qryi5KA
#AI #DeepSeek #MachineLearning #NeuralNetworks #Research
❤27🔥8👍4🤔2
🧠⚡ Исследование Carnegie Mellon: Cursor ускоряет разработку до 3–4x - но с ценой
Учёные из Carnegie Mellon проанализировали 807 репозиториев, где разработчики перешли на Cursor
(по конфигам вроде `.cursorrules`), и сравнили их с 1380 контрольными проектами - до и после внедрения.
Метод difference-in-differences:
сравнивали одни и те же репы *до/после*, плюс контролировали тренды по месяцам.
🚀 Что произошло с “скоростью кода”
Code Velocity = коммиты + строки кода.
- в первый месяц - скачок 3–5x по строкам
- в среднем после внедрения - +1.84x к скорости
ИИ реально ускоряет работу - и это измеряемо, а не ощущение.
🧩 Но есть побочные эффекты
Качество оценивали через SonarQube
(надёжность, поддерживаемость, безопасность, дубликаты, когнитивная сложность).
- статические предупреждения - +30%
- сложность кода - +41%
- через это скорость начинает проседать со временем
ИИ помогает писать больше - но не всегда лучше.
💡 Вывод
Cursor даёт реальный прирост продуктивности, особенно в начале.
Но выигрывают те, кто сочетает ИИ с:
- тестами
- код-ревью
- quality gates
- статанализом
ИИ-агенты - ускорители,
а качество всё ещё требует инженера.
arxiv.org/abs/2511.04427v2
Учёные из Carnegie Mellon проанализировали 807 репозиториев, где разработчики перешли на Cursor
(по конфигам вроде `.cursorrules`), и сравнили их с 1380 контрольными проектами - до и после внедрения.
Метод difference-in-differences:
сравнивали одни и те же репы *до/после*, плюс контролировали тренды по месяцам.
🚀 Что произошло с “скоростью кода”
Code Velocity = коммиты + строки кода.
- в первый месяц - скачок 3–5x по строкам
- в среднем после внедрения - +1.84x к скорости
ИИ реально ускоряет работу - и это измеряемо, а не ощущение.
🧩 Но есть побочные эффекты
Качество оценивали через SonarQube
(надёжность, поддерживаемость, безопасность, дубликаты, когнитивная сложность).
- статические предупреждения - +30%
- сложность кода - +41%
- через это скорость начинает проседать со временем
ИИ помогает писать больше - но не всегда лучше.
💡 Вывод
Cursor даёт реальный прирост продуктивности, особенно в начале.
Но выигрывают те, кто сочетает ИИ с:
- тестами
- код-ревью
- quality gates
- статанализом
ИИ-агенты - ускорители,
а качество всё ещё требует инженера.
arxiv.org/abs/2511.04427v2
👍26❤6🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
Дженсен Хуанг: «Влюбиться в то, что делаешь — проще, чем искать то, что любишь»
Многие говорят: *«Найди дело своей мечты».*
Но Хуанг смотрит иначе:
Он продолжает:
💡 Мы часто ищем «идеальное дело»,
но иногда сила в том, чтобы сделать то, что есть значимым, и через это вырасти.
Как вам такая философия?
Многие говорят: *«Найди дело своей мечты».*
Но Хуанг смотрит иначе:
> «Я полюбил всё, чем занимался.
> Я любил мыть посуду.
> Я любил работать официантом.
> Я любил разносить газеты.
> Я любил каждую работу, которая у меня была.»
Он продолжает:
> «Я люблю каждый день в Nvidia.
> Я просто научился любить то, что делаю.
> Найти то, что любишь - сложно.
> Проще - влюбиться в свою работу.
> Когда ты хочешь сделать её хорошо, работать легче.»
💡 Мы часто ищем «идеальное дело»,
но иногда сила в том, чтобы сделать то, что есть значимым, и через это вырасти.
Как вам такая философия?
❤66👍18🔥15😁4🆒4💯1
This media is not supported in your browser
VIEW IN TELEGRAM
DFlash - это способ ускорить генерацию текста у больших моделей.
Он работает так: одна модель быстро делает черновик, другая - проверяет его и исправляет ошибки.
Почему это круто?
🚀 6.2× быстрее без потери качества на Qwen3-8B
⚡ в 2.5 раза быстрее EAGLE-3
Идея простая:
• диффузионные модели - генерируют быстро, но иногда ошибаются
• автогенеративные (AR) - очень точные, но работают медленно
• DFlash сочетает оба подхода:
диффузия — черновик → AR — проверка и подтверждение
Получается: и быстро, и аккуратно, вместо того, чтобы выбирать одно.
🔗 Блог: https://z-lab.ai/projects/dflash/
💻 Код: https://github.com/z-lab/dflash
🤗 Модели: https://huggingface.co/collections/z-lab/dflash
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤8👍4🥰4
Forwarded from Machinelearning
Стэнфордский университет натренировал SleepFM — фундаментальную модель для прогноза целого спектра патологий: от мерцательной аритмии и инфаркта миокарда до деменции и болезни Паркинсона.
Полисомнография — «золотой стандарт» изучения сна: человека обвешивают датчиками (ЭЭГ, ЭКГ, дыхание, мышцы) и пишут гигабайты сырых сигналов.
Но в ML-мире эти данные используются бездарно. Существующие модели тренировались на мелких датасетах сугубо под узкие задачи (найти апноэ, определить фазу сна).
Огромный пласт физиологической информации о здоровье пациента просто игнорировался, потому что размечать вручную сотни часов записи под каждую болячку — невозможно.
К тому же, если в одной клинике датчик ЭЭГ повесили чуть иначе или он отвалился, обычная модель ломалась.
В университете поняли, что врачи-разметчики не нужны, нужны объемы. Они собрали огромный датасет из 585 тыс. часов записей сна более 65 тыс. пациентов и придумали уникальный алгоритм обучения SSL для будущей модели.
Вместо того чтобы учить модель предсказывать диагноз, еt заставили решать пазл: система получает на вход сигналы от 3-x модальностей (сердце, мышцы, дыхание) и должна предсказать эмбеддинг четвертой (мозговые волны).
Это заставляет нейросеть на базе 1D CNN и Transformers выучивать глубокие, скрытые связи между физиологическими процессами.
Модели все равно, какие именно датчики подключены и в каком порядке. Если канал отвалился или отсутствует, attention pooling просто перераспределяет веса, и инференс продолжается.
Получив на вход 1 ночь записи, модель предсказывает риск 130 заболеваний, причем она делает это точнее, чем специализированные модели, обученные с учителем: риск болезни Паркинсона выявляется в 89% случаев, деменции — в 85%, а вероятность сердечного приступа — в 81%.
Авторы работы полагают, что с развитием носимой электроники такая диагностика может перекочевать из лабораторий в умные часы, а тесты модели доказали, что что в шуме сигналов сна может быть скрыта полная медкарта пациента.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19🔥12🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Создание видео с LTX-2
LTX-2 - это уникальная модель для генерации видео с синхронизированным аудио и видео, предлагающая высокое качество и множество режимов работы. Она обеспечивает доступ к API и открытый доступ, что делает её идеальной для продакшн-решений.
🚀 Основные моменты:
- Модель на основе DiT для аудио-видео генерации
- Высокая точность и качество выходных данных
- Поддержка нескольких режимов производительности
- Открытый доступ и API для интеграции
- Доступна демо-версия для тестирования
📌 GitHub: https://github.com/Lightricks/LTX-2
LTX-2 - это уникальная модель для генерации видео с синхронизированным аудио и видео, предлагающая высокое качество и множество режимов работы. Она обеспечивает доступ к API и открытый доступ, что делает её идеальной для продакшн-решений.
🚀 Основные моменты:
- Модель на основе DiT для аудио-видео генерации
- Высокая точность и качество выходных данных
- Поддержка нескольких режимов производительности
- Открытый доступ и API для интеграции
- Доступна демо-версия для тестирования
📌 GitHub: https://github.com/Lightricks/LTX-2
👍6🔥3🥰3