Machine learning Interview
30.4K subscribers
1.48K photos
114 videos
13 files
1.01K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 DFlash: как ускорить LLM без потери качества

DFlash - это способ ускорить генерацию текста у больших моделей.

Он работает так: одна модель быстро делает черновик, другая - проверяет его и исправляет ошибки.

Почему это круто?

🚀 6.2× быстрее без потери качества на Qwen3-8B
в 2.5 раза быстрее EAGLE-3

Идея простая:

• диффузионные модели - генерируют быстро, но иногда ошибаются
• автогенеративные (AR) - очень точные, но работают медленно
DFlash сочетает оба подхода:
диффузия — черновик → AR — проверка и подтверждение

Получается: и быстро, и аккуратно, вместо того, чтобы выбирать одно.

🔗 Блог: https://z-lab.ai/projects/dflash/
💻 Код: https://github.com/z-lab/dflash
🤗 Модели: https://huggingface.co/collections/z-lab/dflash
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥158👍4🥰4
Forwarded from Machinelearning
📌ИИ-модель от Стэнфорда диагностирует 130 заболеваний по анализу одной ночи сна.

Стэнфордский университет натренировал SleepFM — фундаментальную модель для прогноза целого спектра патологий: от мерцательной аритмии и инфаркта миокарда до деменции и болезни Паркинсона.

Полисомнография — «золотой стандарт» изучения сна: человека обвешивают датчиками (ЭЭГ, ЭКГ, дыхание, мышцы) и пишут гигабайты сырых сигналов.


Но в ML-мире эти данные используются бездарно. Существующие модели тренировались на мелких датасетах сугубо под узкие задачи (найти апноэ, определить фазу сна).

Огромный пласт физиологической информации о здоровье пациента просто игнорировался, потому что размечать вручную сотни часов записи под каждую болячку — невозможно.

К тому же, если в одной клинике датчик ЭЭГ повесили чуть иначе или он отвалился, обычная модель ломалась.

В университете поняли, что врачи-разметчики не нужны, нужны объемы. Они собрали огромный датасет из 585 тыс. часов записей сна более 65 тыс. пациентов и придумали уникальный алгоритм обучения SSL для будущей модели.

🟡LOO-CL (Leave-One-Out Contrastive Learning)

Вместо того чтобы учить модель предсказывать диагноз, еt заставили решать пазл: система получает на вход сигналы от 3-x модальностей (сердце, мышцы, дыхание) и должна предсказать эмбеддинг четвертой (мозговые волны).

Это заставляет нейросеть на базе 1D CNN и Transformers выучивать глубокие, скрытые связи между физиологическими процессами.

🟡Вторая фишка — Channel-Agnostic Attention.

Модели все равно, какие именно датчики подключены и в каком порядке. Если канал отвалился или отсутствует, attention pooling просто перераспределяет веса, и инференс продолжается.

🟡SleepFM научилась читать по сну не только бессонницу.

Получив на вход 1 ночь записи, модель предсказывает риск 130 заболеваний, причем она делает это точнее, чем специализированные модели, обученные с учителем: риск болезни Паркинсона выявляется в 89% случаев, деменции — в 85%, а вероятность сердечного приступа — в 81%.

Авторы работы полагают, что с развитием носимой электроники такая диагностика может перекочевать из лабораторий в умные часы, а тесты модели доказали, что что в шуме сигналов сна может быть скрыта полная медкарта пациента.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
21🔥13🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Создание видео с LTX-2

LTX-2 - это уникальная модель для генерации видео с синхронизированным аудио и видео, предлагающая высокое качество и множество режимов работы. Она обеспечивает доступ к API и открытый доступ, что делает её идеальной для продакшн-решений.

🚀 Основные моменты:
- Модель на основе DiT для аудио-видео генерации
- Высокая точность и качество выходных данных
- Поддержка нескольких режимов производительности
- Открытый доступ и API для интеграции
- Доступна демо-версия для тестирования

📌 GitHub: https://github.com/Lightricks/LTX-2
👍6🔥3🥰3
⚡️ Китайский AI-стартап MiniMax Group привлёк $619 млн на IPO в Гонконге.

Акции разместили по верхней границе диапазона - HK$165:
продано 29,2 млн акций.

За компанией стоят крупные игроки:
- Abu Dhabi Investment Authority (ADIA)
- Mirae Asset Securities

MiniMax - один из первых китайских разработчиков LLM, кто реально вышел на биржу.

Компания основана в 2022 году (создатель - экс-топ SenseTime) и делает мультимодальный ИИ, который генерирует:
- текст
- картинки
- видео
- аудио
- музыку

Главное: большую часть денег MiniMax направит в R&D на ближайшие 5 лет.

Китай быстро переходит из стадии “догоняем” в стадию:
выводим LLM-компании на публичный рынок и масштабируем их как Big Tech.
12👍5🔥3🤔1
🖥 На Stepik вышел курс, который учит работать с Docker на реальных проектах.

Владение Docker - навык, который отличает новичка от профи,

Сегодня почти всё разворачивается в контейнерах.

Если ты не умеешь работать с Docker, ты медленнее, зависим от чужих настроек и постоянно ловишь баги «у меня локально работает».

• как упаковывать проекты в контейнеры
• как поднимать целые системы за минуты
• как избегать типичных ошибок в продакшене
• как делать стабильные и повторяемые окружения
•в нем разобраны все возможные ошибки

Только практика и реальные кейсы от авторов Docker Академии- с нуля до уверенного уровня.

🎁 Скидка 40 процентов действует 48 часов


👉 Записывайся и сделай Docker своим настоящим рабочим инструментом.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪8👍3🔥2😁21
✔️ Tencent представила диффузионную языковую модель: в 6 раз быстрее классических LLM

WeDLM-8B Instruct использует не авторегрессию, как обычные LLM,
а диффузионный способ генерации текста.

Что это даёт?
🚀 В задачах математического рассуждения модель работает в 3–6 раз быстрее,
чем Qwen3-8B даже с оптимизациями vLLM - при сохранении качества.

Этот релиз ломает старый миф, что «диффузионные модели не подходят для точных текстовых задач».

На практике WeDLM показывает, что такой подход может конкурировать
и даже обходить трансформеры по скорости инференса.

Модель открыта и доступна под лицензией Apache 2.0:

🔗 https://wedlm.github.io

🔗 https://huggingface.co/tencent/WeDLM-8B-Instruct
10👍5🥰4🥱2
MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ

Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.

Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.

То есть система отвечает на вопрос не “примерно”, а строго:

👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.

В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.

А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее

Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.

Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid

Каждое измерение может быть: дорогим, медленным, опасным или редким.

И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.

Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
15🤔11😁5
Автоматизируем рутину на максимум: вышла Manus Academy - платформа с бесплатными курсами по ИИ-агентам.

Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).

https://academy.manus.im/
👍54🔥3
Сегодня ключевой вопрос уже не в том, использовать ли AI в работе, а в том, как именно его встраивать так, чтобы он приносил пользу, а не создавал новые проблемы.

Когда AI подключается без четкой архитектуры, он быстро превращается в источник нестабильности: ответы начинают зависеть от случайного контекста, качество трудно контролировать, а система плохо переносит рост данных и пользователей. В результате технология, которая должна была упрощать работу, начинает требовать все больше внимания и ручного контроля.

На вебинаре «Прототипирование LLM: от идеи до работающего AI-ассистента» karpovꓸcourses подробно разберут, как проектируются управляемые AI-системы: как выстраивается слой работы с данными через RAG, как ассистент получает доступ к внешним инструментам, как задается логика поведения и ограничения, и как все это соединяется в воспроизводимую архитектуру.

Научитесь строить управляемые AI-системы на бесплатном вебинаре: https://clc.to/erid_2W5zFGvwQ3r

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGvwQ3r
🤣7🔥43
🚀 GLM-Image теперь open-source

Почти все image-модели умеют делать красивые арты…
но ломаются, когда нужно:
- постер с текстом
- PPT-слайд
- инфографика с логикой
- схема/диаграмма с подписями

GLM-Image решает это иначе:
он комбинирует Autoregressive-модель + Diffusion Decoder, и за счёт этого нормально держит структуру + текст + смысл.

Что умеет:
- #1 на CVTG-2K и LongText-Bench
- идеальный многострочный текст
- сложные диаграммы и логические схемы
- заточен под NPU training (Ascend / MindSpore)

📌 Model: https://modelscope.cn/models/ZhipuAI/GLM-Image
📌 Github: https://github.com/zai-org/GLM-Image
12🔥5👍2🥰2
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯

80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.

Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».

▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.

Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И ес

80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.

Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».

▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.

Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.

Реклама. АО "Селектел". erid:2W5zFJr9UdW
🤣2🔥1
DeepTutor: AI-ассистент для персонализированного обучения и исследований 🎓🤖

Команда исследует, как агентный ИИ может помогать студентам и исследователям на каждом этапе:
от чтения материалов до практики, идей и управления знаниями.

DeepTutor объединяет: исследование, разбор теории, генерацию заданий и систему заметок в один инструмент, который понимает контекст твоего обучения.

Что умеет DeepTutor

- 📚 Smart Document Q&A
Заливаешь учебники, статьи, технические доки—
получаешь развёрнутые ответы с корректными цитатами.

- 🎨 Визуализация и объяснения
Сложные темы превращаются в понятные схемы
и интерактивные страницы, адаптированные под твой темп.

- 🎯 Генератор практики
Создаёт тесты по твоим материалам —
и даже может имитировать стиль реальных экзаменов.

- 🔬 Исследования и идеи
Помогает с научной работой, отчётами, брейнштормом
и может параллельно вести несколько исследовательских тем.

🔗 Open Source
: https://github.com/HKUDS/DeepTutor
🔥5❤‍🔥2👍1