This media is not supported in your browser
VIEW IN TELEGRAM
IT-осень начинается с E-CODE 2025
13-14 сентября IT-сообщество ждет масштабное событие — E-CODE от Ozon Tech.
E-CODE объединяет доклады и вечеринки, нетворкинг и 1х1, научные лекции и караоке. И всё это в атмосфере Ozon Tech. Потому что главный принцип команды разработки — «делать как для себя».
По ML будет отдельный трек с экспертами от лидеров отрасли. Берите багаж побольше, чтобы все знания поместились.
Оформить билет на E-CODE
13-14 сентября IT-сообщество ждет масштабное событие — E-CODE от Ozon Tech.
E-CODE объединяет доклады и вечеринки, нетворкинг и 1х1, научные лекции и караоке. И всё это в атмосфере Ozon Tech. Потому что главный принцип команды разработки — «делать как для себя».
По ML будет отдельный трек с экспертами от лидеров отрасли. Берите багаж побольше, чтобы все знания поместились.
Оформить билет на E-CODE
👍27❤9🥰5👨💻2
800+ SQL Server Interview Questions and Answers .pdf
1 MB
Подойдёт, чтобы:
— прокачать SQL-навыки с нуля до продвинутого уровня
— быстро освежить синтаксис перед интервью
— попрактиковаться на реальных задачах
Полезно как джунам, так и мидлам. Отличный способ проверить себя и закрыть пробелы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38👍19🔥12👨💻2
📝 Pen and paper exercises in machine learning — интересный сборник упражнений по машинному обучению. Проект содержит подборку задач с подробными решениями по линейной алгебре, оптимизации, байесовским сетям и другим фундаментальным темам. Автор делает акцент на математическую основу, а не на программирование.
Все материалы доступны в PDF и исходных LaTeX-файлах под лицензией CC BY 4.0. Упражнения разрабатывались для курсов Эдинбургского и Хельсинкского университетов, что гарантирует их академическую ценность. Подходит как для самостоятельного изучения, так и для преподавания.
🤖 GitHub
@machinelearning_interview
Все материалы доступны в PDF и исходных LaTeX-файлах под лицензией CC BY 4.0. Упражнения разрабатывались для курсов Эдинбургского и Хельсинкского университетов, что гарантирует их академическую ценность. Подходит как для самостоятельного изучения, так и для преподавания.
🤖 GitHub
@machinelearning_interview
❤44👍11🥰4
⚡️ 1.3 млн токенов/сек на H800 — новый рекорд для LLM-инференции
Команда Yiakwy-XPU показала, как эффективно запускать большие языковые модели (например, DeepSeek V3) на 13×8 H800 DGX SuperPod с помощью SGlang в разнесённой архитектуре (disaggregated serving):
📊 Что удалось достичь:
• 1.3M токенов/сек на входе (prefill)
• 20K токенов/сек на выходе (decode)
• До 80K токенов/сек суммарной производительности
• При 50–150 параллельных запросах — стабильный throughput до 55K токенов/сек
📌 Важные выводы:
• Префилл — главное узкое место (TTFT ↑ при длинных запросах и больших батчах)
• Оптимальное соотношение вход/выход — 4:1, а prefill/decode — 3:1
• Меньшие
• В режиме смешанного сервинга (decode + prefill) — лучше использовать батчинг именно с
🔧 Бенчмарки:
🔥 Используемая модель: Yi-1.5 34B
📦 Полная статья и код
@machinelearning_interview
Команда Yiakwy-XPU показала, как эффективно запускать большие языковые модели (например, DeepSeek V3) на 13×8 H800 DGX SuperPod с помощью SGlang в разнесённой архитектуре (disaggregated serving):
📊 Что удалось достичь:
• 1.3M токенов/сек на входе (prefill)
• 20K токенов/сек на выходе (decode)
• До 80K токенов/сек суммарной производительности
• При 50–150 параллельных запросах — стабильный throughput до 55K токенов/сек
📌 Важные выводы:
• Префилл — главное узкое место (TTFT ↑ при длинных запросах и больших батчах)
• Оптимальное соотношение вход/выход — 4:1, а prefill/decode — 3:1
• Меньшие
tp
и chunked-prefill
уменьшают задержки между токенами (ITL) • В режиме смешанного сервинга (decode + prefill) — лучше использовать батчинг именно с
chunk-prefill
, иначе резко растёт latency🔧 Бенчмарки:
bench_one_batch_server.py
, genai-bench
, evalscope
🔥 Используемая модель: Yi-1.5 34B
📦 Полная статья и код
@machinelearning_interview
🔥35❤13👍7🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 ChatGPT Agent vs. Genspark Super Agent — битва ИИ-ассистентов нового поколения
Не так давно OpenAI выпутили ChatGPT Agent, способного выполнять сложные многошаговые задачи — от ресёрча до автоматизации. Но Genspark пошёл ещё дальше и предлагает интеллектуального супер-агента, ориентированного на пользователей и сложные команды.
🔹 ChatGPT Agent
— Доступ к браузеру, API, терминалу
— Глубокий поиск + Gmail/Calendar интеграция
— Контроль, безопасность и прозрачность
— Идеален для профессиональных пользователей и команд, которым важна защита данных и максимальный контроль
🔹 Genspark Super Agent
— No-code-процессы + генерация слайдов, видео
— 80+ встроенных инструментов: CRM, задачи, API, документы
— Агент сам выбирает подходящий инструмент и переключается в процессе
— Интеллектуальный feedback-loop и динамическая оркестрация действий
— В бенчмарках Genspark часто обходит конкурентов по точности и эффективности
📌 Для индивидуальных пользователей и малых команд Genspark имеет явные приемущества: мощь, гибкость и доступность — без кода и без боли.
Не так давно OpenAI выпутили ChatGPT Agent, способного выполнять сложные многошаговые задачи — от ресёрча до автоматизации. Но Genspark пошёл ещё дальше и предлагает интеллектуального супер-агента, ориентированного на пользователей и сложные команды.
🔹 ChatGPT Agent
— Доступ к браузеру, API, терминалу
— Глубокий поиск + Gmail/Calendar интеграция
— Контроль, безопасность и прозрачность
— Идеален для профессиональных пользователей и команд, которым важна защита данных и максимальный контроль
🔹 Genspark Super Agent
— No-code-процессы + генерация слайдов, видео
— 80+ встроенных инструментов: CRM, задачи, API, документы
— Агент сам выбирает подходящий инструмент и переключается в процессе
— Интеллектуальный feedback-loop и динамическая оркестрация действий
— В бенчмарках Genspark часто обходит конкурентов по точности и эффективности
📌 Для индивидуальных пользователей и малых команд Genspark имеет явные приемущества: мощь, гибкость и доступность — без кода и без боли.
👍27❤10🔥3🤔2🤣2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🔊 OpenVoice — опенсовр инструмент для клонирования голоса
Вы можете сгенерировать копию любого голоса всего по одной короткой записи — и озвучивать тексты с нужной интонацией, эмоцией и даже на другом языке.
💡 Что умеет:
— Воспроизводит голос с точным тембром и стилем
— Меняет тон, темп, эмоции и акцент
— Работает даже с языками, которых не было в обучении (zero-shot)
— Быстрая генерация и минимальные ресурсы — дешевле многих коммерческих решений
⚙️ Как устроено:
OpenVoice использует комбинацию моделей: одна отвечает за стиль, вторая — за тональность и характеристики речи. Обучена на сотнях тысяч голосов и стилей.
Онлайн-демо: https://huggingface.co/spaces/myshell-ai/OpenVoice
🎯 Кому подойдёт:
— Авторам подкастов, дикторам и блогерам
— Разработчикам — для интеграции озвучки в приложения
— Исследователям — для изучения архитектуры голосовых моделей
• Github: https://github.com/myshell-ai/OpenVoice/tree/main
@machinelearning_interview
Вы можете сгенерировать копию любого голоса всего по одной короткой записи — и озвучивать тексты с нужной интонацией, эмоцией и даже на другом языке.
💡 Что умеет:
— Воспроизводит голос с точным тембром и стилем
— Меняет тон, темп, эмоции и акцент
— Работает даже с языками, которых не было в обучении (zero-shot)
— Быстрая генерация и минимальные ресурсы — дешевле многих коммерческих решений
⚙️ Как устроено:
OpenVoice использует комбинацию моделей: одна отвечает за стиль, вторая — за тональность и характеристики речи. Обучена на сотнях тысяч голосов и стилей.
Онлайн-демо: https://huggingface.co/spaces/myshell-ai/OpenVoice
🎯 Кому подойдёт:
— Авторам подкастов, дикторам и блогерам
— Разработчикам — для интеграции озвучки в приложения
— Исследователям — для изучения архитектуры голосовых моделей
• Github: https://github.com/myshell-ai/OpenVoice/tree/main
@machinelearning_interview
👍24🔥7❤5😱1
Forwarded from AI VK Hub
В рекомендациях есть две точки зрения:
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
🔹 Начало встречи 24 июля в 18:00.
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20🔥12🤣5🥰2🤔2👍1👨💻1💊1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Хочешь подключить свой LLM к MCP-серверу без Cursor и Claude?
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
👍29❤11🔥8🤔4👨💻1
🚨 BREAKING: Цукерберг переманил трёх топ-исследователей из Google DeepMind — именно тех, кто стоял за моделью, взявшей золото на Международной математической олимпиаде (IMO)
🧠 Это авторы модели, которая без дообучения решила задачи уровня золотой медали IMO и показала, что ИИ может соревноваться с лучшими математиками мира.
🔥 Цукерберг явно нацелен на лидерство в области ИИ. Цук не останавливается.
@machinelearning_interview
🧠 Это авторы модели, которая без дообучения решила задачи уровня золотой медали IMO и показала, что ИИ может соревноваться с лучшими математиками мира.
🔥 Цукерберг явно нацелен на лидерство в области ИИ. Цук не останавливается.
@machinelearning_interview
❤27🔥12👍7👨💻2😭1💊1
Forwarded from Machinelearning
Архитектура Mixture-of-Recursions (MoR), предложенная Google в соавторстве с KAIST AI объединяет в едином фреймворке традиционные подходы разделения параметров и адаптивные вычисления, заставляя модель думать над каждым токеном с разной глубиной.
Под капотом MoR - рекурсивный трансформер, который прогоняет входные данные через один и тот же блок слоев несколько раз. Но главная фишка в том, что количество этих прогонов, или глубина рекурсии, не фиксированное, а динамическое и определяется для каждого токена индивидуально.
Легковесный обучаемый роутер анализирует токен и решает, сколько вычислительных усилий на него потратить. Простые слова могут пройти всего один цикл рекурсии, в то время как семантически нагруженные термины отправятся на более глубокую обработку из нескольких циклов.
Это дает два главных преимущества:
При одинаковом бюджете на обучение (в FLOPs) и меньшем размере самой модели MoR показывает более низкую перплексию и лучшие результаты в few-shot задачах, чем стандартные и рекурсивные аналоги.
@ai_machinelearning_big_data
#AI #ML #LLM #Architecture #MoR
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍9🔥5😁4
🧠 Sam Altman: целые профессии исчезнут из‑за ИИ — и это уже началось
Выступая в Вашингтоне, CEO OpenAI заявил:
🗣️ “Некоторые профессии, как, например, поддержка клиентов — просто исчезнут. Совсем. Звонок в поддержку? Это будет ИИ — и это нормально.”
📞 По его словам, современные линии поддержки уже работают на больших языковых моделях:
— мгновенные ответы
— ноль переводов
— минимум ошибок
🩺 Та же технология помогает в медицине: ИИ учится на миллионах пар “симптом → диагноз” и быстрее врачей находит причины болезней.
⚠️ Но есть и тёмная сторона:
“Представьте: враждебная страна соединяет ИИ с кибератаками — и за секунды стирает балансы или останавливает биржи. Вот это меня пугает.”
🔜 Полный материал
@machinelearning_interview
Выступая в Вашингтоне, CEO OpenAI заявил:
🗣️ “Некоторые профессии, как, например, поддержка клиентов — просто исчезнут. Совсем. Звонок в поддержку? Это будет ИИ — и это нормально.”
📞 По его словам, современные линии поддержки уже работают на больших языковых моделях:
— мгновенные ответы
— ноль переводов
— минимум ошибок
🩺 Та же технология помогает в медицине: ИИ учится на миллионах пар “симптом → диагноз” и быстрее врачей находит причины болезней.
⚠️ Но есть и тёмная сторона:
“Представьте: враждебная страна соединяет ИИ с кибератаками — и за секунды стирает балансы или останавливает биржи. Вот это меня пугает.”
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💊35👍11❤7🔥4🍌2🤪2