Forwarded from Machinelearning
Андрей Карпаты
Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».
LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.
Более подробно процесс выглядит так:
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.
⚠️ Для использования нужен API-ключ OpenRouter.
@ai_machinelearning_big_data
#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤3👍3🙈2🫡1
Джеффри Хинтон сообщил Берни Сандерсу, что ИИ может привести к массовой безработице и социальной нестабильности.
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
💊15👍14💯4❤2🤔2🤣2🥰1
Искусственный интеллект больше не ограничивается лабораториями. LLM уже встроены в бизнес, продукты и инфраструктуру. Но тех, кто умеет их разворачивать, обучать и внедрять — единицы.
🦾 Курс «LLM Driven Development» от OTUS даст вам системное понимание того, как создавать и эксплуатировать AI-продукты. Вы изучите архитектуру трансформеров, тонкости работы с памятью, оптимизацию и fine-tuning моделей. Освоите LangChain, LlamaIndex, vLLM и научитесь строить мультиагентные AI-системы, объединяя модели в цепочки решений.
Научитесь внедрять LLM в реальные сервисы: от прототипа до продакшна. Поймёте, как интегрировать AI в бэкенд, собирать данные, автоматизировать MLOps и управлять жизненным циклом модели.
➡️ Старт курса уже скоро. Оставьте заявку и станьте одним из первых специалистов, кто понимает LLM не на уровне «подключить API», а на уровне архитектуры и инженерии: https://tglink.io/2820b14152aa?erid=2W5zFJoUwjn
#реклама
О рекламодателе
🦾 Курс «LLM Driven Development» от OTUS даст вам системное понимание того, как создавать и эксплуатировать AI-продукты. Вы изучите архитектуру трансформеров, тонкости работы с памятью, оптимизацию и fine-tuning моделей. Освоите LangChain, LlamaIndex, vLLM и научитесь строить мультиагентные AI-системы, объединяя модели в цепочки решений.
Научитесь внедрять LLM в реальные сервисы: от прототипа до продакшна. Поймёте, как интегрировать AI в бэкенд, собирать данные, автоматизировать MLOps и управлять жизненным циклом модели.
➡️ Старт курса уже скоро. Оставьте заявку и станьте одним из первых специалистов, кто понимает LLM не на уровне «подключить API», а на уровне архитектуры и инженерии: https://tglink.io/2820b14152aa?erid=2W5zFJoUwjn
#реклама
О рекламодателе
🤣4❤2👍1
• Лучший результат в классе кодинга - SWE Verified впервые превышает 80%.
• Лучший результат на Arc-AGI-2 - 37.6%.
• И модель стала заметно дешевле предшественника.
Opus 4.5 примерно на 66% дешевле, чем Opus 4.1 - цена упала с примерно 15 долларов США → до 5 долларов США за миллион входящих токенов и с 75 долларов США → до 25 долларов США за миллион исходящих токенов.
Наиболее вероятные причины:
- значительное повышение эффективности модели
- улучшенная инфраструктура вывода в масштабе
- и стратегическое снижение цен для ускорения внедрения на быстрорастущем рынке.
Крупные сделки с гиперскейлерами окупились. Anthropic выдала модель, которая оказалась неожиданно сильной даже по меркам конца 2025 года.
https://www.anthropic.com/news/claude-opus-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤4🔥1
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Media is too big
VIEW IN TELEGRAM
⚡️ Hunyuan 3D Engine
Новый высокоточный ИИ-движок сокращает производство коммерческих 3D-ассетов с недель до нескольких минут.
Платформа поддерживает создание объектов из текста, изображений с мультивидовой реконструкцией и даже из простых скетчей. Это делает процесс максимально гибким и доступным как художникам, так и командам в индустрии.
Качество отвечает профессиональному уровню. Новый 3D-DiT модельный стек обеспечивает трёхкратный прирост точности и выдаёт ультра-HD разрешение. Форматы OBJ и GLB легко подключаются к Unreal Engine, Unity и Blender.
Модель также доступна через Tencent Cloud International.
Платформа даёт новым авторам 20 бесплатных генераций в день. Корпоративные клиенты получают 200 бесплатных кредитов при регистрации.
Попробовать движок можно на 3d.hunyuanglobal.com
API: tencentcloud.com/products/ai3d
#AI #3D #Hunyuan3D #Tencent #AItools #3Dgeneration
Новый высокоточный ИИ-движок сокращает производство коммерческих 3D-ассетов с недель до нескольких минут.
Платформа поддерживает создание объектов из текста, изображений с мультивидовой реконструкцией и даже из простых скетчей. Это делает процесс максимально гибким и доступным как художникам, так и командам в индустрии.
Качество отвечает профессиональному уровню. Новый 3D-DiT модельный стек обеспечивает трёхкратный прирост точности и выдаёт ультра-HD разрешение. Форматы OBJ и GLB легко подключаются к Unreal Engine, Unity и Blender.
Модель также доступна через Tencent Cloud International.
Платформа даёт новым авторам 20 бесплатных генераций в день. Корпоративные клиенты получают 200 бесплатных кредитов при регистрации.
Попробовать движок можно на 3d.hunyuanglobal.com
API: tencentcloud.com/products/ai3d
#AI #3D #Hunyuan3D #Tencent #AItools #3Dgeneration
👍6❤3🔥3😁1
Как это — работать в Т-Банке?
Загляните в канал T-Crew, где увидите:
— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.
Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда
erid:2RanynbMUFk
Загляните в канал T-Crew, где увидите:
— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.
Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда
erid:2RanynbMUFk
❤5🥴5😍3💅2💊2🥱1
⚡️ Anthropic оценила влияние ассистентов на темпы роста производительности
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
❤4🔥2🥰2👍1
⚡️МЧС тестирует нейросеть для расследования пожаров
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
👍19❤3🥰2
🔥 Вышел новый ИИ-учёный от легендарного Эндрю Ына, сооснователя Coursera и преподавателя Стэнфорда.
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
🤔8❤2🤣2
⚡️ VK RecSys Challenge проходит на датасете VK-LSVD — одном из самых масштабных датасетов для рекомендательных систем.
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
❤5🔥2🥰1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Используется модель LFM2-Audio-1.5B от LiquidAI, а все данные остаются приватными.
Полностью локальный пайплайн, который можно адаптировать под свои задачи и интегрировать где угодно.
Готовый разбор и код - по ссылке:
https://github.com/Liquid4All/cookbook/tree/main/examples/audio-transcription-cli
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1
Яндекс — место, где наука и бизнес работают вместе. Мы превращаем исследования и аналитические данные в реальные продукты для миллионов пользователей.
Сейчас мы ищем сильных аналитиков — с опытом на Python от 3 лет. Участвуйте в Weekend Offer, чтобы пройти все собеседования и получить офер всего за 2 дня.
Как всё устроено:
• Подайте заявку до 3 декабря.
• Пройдите технические секции 6 декабря.
• Познакомьтесь с командами и получите офер 7 декабря.
На сайте собрали все подробности — читайте по ссылке и регистрируйтесь: https://yandex.ru/project/events/wo-analytics-1225
Сейчас мы ищем сильных аналитиков — с опытом на Python от 3 лет. Участвуйте в Weekend Offer, чтобы пройти все собеседования и получить офер всего за 2 дня.
Как всё устроено:
• Подайте заявку до 3 декабря.
• Пройдите технические секции 6 декабря.
• Познакомьтесь с командами и получите офер 7 декабря.
На сайте собрали все подробности — читайте по ссылке и регистрируйтесь: https://yandex.ru/project/events/wo-analytics-1225
❤7
🚀 Step-Audio-R1 — первый аудио-LLM, который открыл масштабирование вычислений на этапе инференса для задач звука. Новый рубеж для моделей, работающих с живым аудио.
🛠️ Ключевые возможности:
- глубокое понимание аудиосигнала
- реакция в реальном времени
- масштабируемые цепочки рассуждений для аудио-задач
🔥 Производительность:
- превосходит Gemini 2.5 Pro и сопоставим с Gemini 3 на ключевых бенчмарках по аудио-reasoning
- 96% точности в режиме реального времени - выше, чем GPT Realtime и Gemini 2.5 Flash Native Audio Dialog
- латентность первого токена - всего 0.92 секунды
Step-Audio-R1 использует Modality-Grounded Reasoning Distillation (MGRD) - подход, при котором цепочки рассуждений привязываются не к "домыслам модели", а к реальным акустическим признакам сигнала.
То есть модель рассуждает, опираясь на звук, а не на абстракции из текста.
Это убирает галлюцинации, повышает надёжность и позволяет масштабировать глубину reasoning так же, как это делают текстовые R1-подобные модели, но теперь в аудио.
Новый этап: LLM, которые думают не только над текстом, но и над реальным звучанием мира.
👾Demo: https://stepaudiollm.github.io/step-audio-r1/
📄 Paper: https://arxiv.org/abs/2511.15848
🐙 GitHub: https://github.com/stepfun-ai/Step-Audio-R1
🛠️ Ключевые возможности:
- глубокое понимание аудиосигнала
- реакция в реальном времени
- масштабируемые цепочки рассуждений для аудио-задач
🔥 Производительность:
- превосходит Gemini 2.5 Pro и сопоставим с Gemini 3 на ключевых бенчмарках по аудио-reasoning
- 96% точности в режиме реального времени - выше, чем GPT Realtime и Gemini 2.5 Flash Native Audio Dialog
- латентность первого токена - всего 0.92 секунды
Step-Audio-R1 использует Modality-Grounded Reasoning Distillation (MGRD) - подход, при котором цепочки рассуждений привязываются не к "домыслам модели", а к реальным акустическим признакам сигнала.
То есть модель рассуждает, опираясь на звук, а не на абстракции из текста.
Это убирает галлюцинации, повышает надёжность и позволяет масштабировать глубину reasoning так же, как это делают текстовые R1-подобные модели, но теперь в аудио.
Новый этап: LLM, которые думают не только над текстом, но и над реальным звучанием мира.
👾Demo: https://stepaudiollm.github.io/step-audio-r1/
📄 Paper: https://arxiv.org/abs/2511.15848
🐙 GitHub: https://github.com/stepfun-ai/Step-Audio-R1
❤9🔥5👍4
🇨🇳 Китай представил концепт AI-ускорителя на базе 14 нм логики + 18 нм DRAM, который обещает 120 TFLOPS при 2 TFLOPS на ватт.
По заявлениям, это уровень производительности Nvidia A100, но с упором не на техпроцесс, а на упаковку и работу с памятью.
Идея такая:
- вычислительные кристаллы 14 нм размещаются прямо поверх 18 нм DRAM
- используется гибридное 3D-бондинг-соединение
- тысячи коротких медных линий дают почти «как на кристалле» пропускную способность
- память ближе к вычислениям → меньше простаивания → выше реальная производительность на ватт
Заявленные характеристики — 120 TFLOPS при ~60 Вт, что лучше старых A100 по эффективности, но значительно слабее линейки Blackwell.
Но важно понимать:
- это пока архитектурный концепт, без массового кремния
- нет открытых бенчмарков
- нет подтверждённого серийного производства
- до уровня Nvidia Blackwell и по мощности, и по эффективности ещё далеко
Тем не менее сам подход показатель: акцент переносится с гонки за «нанометрами» к близости памяти, 3D-упаковке и near-memory computing. Это то направление, куда движется весь рынок высокопроизводительного AI-железа.
На данный момент концепт скорее сигнал о намерениях, чем реальный конкурент Nvidia.
tweaktown.com/news/109123/china-says-its-homegrown-14nm-chips-rival-nvidias-4nm-chips/index.html
По заявлениям, это уровень производительности Nvidia A100, но с упором не на техпроцесс, а на упаковку и работу с памятью.
Идея такая:
- вычислительные кристаллы 14 нм размещаются прямо поверх 18 нм DRAM
- используется гибридное 3D-бондинг-соединение
- тысячи коротких медных линий дают почти «как на кристалле» пропускную способность
- память ближе к вычислениям → меньше простаивания → выше реальная производительность на ватт
Заявленные характеристики — 120 TFLOPS при ~60 Вт, что лучше старых A100 по эффективности, но значительно слабее линейки Blackwell.
Но важно понимать:
- это пока архитектурный концепт, без массового кремния
- нет открытых бенчмарков
- нет подтверждённого серийного производства
- до уровня Nvidia Blackwell и по мощности, и по эффективности ещё далеко
Тем не менее сам подход показатель: акцент переносится с гонки за «нанометрами» к близости памяти, 3D-упаковке и near-memory computing. Это то направление, куда движется весь рынок высокопроизводительного AI-железа.
На данный момент концепт скорее сигнал о намерениях, чем реальный конкурент Nvidia.
tweaktown.com/news/109123/china-says-its-homegrown-14nm-chips-rival-nvidias-4nm-chips/index.html
👍16❤5🥰1
«Прожарка» специалистов по машинному обучению от ChatGPT!
Это небольшой отрывок из подкаста «Криптонит говорит» об искусственном интеллекте и машинном обучении — ИИ задаёт неудобные вопросы и прогнозирует, когда он всех заменит.
📺 VK Видео
📺 YouTube
📺 Rutube
💬 Подкаст в телеграме
🎵 Яндекс.Музыка
Смотрите и подписывайтесь на подкаст «Криптонит говорит» — обсуждаем айти, искусственный интеллект, языки программирования и криптографию.
Реклама АО НПК «Криптонит» ИНН 9701115253 Erid: 2VtzqwapzWV
Это небольшой отрывок из подкаста «Криптонит говорит» об искусственном интеллекте и машинном обучении — ИИ задаёт неудобные вопросы и прогнозирует, когда он всех заменит.
📺 VK Видео
📺 YouTube
📺 Rutube
💬 Подкаст в телеграме
🎵 Яндекс.Музыка
Смотрите и подписывайтесь на подкаст «Криптонит говорит» — обсуждаем айти, искусственный интеллект, языки программирования и криптографию.
Реклама АО НПК «Криптонит» ИНН 9701115253 Erid: 2VtzqwapzWV
Telegram
Криптонит. Разработка, наука, шифрование
Канал IT-компании «Криптонит».
Рассказываем про:
•работу с Big Data на основе AI, ML, шифрования
•разработку и языки программирования
•математику и криптографию
На связи @OBogolyubskaya_official
Присоединяйтесь к нам: https://career.kryptonite.ru/
Рассказываем про:
•работу с Big Data на основе AI, ML, шифрования
•разработку и языки программирования
•математику и криптографию
На связи @OBogolyubskaya_official
Присоединяйтесь к нам: https://career.kryptonite.ru/
💊6❤4🍌1