Neural Networks | Нейронные сети
11.7K subscribers
771 photos
175 videos
170 files
9.43K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🌪️ ИИ-модель Google предсказала траекторию самого сильного шторма Атлантики в этом году

> «Внутренние тесты показывают, что прогнозы нашей модели по траектории и интенсивности циклона столь же точны или даже точнее, чем современные физические методы», — сообщили в компании.

📊 По точности прогноза траектории модель Google обошла не только «официальный» прогноз Национального центра по изучению ураганов (NHC), но и несколько физических моделей — как глобальных, так и специализированных под предсказание ураганов.

#ИИ #Google #Погода #Климат
This media is not supported in your browser
VIEW IN TELEGRAM
📈 Vibe coding: чат-приложение на MiniCPM-V 4.5 в anycoder

Чем хороша модель:
- 8B параметров - лёг
кая для локального инференса.
- Средний балл 77.0 на OpenCompass - сводная оценка по 8 популярным бенчмаркам.
- По этим тестам обгоняет ряд проприетарных моделей уровня GPT-4o-latest и Gemini-2.0 Pro, а также сильный опенсорс Qwen2.5-VL 72B в задачах vision-language.
- Фактически самый результативный MLLM до 30B параметров.

Что соберём за сессию:
1) Мини-API для инференса - роут /chat с приемом текста и изображения.
2) Ультралёгкий фронт в anycoder - поле ввода, загрузка картинки, предпросмотр.
3) Набор промпт-темплейтов - описание изображения, OCR-вопросы, разбор скриншотов кода.

Где модель особенно заходит:
- Разбор скринов UI и PDF с таблицами.
- Вопросы по диаграммам и графикам.
- Помощь по коду по фотографиям экрана.

https://huggingface.co/spaces/akhaliq/MiniCPM-V-4_5
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Исследователи AI VK выложили в открытый доступ VK-LSVD — датасет коротких видео для рекомендательных систем.

🤝 VK-LSVD содержит 40 млрд обезличенных взаимодействий 10 млн пользователей с 20 млн коротких видео за январь–июнь 2025. Включены лайки, дизлайки, шеры, длительность просмотров и контекст воспроизведения.

⚡️ Датасет даёт возможность формировать объем выборки под задачи конкретного исследования и доступные ресурсы команд. Это делает VK-LSVD инструментом, с помощью которого можно проверять гипотезы и строить более точные рекомендательные модели на актуальных данных. Доступен на Hugging Face.
Forwarded from Machinelearning
🌟 Google Labs запустила инструмент для структурированной оценки языковых моделей.

Stax - экспериментальный инструмент для разработчиков, который предлагает замену неформальному «вайб-тестингу» больших языковых моделей на структурированный, основанный на данных подход.

Stax оценивает модели на кастомных или готовых автоматизированных оценщиках, фокусируясь на метриках: беглость ответа, безопасность, задержка и процент успешного прохождения ручной проверки.

Есть дашборд для сравнения результатов разных моделей с визуальными индикаторами производительности.

Ключевые возможности: быстрые и повторяемые оценки, настройка метрик под конкретные продукты и сквозной рабочий процесс для экспериментов от прототипа до продакшена.

Инструмент должен помочь разработчикам принимать обоснованные решения при выборе и развертывании моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍🚀 Многоязычная модель перевода Hunyuan-MT

Hunyuan-MT — это мощная модель перевода, поддерживающая 33 языка, включая редкие языки Китая. Она включает в себя как базовую модель Hunyuan-MT-7B, так и ансамблевую модель Hunyuan-MT-Chimera, обеспечивая высокое качество перевода и выдающиеся результаты на международных конкурсах.

🚀Основные моменты:
- Первое место в 30 из 31 категории на WMT25.
- Лидер по производительности среди моделей аналогичного масштаба.
- Первая открытая ансамблевая модель перевода.
- Комплексная структура обучения для достижения SOTA результатов.

📌 GitHub: https://github.com/Tencent-Hunyuan/Hunyuan-MT

#python
Forwarded from AI VK Hub
Media is too big
VIEW IN TELEGRAM
🔹 Показываем, как прошла первая встреча AI VK & Pro

Собрали всю RecSys-тусовку: говорили о будущем рекомендаций, технологиях глубокого понимания контента и не только. Ну и, конечно, было много нетворкинга.

Музыка, диджей-сеты, игры, в том числе не обошли стороной турнир по су-е-фа.

🔹 Полное видео с отчётом можно посмотреть здесь.

#aivk #aivkpro
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ NEWS: Суд поддержал xAI против бывшего инженера

Федеральный судья ввёл временный запрет для Xuechen Li, который недавно ушёл из xAI и устроился в OpenAI.

📌 Что значит решение суда:

Li нельзя работать в OpenAI над генеративным ИИ.

Ему нельзя обсуждать темы генеративного ИИ с сотрудниками OpenAI.

Запрет будет действовать, пока xAI не убедится, что у него не осталось их конфиденциальных данных.

🗓 Следующий этап: слушание 7 октября 2025 года, где решат, продлевать ли запрет на более долгий срок.

👉 История о том, как компании теперь воюют не только моделями, но и за людей и их знания.
🧠 Прогноз сооснователя DeepMind Шейна Легга

Ещё 16 лет назад он предсказал:

В течение 10–20 лет организация SIAI (ныне MIRI, основанная Элиезером Юдковски) поднимет осведомлённость о рисках AGI.

По мере прогресса в ИИ эти предупреждения будут восприниматься всё серьёзнее.

С 2011 года Легг стабильно указывает 2028 год как медианную дату наступления AGI — то есть 50% шанс появления к этому времени.

https://vetta.org/2009/08/funding-safe-agi/
Forwarded from Machinelearning
🚀 Команда Qwen представила Qwen3-Max-Preview (Instruct) — свою крупнейшую модель на сегодняшний день, с более чем 1 триллионом параметров

По бенчмаркам Qwen3-Max-Preview опережает предыдущий флагман Qwen3-235B-A22B-2507.

Внутренние тесты и первые отзывы пользователей говорят о том, что модель стала сильнее в диалогах, агентных задачах, следовании инструкциям и обладает более широкими знаниями.

Qwen обещают очень скоро выпустить ещё что-то интересное.

Qwen3-Max-Preview уже доступна в Qwen Chat и через Alibaba Cloud API.

🟢Qwen Chat: https://chat.qwen.ai
🟢Alibaba Cloud API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-max-preview

@ai_machinelearning_big_data


#AI #Qwen3 #LLM #AlibabaCloud #QwenChat
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍 Битва за ИИ-вычисления: 🇺🇸 США против 🇨🇳 Китая

🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.

🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты

Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.

Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.

🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.

📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.

#AI #Compute #Geopolitics #Nvidia #Huawei
🎨🚀 Nano Banana Hackathon Kit

Официальный стартовый набор для участия в 48-часовом конкурсе от Google DeepMind. Используйте уникальные возможности Gemini API для создания инновационных приложений, которые изменят взаимодействие с визуальным контентом.

🚀Основные моменты:
- Доступ к API Gemini 2.5 для создания изображений.
- Призы на сумму более $400,000.
- Поддержка от партнеров, включая ElevenLabs и fal.ai.
- Ресурсы и примеры кода для быстрого старта.
- Участие в конкурсе с видео-презентацией вашего проекта.

📌 GitHub: https://github.com/google-gemini/nano-banana-hackathon-kit

#python
🤖 Будущее за SLM, а не LLM? NVIDIA делает ставку на маленькие модели

Агенты в реальных сценариях выполняют ограниченный набор рутинных задач.
Для этого большие языковые модели избыточны - как суперкомпьютер для решения задач по школьной математике.

📌 Логика NVIDIA:
- Малые языковые модели (**SLM**) уже отлично справляются с простыми и повторяющимися задачами
- Экономия 10–30x за счёт правильного размера модели
- Для сложных рассуждений всё ещё можно подключить крупные LLM

Итог: будущее агентов - в гибридной схеме, где малые модели берут на себя повседневку, а большие включаются только тогда, когда действительно нужно.

Статья: arxiv.org/abs/2506.02153

@ai_machinelearning_big_data

#nvidia #slm #llm #aiagents
Forwarded from Machinelearning
🖥 Nvidia меняет стратегию и уходит от универсальных GPU.

Теперь каждый чип будет заточен под конкретный этап LLM-инференса.

Инференс делится на два шага:
- Prefill - первая стадия. Требует огромной вычислительной мощности, но почти не использует память.
- Decode - вторая стадия. Наоборот, сильно нагружает память, но вычислений нужно меньше.

Раньше, например, R200 объединял в одном GPU и мощные вычислительные блоки, и много памяти. В итоге это было дорого и неэффективно:
- при Prefill простаивает память,
- при Decode — простаивают вычислительные блоки.

🟢Новый подход Nvidia — разные GPU под разные задачи:

- Rubin CPX - оптимизирован для Prefill
• 20 PFLOPS вычислений
• 128 GB GDDR7
• 2 TB/s пропускная способность

- R200 — GPU под Decode
• 288 GB HBM4
• 20.5 TB/s памяти

📆 Планы компании:
- **2024–2025**-— линейка Blackwell (B200, GB300): рост вычислений и памяти.
- 2026–2027 - Rubin разделится:
• VR200 — для Decode (максимум HBM).
• CPX — для Prefill (много вычислений, дешёвая память).
- 2027 — VR300 Ultra: 66.7 PFLOPS и 1024 GB HBM4E.

Nvidia перестраивает линейку так, чтобы каждый GPU работал максимально эффективно именно под свой этап инференса.

#Nvidia #GPU #AI #Blackwell #Rubin #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🛡️ Secure AI Agents at Runtime with Docker

AI-агенты открывают огромные возможности, но вместе с ними приходят и новые риски — особенно когда агент начинает выполнять код, а не просто его генерировать.
Docker предлагает практики и инструменты, чтобы сделать запуск таких агентов безопасным.

🔍 Основные угрозы
- Случайное удаление или изменение данных
- Уязвимости в Dockerfile или скриптах инфраструктуры
- Утечка секретов и несанкционированные вызовы API
- Неправильные конфигурации, которые могут открыть систему наружу

🔧 Как защититься с Docker
1. Hardened контейнеры — запуск в изоляции, минимум прав (seccomp, drop capabilities)
2. Сканирование образов — Docker Scout проверяет CVE и устаревшие пакеты
3. Runtime политики — блокировка нежелательных операций: запись файлов, сетевые вызовы, доступы
4. Наблюдение и логирование — мониторинг действий агента и анализ инцидентов

⚠️ Пример из практики
Агент сгенерировал конфигурацию Kubernetes, которая по умолчанию открывала внутренний сервис наружу.
CI этого не заметил. Если бы работали runtime-политики и изолированный контейнер, проблему поймали бы сразу.

Вывод: защита должна быть и при сборке, и при выполнении.
С Docker вы можете запускать AI-агентов безопасно, не жертвуя скоростью разработки.

🔗 Подробнее: https://www.docker.com/blog/secure-ai-agents-runtime-security
Forwarded from Machinelearning
⚡️ Александр Мордвинцев, исследователь из Google, создал цифровые системы на основе клеточных автоматов, где каждая клетка взаимодействует только со своими соседями.

Эти нейронные клеточные автоматы (Neural Cellular Automata) способны самособираться в заданные формы и даже восстанавливаться после повреждений.

В *Quanta Magazine* рассказали о том, как учёные научились обучать искусственные "клетки" собираться в заданные формы. Это похоже на игру «Жизнь» (*Game of Life*), но наоборот.

🧩 Что такое Game of Life?
Это простая компьютерная модель: есть сетка из клеток, у каждой клетки всего два состояния — «жива» или «мертва». Жизнь клетки зависит от соседей (например, если вокруг слишком много соседей, клетка умирает).
Обычно мы задаём правила и просто смотрим, что получится.
А теперь учёные сделали наоборот: сначала задаём цель (например, фигуру), а потом подбираем правила так, чтобы клетки сами в неё собрались.

⚙️ Что изменили учёные?
1. Непрерывные состояния - клетка не просто «вкл/выкл», а может быть наполовину активна. Это как лампочка с плавным регулятором яркости.
2. Скрытые переменные - у каждой клетки есть «внутренние параметры», которые влияют на её поведение. Представь, что у клетки есть «настроение» или «память», которое не видно исследователю напрямую.
3. Асинхронное обновление — клетки меняются в случайное время, а не все сразу. Это ближе к реальной жизни, где всё развивается не идеально синхронно.

💡 Зачем это нужно?
- Восстановление после повреждений: если часть фигуры «сломать», клетки могут достроить её заново.
- Децентрализация: нет главного управляющего - каждая клетка действует локально, но вместе они формируют систему.
- Устойчивость к шуму: клетки учатся справляться с хаосом и случайностями, а не просто повторяют выученный рисунок.

🟠Какие есть ограничения?
- Пока это работает для картинок и форм, но не для сложных живых организмов.
- Чтобы система умела «регенерировать», её нужно специально тренировать.
- Перенести эту идею в настоящие биологические клетки или роботов сложно — там много физических ограничений.

🟠 Где это можно применить?
- Медицина - модели самовосстановления тканей.
- Робототехника - рой роботов, которые без команды сверху сами собираются в нужную конструкцию.
- Материалы будущего — «умные» кирпичики или детали, которые сами подстраиваются под окружение.
- Новые вычислительные системы - компьютеры без центрального процессора, где решения рождаются распределённо.

Учёные показали, что нейронные клеточные автоматы можно рассматривать как модель эволюции: геном не задаёт форму напрямую, а запускает процесс её построения, что делает системы гибкими и адаптивными.

Главное отличие от природы в том, что эволюция не имеет цели, а автоматы обучают под задачу.

Эти модели предлагают новый тип вычислений: каждая клетка взаимодействует только с соседями, что делает архитектуру распределённой и потенциально энергоэффективной.

Уже есть впечатляющие результаты — от распознавания цифр и умножения матриц до решения задач вроде IQ-тестов и управления роями роботов, которые начинают вести себя как единый организм.

В итоге работы Мордвинцева соединяют биологию, компьютеры и робототехнику, возвращая к идее, что жизнь и вычисления — две стороны одного процесса.

🟢 Полная статья: https://www.quantamagazine.org/self-assembly-gets-automated-in-reverse-of-game-of-life-20250910/

@ai_machinelearning_big_data

#evolution #machinelearning #neuralnetworks #biology
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🕶 Цукерберг представил новые ИИ-очки Ray-Ban Display AI Glasses .

Очки должны поступить в продажу в конце сентября по цене 799 долларов.

По задумке, это почти что «очки Тони Старка»:
- дисплей с разрешением 600х600 пикселей
- встроенные микрофоны, камеры и динамики
- управление через голос или жесты с помощью ЭМГ-браслета
- экран сбоку: не мешает обзору и остаётся невидимым для окружающих

Идея проста — пользователь задаёт очкам команды, а они выводят информацию на дисплей или озвучивают её.

Выглядит впечатляюще, но во время публичного анонса произошёл конфуз: очки у Марка Цукерберга и его команды прямо на сцене начали лагать и не заработали должным образом.

Для премьеры устройства такого уровня — довольно заметный фейл.
Акции компании сразу же поползли вниз.

🟠 Анонс

@neural
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM