💰 The Information пишет: Мира Мурати привлекла рекордные $2 млрд для своего нового ИИ-стартапа при оценке $10–12 млрд. Это крупнейший посевной раунд в истории США.
Мурати сохранила полный контроль над компанией: её голос в совете директоров весит больше всех остальных вместе взятых, а у основателей акции с 100-кратным правом голоса.
Инвесторы: Andreessen Horowitz, Accel, Nvidia, AMD и Cisco.
Ставка делается на доступ к вычислительным мощностям, выход в корпорации и масштабирование.
В команду стартапа вошёл Джон Шульман (сооснователь OpenAI) и группа экс-исследователей. Фокус команды будет направлен на обучение моделей и совершенствование их архитектуры.
Компания зарегистрирована как public benefit corporation, обещает открытые публикации и первый продукт уже в ближайшие месяцы (дропнутчто-то в open-source).
🎯 Главная идея стартапа: сделать ИИ предсказуемым и детерминированным.
Команда Мурати уверена, что это решаемая проблема. Если убрать случайность, ИИ станет безопасным для медицины, финансов и других критичных областей.
Источник: theinformation.com/articles/10-billion-enigma-mira-murati
Мурати сохранила полный контроль над компанией: её голос в совете директоров весит больше всех остальных вместе взятых, а у основателей акции с 100-кратным правом голоса.
Инвесторы: Andreessen Horowitz, Accel, Nvidia, AMD и Cisco.
Ставка делается на доступ к вычислительным мощностям, выход в корпорации и масштабирование.
В команду стартапа вошёл Джон Шульман (сооснователь OpenAI) и группа экс-исследователей. Фокус команды будет направлен на обучение моделей и совершенствование их архитектуры.
Компания зарегистрирована как public benefit corporation, обещает открытые публикации и первый продукт уже в ближайшие месяцы (дропнутчто-то в open-source).
🎯 Главная идея стартапа: сделать ИИ предсказуемым и детерминированным.
Команда Мурати уверена, что это решаемая проблема. Если убрать случайность, ИИ станет безопасным для медицины, финансов и других критичных областей.
Источник: theinformation.com/articles/10-billion-enigma-mira-murati
❤12👍4🔥3🤣3🤯1
Бизнесу данные нужны как воздух📊
На их основе компании принимают важные стратегические решения. Поэтому спрос на аналитиков растёт в самых разных сферах: от банковской до медицинской.
На курсе «Аналитика данных с МФТИ» готовят специалистов универсальной квалификации. За 10 месяцев вы научитесь использовать Python для анализа данных, применять методы ИИ в своих задачах и работать с базами данных.
С универсальными знаниями вы сможете строить карьеру в одном из трёх направлений аналитики:
➡️ Аналитика данных.
➡️ Data Science.
➡️ Инженерия данных.
🎓 После обучения получите дипломы о профессиональной переподготовке от МФТИ и Нетологии. Центр развития карьеры поможет с трудоустройством, резюме и портфолио.
Записывайтесь на курс и становитесь универсальным специалистом в аналитике → https://netolo.gy/eovL
Реклама. ООО "Нетология". ИНН 7726464125 Erid: 2VSb5wPuu7P
На их основе компании принимают важные стратегические решения. Поэтому спрос на аналитиков растёт в самых разных сферах: от банковской до медицинской.
На курсе «Аналитика данных с МФТИ» готовят специалистов универсальной квалификации. За 10 месяцев вы научитесь использовать Python для анализа данных, применять методы ИИ в своих задачах и работать с базами данных.
С универсальными знаниями вы сможете строить карьеру в одном из трёх направлений аналитики:
Записывайтесь на курс и становитесь универсальным специалистом в аналитике → https://netolo.gy/eovL
Реклама. ООО "Нетология". ИНН 7726464125 Erid: 2VSb5wPuu7P
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥2🥱1
🧠 RamTorch: Эффективное использование памяти для глубокого обучения
RamTorch — это библиотека для PyTorch, оптимизирующая использование памяти при обучении и выводе больших моделей, которые не помещаются в память GPU. Она использует гибридные реализации компонентов нейронных сетей, храня параметры в памяти CPU и передавая их на GPU по мере необходимости.
🚀 Основные моменты:
- Эффективные линейные слои с хранением параметров на CPU
- Асинхронные CUDA потоки для минимизации задержек
- Поддержка оптимизатора ZeRO-1 для распределенного обучения
- Совместимость с существующим кодом PyTorch
📌 GitHub: https://github.com/lodestone-rock/RamTorch
#python
RamTorch — это библиотека для PyTorch, оптимизирующая использование памяти при обучении и выводе больших моделей, которые не помещаются в память GPU. Она использует гибридные реализации компонентов нейронных сетей, храня параметры в памяти CPU и передавая их на GPU по мере необходимости.
🚀 Основные моменты:
- Эффективные линейные слои с хранением параметров на CPU
- Асинхронные CUDA потоки для минимизации задержек
- Поддержка оптимизатора ZeRO-1 для распределенного обучения
- Совместимость с существующим кодом PyTorch
📌 GitHub: https://github.com/lodestone-rock/RamTorch
#python
GitHub
GitHub - lodestone-rock/RamTorch: RAM is all you need
RAM is all you need. Contribute to lodestone-rock/RamTorch development by creating an account on GitHub.
❤6🔥6👍1
⚡ Это прорыв!
Команда UCLA создала оптическую генеративную модель, которая работает на свете, а не на GPU.
В демонстрации шум сначала кодируется в фазовые паттерны с помощью лёгкого энкодера, а затем свободное распространение света (оптический декодер) превращает их в изображения, цифры, одежду, бабочек, лица и даже картины в стиле Ван Гога.
🔥 Главное - во время генерации нет никакой вычислительной нагрузки.
Результаты сопоставимы с цифровыми диффузионными моделями и открывают путь к сверхбыстрому и энергоэффективному ИИ на фотонике.
📄 Paper (Nature): https://nature.com/articles/s41586-025-09446-5#MOESM1
Команда UCLA создала оптическую генеративную модель, которая работает на свете, а не на GPU.
В демонстрации шум сначала кодируется в фазовые паттерны с помощью лёгкого энкодера, а затем свободное распространение света (оптический декодер) превращает их в изображения, цифры, одежду, бабочек, лица и даже картины в стиле Ван Гога.
🔥 Главное - во время генерации нет никакой вычислительной нагрузки.
Результаты сопоставимы с цифровыми диффузионными моделями и открывают путь к сверхбыстрому и энергоэффективному ИИ на фотонике.
📄 Paper (Nature): https://nature.com/articles/s41586-025-09446-5#MOESM1
❤26🔥12👍3👏1
Forwarded from Machinelearning
Физики Гарварда создали первый в мире квантовый компьютер, который работает непрерывно без перезапуска.
Ранее квантовые машины держались миллисекунды, максимум - около 13 секунд.
Новая установка работает более 2 часов и может функционировать бесконечно.
Ключевое новшество - решение проблемы потери атомов: система в реальном времени пополняет кубиты, впрыскивая 300 000 атомов в секунду с помощью оптических инструментов.
Учёные считают, что практические, постоянно работающие квантовые компьютеры могут появиться уже в течение 2 лет - с огромным влиянием на медицину, финансы и научные исследования.
thecrimson
По данным The Information, Anthropic продвигает свою модель Claude как основу для создания enterprise-замен привычных приложений вроде Slack. Компания делает ставку на обучение с подкреплением, чтобы улучшить способности модели к программированию.
Похожую стратегию развивает и xAI Илона Маска, но эксперты сомневаются, что крупные корпорации откажутся от укоренившихся систем вроде SAP или ServiceNow. Более вероятно, что первыми такие AI-first инструменты начнут использовать небольшие стартапы.
Тем временем JPMorgan и другие банки активно заявляют об интеграции решений OpenAI, Anthropic и Google, хотя реальные масштабы затрат пока не соответствуют публичному энтузиазму.
theinformation
Comet, запущенный в июле 2025 года, работает как встроенный ассистент: он умеет анализировать страницы, вытаскивать ключевые детали и сердить по ссылкам, проводя многошаговые исследования.
Perplexity также представила Comet Plus за $5 — партнёрскую подписку, которая открывает доступ к контенту от CNN, The Washington Post, Fortune, Los Angeles Times и Condé Nast (The New Yorker, Wired и др.).
Однако запуск совпал с продолжающимися исками от крупных издателей, включая Dow Jones (The Wall Street Journal) и New York Post, обвиняющих стартап в использовании их материалов для обучения ИИ.
Скачать Comet
TechCrunch пишет, что запуск нового соцприложения Sora 2 вызвал тревогу внутри самой OpenAI. Это TikTok-подобная лента, наполненная видео, созданными ИИ, включая дипфейки самого Сэма Альтмана.
Часть исследователей OpenAI считает, что компания уходит от своей миссии ради хайпового контента. Один из сотрудников прямо заявил: «AI-ленты - пугающие. Я был шокирован, узнав, что мы выпускаем Sora 2…»
Сторонники проекта объясняют, что такие продукты нужны, чтобы финансировать фундаментальные исследования и дать пользователям почувствовать силу технологий. В OpenAI утверждают, что хотят «показать людям что-то классное, чтобы они улыбнулись».
Но вместе с ростом Sora OpenAI рискует повторить судьбу классических соцсетей: зависимость, манипуляции c информацией, проблемы с дипфейками и давлением на метрики вовлечённости.
techcrunch
Китай в 2025 году вложит до 98 млрд долларов, но экспортные ограничения на топовые чипы Nvidia и AMD тормозят прогресс.
Huawei продвигает Ascend 910C, однако по памяти, пропускной способности и софту он уступает решениям Nvidia. США разрешили ограниченные продажи H20 и MI308 в Китай с 15% налогом, но топовые GPU недоступны китацы, и разрыв в производительности всё ещё в пользу американцев.
X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥2🥰1🤣1
Ищете мощный сервер без переплаты?
Выгодное решение для обработки и анализа больших данных — выделенный сервер конфигурации AR45-NVMe от Selectel. Он подойдет для эффективной работы с многопоточностью и Python, R, Spark в рамках одной машины, а также машинного обучения на CPU.
Преимущества сервера:
- 16 высокочастотных ядер,
- Безлимитный интернет-трафик и приватная сеть — 1 Гбит/с,
- DDoS-защита, публичный IPv4, SLA — 99,8%,
- Автоустановка ОС и загрузка своих ISO-образов,
- Техподдержка 24/7 и замена комплектующих за 3 часа.
Закажите сервер конфигурации AR45-NVMe на сайте в несколько кликов: https://slc.tl/2kf85?erid=2W5zFK8n6et
Выгодное решение для обработки и анализа больших данных — выделенный сервер конфигурации AR45-NVMe от Selectel. Он подойдет для эффективной работы с многопоточностью и Python, R, Spark в рамках одной машины, а также машинного обучения на CPU.
Преимущества сервера:
- 16 высокочастотных ядер,
- Безлимитный интернет-трафик и приватная сеть — 1 Гбит/с,
- DDoS-защита, публичный IPv4, SLA — 99,8%,
- Автоустановка ОС и загрузка своих ISO-образов,
- Техподдержка 24/7 и замена комплектующих за 3 часа.
Закажите сервер конфигурации AR45-NVMe на сайте в несколько кликов: https://slc.tl/2kf85?erid=2W5zFK8n6et
🚀 IBM Granite 4.0 теперь доступен в Unsloth
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
❤3👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Модель Ming-UniAudio — это универсальный фреймворк, сочетающий понимание речи, генерацию и редактирование.
- Модель Ming-UniAudio — это универсальный фреймворк, сочетающий *понимание речи*, *генерацию* и *редактирование*.
- В её основе лежит единый непрерывный токенизатор речи, интегрирующий семантические и акустические признаки.
- Поддерживается инструкционное редактирование: можно менять звук, содержание или тональность без указания временных фрагментов.
- В бенчмарках показывает конкурентные результаты и для распознавания, и для генерации речи.
- Лицензия: Apache-2.0.
💻 GitHub: https://github.com/inclusionAI/Ming-UniAudio
🤗 Tokenizer: https://huggingface.co/inclusionAI/MingTok-Audio
🤗 Model:
base: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B
edit: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B-Edit
🤗 Benchmark: https://huggingface.co/datasets/inclusionAI/Ming-Freeform-Audio-Edit-Benchmark
🌍 blog: https://xqacmer.github.io/Ming-Unitok-Audio.github.io/
#AI #Speech #SpeechLLM #LLM #GenerativeAI #Audio #ASR #TTS #SpeechEditing
- Модель Ming-UniAudio — это универсальный фреймворк, сочетающий *понимание речи*, *генерацию* и *редактирование*.
- В её основе лежит единый непрерывный токенизатор речи, интегрирующий семантические и акустические признаки.
- Поддерживается инструкционное редактирование: можно менять звук, содержание или тональность без указания временных фрагментов.
- В бенчмарках показывает конкурентные результаты и для распознавания, и для генерации речи.
- Лицензия: Apache-2.0.
💻 GitHub: https://github.com/inclusionAI/Ming-UniAudio
🤗 Tokenizer: https://huggingface.co/inclusionAI/MingTok-Audio
🤗 Model:
base: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B
edit: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B-Edit
🤗 Benchmark: https://huggingface.co/datasets/inclusionAI/Ming-Freeform-Audio-Edit-Benchmark
🌍 blog: https://xqacmer.github.io/Ming-Unitok-Audio.github.io/
#AI #Speech #SpeechLLM #LLM #GenerativeAI #Audio #ASR #TTS #SpeechEditing
❤2🔥2👍1
💾 Генеральный директор Western Digital заявил, что жёсткие диски остаются центральным элементом хранения данных для ИИ: примерно 80% данных гиперскейлеров хранятся на HDD, 10% — на SSD и ещё 10% — на лентах.
Такое распределение объясняется экономикой и энергопотреблением: диски примерно в 5–6 раз дешевле SSD при больших объёмах и потребляют меньше ватт на терабайт.
В дата-центрах данные распределяют по уровням: «горячие» — на флэше, «тёплые и холодные» — на HDD, архивные — на ленте. Это оптимальный баланс стоимости и производительности.
Однако спрос на хранение для ИИ настолько вырос, что производители не успевают удовлетворять рынок: время ожидания дисков сверхвысокой ёмкости (32 ТБ+) растягивается от нескольких месяцев до года.
pcguide.com/news/hard-drives-far-from-obsolete-says-western-digital-ceo-and-ai-is-one-big-reason-why/
Такое распределение объясняется экономикой и энергопотреблением: диски примерно в 5–6 раз дешевле SSD при больших объёмах и потребляют меньше ватт на терабайт.
В дата-центрах данные распределяют по уровням: «горячие» — на флэше, «тёплые и холодные» — на HDD, архивные — на ленте. Это оптимальный баланс стоимости и производительности.
Однако спрос на хранение для ИИ настолько вырос, что производители не успевают удовлетворять рынок: время ожидания дисков сверхвысокой ёмкости (32 ТБ+) растягивается от нескольких месяцев до года.
pcguide.com/news/hard-drives-far-from-obsolete-says-western-digital-ceo-and-ai-is-one-big-reason-why/
🔥6❤3👍1