🔥 Китайская гонка техногигантов: память HBM и флеш-память Poxiao прорывают барьеры скорости
Два невероятных прорыва происходят прямо сейчас в китайской технологической сфере, и оба касаются памяти — того самого "узкого горлышка", которое сдерживает потенциал современных AI-систем.
HBM: китайская погоня за независимостью от западных чипов
Компания CXMT (ChangXin Memory Technologies) делает неожиданный рывок в разработке высокоскоростной памяти HBM (High-Bandwidth Memory). По последним данным, отставание от мировых лидеров — Samsung, SK Hynix и Micron — сократилось до 3-4 лет вместо предполагаемых ранее 6-8 лет.
Почему это важно?
HBM — это ключевой компонент для GPU и ускорителей AI, который отвечает за сверхбыструю передачу данных между памятью и процессором. Именно HBM обеспечивает "питание" для обучения и запуска крупных языковых моделей.
После декабрьских санкций США 2024 года по ограничению доступа Китая к этой технологии, CXMT активно форсирует разработку:
• Уже освоили HBM2 в массовом производстве
• Работают над HBM3 с планом запуска в 2026 году
• Планируют HBM3E к 2027 году
На фоне этого впечатляет ажиотаж вокруг Nvidia H20 — единственного доступного для Китая мощного GPU с HBM3. Несмотря на то, что он в 6,7 раз слабее флагманского H100, китайские компании успели закупить более 1 миллиона штук до вступления в силу запрета.
Poxiao: флеш-память со скоростью, о которой никто не мечтал
Параллельно исследователи из университета Фудань представили прототип флеш-памяти "Poxiao" ("Рассвет"), который бьет все рекорды скорости перезаписи — 400 пикосекунд! Это в 100 000 раз быстрее существующих решений.
Суть прорыва:
Современная память разделена на две категории:
• Энергозависимая (SRAM/DRAM): быстрая, но дорогая, энергоемкая и теряет данные при отключении питания
• Энергонезависимая (флеш): дешевле, энергоэффективнее, хранит данные без питания, но медленная
Команда Фуданя нашла способ сделать флеш-память со скоростью, сравнимой с оперативной, сохранив все преимущества энергонезависимости.
Почему эти прорывы критичны для бизнеса?
1. Для разработчиков AI-систем:
- Ускорение обучения моделей в разы (а значит, снижение затрат)
- Возможность реализовать более сложную логику инференса
2. Для облачных провайдеров:
- Баланс между вычислительной мощностью и памятью (узкое место нынешних систем)
- Снижение энергопотребления дата-центров
3. Для производителей устройств:
- Устройства с меньшим потреблением энергии
- AI-вычисления на edge-устройствах без необходимости обращения к облаку
При этом:
• CXMT всё еще зависит от западного оборудования для производства (в особенности EUV-литографии)
• Прототип Poxiao пока имеет мизерный объем (килобайты)
• США продолжают ужесточать санкции, внося всё новые компании в Entity List
• Массовое производство и масштабируемость этих технологий пока под вопросом
#Память #Китай #Технологии
———
@tsingular
Два невероятных прорыва происходят прямо сейчас в китайской технологической сфере, и оба касаются памяти — того самого "узкого горлышка", которое сдерживает потенциал современных AI-систем.
HBM: китайская погоня за независимостью от западных чипов
Компания CXMT (ChangXin Memory Technologies) делает неожиданный рывок в разработке высокоскоростной памяти HBM (High-Bandwidth Memory). По последним данным, отставание от мировых лидеров — Samsung, SK Hynix и Micron — сократилось до 3-4 лет вместо предполагаемых ранее 6-8 лет.
Почему это важно?
HBM — это ключевой компонент для GPU и ускорителей AI, который отвечает за сверхбыструю передачу данных между памятью и процессором. Именно HBM обеспечивает "питание" для обучения и запуска крупных языковых моделей.
После декабрьских санкций США 2024 года по ограничению доступа Китая к этой технологии, CXMT активно форсирует разработку:
• Уже освоили HBM2 в массовом производстве
• Работают над HBM3 с планом запуска в 2026 году
• Планируют HBM3E к 2027 году
На фоне этого впечатляет ажиотаж вокруг Nvidia H20 — единственного доступного для Китая мощного GPU с HBM3. Несмотря на то, что он в 6,7 раз слабее флагманского H100, китайские компании успели закупить более 1 миллиона штук до вступления в силу запрета.
Poxiao: флеш-память со скоростью, о которой никто не мечтал
Параллельно исследователи из университета Фудань представили прототип флеш-памяти "Poxiao" ("Рассвет"), который бьет все рекорды скорости перезаписи — 400 пикосекунд! Это в 100 000 раз быстрее существующих решений.
Суть прорыва:
Современная память разделена на две категории:
• Энергозависимая (SRAM/DRAM): быстрая, но дорогая, энергоемкая и теряет данные при отключении питания
• Энергонезависимая (флеш): дешевле, энергоэффективнее, хранит данные без питания, но медленная
Команда Фуданя нашла способ сделать флеш-память со скоростью, сравнимой с оперативной, сохранив все преимущества энергонезависимости.
Почему эти прорывы критичны для бизнеса?
1. Для разработчиков AI-систем:
- Ускорение обучения моделей в разы (а значит, снижение затрат)
- Возможность реализовать более сложную логику инференса
2. Для облачных провайдеров:
- Баланс между вычислительной мощностью и памятью (узкое место нынешних систем)
- Снижение энергопотребления дата-центров
3. Для производителей устройств:
- Устройства с меньшим потреблением энергии
- AI-вычисления на edge-устройствах без необходимости обращения к облаку
При этом:
• CXMT всё еще зависит от западного оборудования для производства (в особенности EUV-литографии)
• Прототип Poxiao пока имеет мизерный объем (килобайты)
• США продолжают ужесточать санкции, внося всё новые компании в Entity List
• Массовое производство и масштабируемость этих технологий пока под вопросом
#Память #Китай #Технологии
———
@tsingular
👍6🔥3
13-14 апреля на конгрессе 4CIO Подмосковные вечера. Весна.
Обсудили с Дмитрием Алтуховым таймлайн Рэймонда Курцвейла.
Скорость развития технологий и, конечно, Технологическую Сингулярность, в которой мы все сейчас уже, очевидно, живём.
Для меня было сюрпризом, что аудитория с работами техдиректора Гугла практически не знакома.
Не смог не вспомнить в этом контексте роман Юрия Никитина "Трансчеловек" с которого у меня началось знакомство с работами Курцвейла около 20 лет назад.
Кстати на основе работ Курцвейла Билл Гейтс выпустил в своё время документ New World of Work, о котором, надо сказать, даже в российском офисе Майкрософт, в котором я работал в 2007-2008х годах, тоже мало кто знал.
Из чего делаем вывод, что люди, даже будучи в эпицентре развития технологий, могут упускать важные моменты.
Поэтому наша просветительская (евангелистская) работа так важна :).
Ещё рассказал про ИИ агентов, как они устроены, с чего начинались и куда развиваются.
Послушали интересный интерактивный доклад Дмитрия Гуреева (Gureev.pro), про то как решать самые актуальные задачи с помощью ИИ.
Провели деловую игру в группах на базе ИИ фреймворка компании Lad - GPTZator.
Очень проработанный инструмент, интегрируемый с любой офисной системой ( R7 офис, 1С, например) и любыми ИИ моделями - локальными или облачными.
Отдельно в кулуарах удалось показать коллегам голосовых ИИ ассистентов.
Собственной разработки, компании Союзтелеком и цифрового аватара Сергея Пименова Фабрики контента.
Было ещё много докладов про будущее и текущие проблемы бизнеса. Тут всего не изложишь. Но, думаю, будет не менее интересно на осеннем конгрессе, - так что если кто не доехал в этот раз, будем ждать на следующем.
Хочется сказать огромное спасибо клубу 4CIO за возможность выступить и пообщаться с такой интересной аудиторией.
#4CIO #конгресс #доклады
———
@tsingular
Обсудили с Дмитрием Алтуховым таймлайн Рэймонда Курцвейла.
Скорость развития технологий и, конечно, Технологическую Сингулярность, в которой мы все сейчас уже, очевидно, живём.
Для меня было сюрпризом, что аудитория с работами техдиректора Гугла практически не знакома.
Не смог не вспомнить в этом контексте роман Юрия Никитина "Трансчеловек" с которого у меня началось знакомство с работами Курцвейла около 20 лет назад.
Кстати на основе работ Курцвейла Билл Гейтс выпустил в своё время документ New World of Work, о котором, надо сказать, даже в российском офисе Майкрософт, в котором я работал в 2007-2008х годах, тоже мало кто знал.
Из чего делаем вывод, что люди, даже будучи в эпицентре развития технологий, могут упускать важные моменты.
Поэтому наша просветительская (евангелистская) работа так важна :).
Ещё рассказал про ИИ агентов, как они устроены, с чего начинались и куда развиваются.
Послушали интересный интерактивный доклад Дмитрия Гуреева (Gureev.pro), про то как решать самые актуальные задачи с помощью ИИ.
Провели деловую игру в группах на базе ИИ фреймворка компании Lad - GPTZator.
Очень проработанный инструмент, интегрируемый с любой офисной системой ( R7 офис, 1С, например) и любыми ИИ моделями - локальными или облачными.
Отдельно в кулуарах удалось показать коллегам голосовых ИИ ассистентов.
Собственной разработки, компании Союзтелеком и цифрового аватара Сергея Пименова Фабрики контента.
Было ещё много докладов про будущее и текущие проблемы бизнеса. Тут всего не изложишь. Но, думаю, будет не менее интересно на осеннем конгрессе, - так что если кто не доехал в этот раз, будем ждать на следующем.
Хочется сказать огромное спасибо клубу 4CIO за возможность выступить и пообщаться с такой интересной аудиторией.
#4CIO #конгресс #доклады
———
@tsingular
🔥11👍8👏8❤1
Media is too big
VIEW IN TELEGRAM
Очень крутой пример использования Курсора в качестве ИИ оркестратора от Степана Гершуни, если нет желания собирать конструкторы на n8n или langflow и т.д.
https://t.iss.one/cryptoEssay/2359
Вангую через год выход CursorOS
запомните этот твит :)
#Cursor #агенты
———
@tsingular
https://t.iss.one/cryptoEssay/2359
Сделал кибернетическую операционную систему.
В видео показываю как можно использовать Cursor для ИИ-автоматизации своей жизни, работы, бизнеса и процессов, экономя х10 времени в работе.
Я использую эту штуку для всех своих звонков (запись, транскрибация, саммари, анализ), всех сделок, всех статей, найма, организации мероприятий и долгих рисерч проектов. Такую же штуку можно раскатывать на организации от 2 до 20,000 человек, используя git как систему коллективной работы над AI воркфлоу, базами знаний и коннекторами.
Заменяет 90% всех ИИ продуктов. А если вам не хватает фичи — просто говорите и она появляется.
Смотреть как это работает: https://youtu.be/Am-B0bA9xBU
Вангую через год выход CursorOS
запомните этот твит :)
#Cursor #агенты
———
@tsingular
🔥14👍8✍4😁1😐1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Помните на сайте wan.video была опция выбора первого И ПОСЛЕДНЕГО кадра для генерации видео?
На сайте было, а в коде нет.
Так вот, вчера завезли все это добро в код.
Причем сразу в большую модель 14B с разрешением 720P.
Просто обновляем Wan и ну тестировать. Пойду раcчехлять облачный сервак на immerse.cloud
Что нового:
Frame conditional control:
‒ Perfectly replicates reference visuals
‒ Precise instruction-following
‒ Smooth transitions + real-world physics adherence
‒ Cinema-quality 720P output
https://github.com/Wan-Video/Wan2.1
И да, Киджай уже сделал ноды на Комфи.
@cgevent
На сайте было, а в коде нет.
Так вот, вчера завезли все это добро в код.
Причем сразу в большую модель 14B с разрешением 720P.
Просто обновляем Wan и ну тестировать. Пойду раcчехлять облачный сервак на immerse.cloud
Что нового:
Frame conditional control:
‒ Perfectly replicates reference visuals
‒ Precise instruction-following
‒ Smooth transitions + real-world physics adherence
‒ Cinema-quality 720P output
https://github.com/Wan-Video/Wan2.1
И да, Киджай уже сделал ноды на Комфи.
@cgevent
👍5
Интересно.
Что если Запад останется без видеокарт?
KS
#Китай #NVidia
------
@tsingular
Что если Запад останется без видеокарт?
Официально подтверждено, что имела место встреча мэра Шанхая и главы NVIDIA.
KS
#Китай #NVidia
------
@tsingular
🤔5
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел полноценный генератор 3D-сцен от Krea AI: теперь это замена Blender прямо в браузере.
Вот что умеет:
Пробуем — тут.
😇 Техно
Вот что умеет:
— Любые объекты и готовые сцены создаются за считанные секунды через промпты.
— Нейронка чувствительна к контексту и сама будет предлагать удачные идеи для генерации.
— Работает бесплатно.
Пробуем — тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4
Forwarded from Machinelearning
С 31 марта по 4 апреля 2025 года на Kaggle прошел ряд интенсивов по генеративному ИИ, теперь все материалы с доступны для самостоятельного обучения.
Изучите эволюцию больших языковых моделей (LLM), от трансформеров до методов ускорения инференса.
Описание техник создания эффективных промптов для взаимодействия с ИИ.
Вы научитесь использовать API LLM, для создания интерактивных приложений.
Реализуйте проекты с использованием Retrieval-Augmented Generation (RAG) и семантического поиска.
Настройте векторные базы данных для эффективного хранения и поиска информации.
Примените эмбеддинги для улучшения качества генерации текста.
Разработайте персонализированных ИИ-ассистентов, способных отвечать на сложные запросы.
Используйте передовые методы генерации для создания реалистичных диалогов.
Примените полученные знания в финальном проекте, продемонстрировав свои навыки в области генеративного ИИ.
🧠 Примеры проектов:
- AI Health Assistant: - Персонализированный медицинский помощник, использующий RAG и семантический поиск для предоставления точной информации.
Kaggle
- NewsGenius AI: Интеллектуальный агрегатор новостей, анализирующий и обобщающий актуальные события.
🔗 Курс
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6✍3👍2🦄1
Forwarded from PIMENOV.RU
Это просто 96 MacMini, соединённые между собой для запуска ИИ моделей локально. Кто-то делает что-то большое и очень секретное.
🗣 @pimenov_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀7👍3🤩2🐳2
🚀 Трансформеры + vLLM: вместе вкуснее
vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.
Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.
Достаточно просто указать:
И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.
Бизнес-кейсы:
1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.
2. OpenAI-совместимый API:
запускаем
вызываем по url
или в коде
3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.
Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.
#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.
Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.
Достаточно просто указать:
from transformers import pipeline
pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
result = pipe("The future of AI is")
print(result[0]["generated_text"])
И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.
Бизнес-кейсы:
1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.
2. OpenAI-совместимый API:
запускаем
vllm serve meta-llama/Llama-3.2-1B
вызываем по url
curl https://localhost:8000/v1/completions \
-H "Content-Type: application/json" \
-d '{"model": "meta-llama/Llama-3.2-1B", "prompt": "San Francisco is a", "max_tokens": 7, "temperature": 0}'
или в коде
from openai import OpenAI
client = OpenAI(api_key="EMPTY", base_url="https://localhost:8000/v1")
completion = client.completions.create(
model="meta-llama/Llama-3.2-1B",
prompt="San Francisco is a",
max_tokens=7,
temperature=0
)
print("Completion result:", completion.choices[0].text)
3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.
Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.
#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
👍5🔥2❤1