Технозаметки Малышева
8.78K subscribers
3.87K photos
1.45K videos
40 files
4.04K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
🔥 Китайская гонка техногигантов: память HBM и флеш-память Poxiao прорывают барьеры скорости

Два невероятных прорыва происходят прямо сейчас в китайской технологической сфере, и оба касаются памяти — того самого "узкого горлышка", которое сдерживает потенциал современных AI-систем.

HBM: китайская погоня за независимостью от западных чипов
Компания CXMT (ChangXin Memory Technologies) делает неожиданный рывок в разработке высокоскоростной памяти HBM (High-Bandwidth Memory). По последним данным, отставание от мировых лидеров — Samsung, SK Hynix и Micron — сократилось до 3-4 лет вместо предполагаемых ранее 6-8 лет.

Почему это важно?
HBM — это ключевой компонент для GPU и ускорителей AI, который отвечает за сверхбыструю передачу данных между памятью и процессором. Именно HBM обеспечивает "питание" для обучения и запуска крупных языковых моделей.

После декабрьских санкций США 2024 года по ограничению доступа Китая к этой технологии, CXMT активно форсирует разработку:
• Уже освоили HBM2 в массовом производстве
• Работают над HBM3 с планом запуска в 2026 году
• Планируют HBM3E к 2027 году

На фоне этого впечатляет ажиотаж вокруг Nvidia H20 — единственного доступного для Китая мощного GPU с HBM3. Несмотря на то, что он в 6,7 раз слабее флагманского H100, китайские компании успели закупить более 1 миллиона штук до вступления в силу запрета.

Poxiao: флеш-память со скоростью, о которой никто не мечтал

Параллельно исследователи из университета Фудань представили прототип флеш-памяти "Poxiao" ("Рассвет"), который бьет все рекорды скорости перезаписи — 400 пикосекунд! Это в 100 000 раз быстрее существующих решений.

Суть прорыва:
Современная память разделена на две категории:
• Энергозависимая (SRAM/DRAM): быстрая, но дорогая, энергоемкая и теряет данные при отключении питания
• Энергонезависимая (флеш): дешевле, энергоэффективнее, хранит данные без питания, но медленная

Команда Фуданя нашла способ сделать флеш-память со скоростью, сравнимой с оперативной, сохранив все преимущества энергонезависимости.

Почему эти прорывы критичны для бизнеса?
1. Для разработчиков AI-систем:
- Ускорение обучения моделей в разы (а значит, снижение затрат)
- Возможность реализовать более сложную логику инференса
2. Для облачных провайдеров:
- Баланс между вычислительной мощностью и памятью (узкое место нынешних систем)
- Снижение энергопотребления дата-центров
3. Для производителей устройств:
- Устройства с меньшим потреблением энергии
- AI-вычисления на edge-устройствах без необходимости обращения к облаку

При этом:
• CXMT всё еще зависит от западного оборудования для производства (в особенности EUV-литографии)
• Прототип Poxiao пока имеет мизерный объем (килобайты)
• США продолжают ужесточать санкции, внося всё новые компании в Entity List
• Массовое производство и масштабируемость этих технологий пока под вопросом

#Память #Китай #Технологии
———
@tsingular
👍6🔥3
13-14 апреля на конгрессе 4CIO Подмосковные вечера. Весна.

Обсудили с Дмитрием Алтуховым таймлайн Рэймонда Курцвейла.
Скорость развития технологий и, конечно, Технологическую Сингулярность, в которой мы все сейчас уже, очевидно, живём.
Для меня было сюрпризом, что аудитория с работами техдиректора Гугла практически не знакома.
Не смог не вспомнить в этом контексте роман Юрия Никитина "Трансчеловек" с которого у меня началось знакомство с работами Курцвейла около 20 лет назад.

Кстати на основе работ Курцвейла Билл Гейтс выпустил в своё время документ New World of Work, о котором, надо сказать, даже в российском офисе Майкрософт, в котором я работал в 2007-2008х годах, тоже мало кто знал.
Из чего делаем вывод, что люди, даже будучи в эпицентре развития технологий, могут упускать важные моменты.

Поэтому наша просветительская (евангелистская) работа так важна :).

Ещё рассказал про ИИ агентов, как они устроены, с чего начинались и куда развиваются.

Послушали интересный интерактивный доклад Дмитрия Гуреева (Gureev.pro), про то как решать самые актуальные задачи с помощью ИИ.

Провели деловую игру в группах на базе ИИ фреймворка компании Lad - GPTZator.
Очень проработанный инструмент, интегрируемый с любой офисной системой ( R7 офис, 1С, например) и любыми ИИ моделями - локальными или облачными.

Отдельно в кулуарах удалось показать коллегам голосовых ИИ ассистентов.
Собственной разработки, компании Союзтелеком и цифрового аватара Сергея Пименова Фабрики контента.

Было ещё много докладов про будущее и текущие проблемы бизнеса. Тут всего не изложишь. Но, думаю, будет не менее интересно на осеннем конгрессе, - так что если кто не доехал в этот раз, будем ждать на следующем.

Хочется сказать огромное спасибо клубу 4CIO за возможность выступить и пообщаться с такой интересной аудиторией.

#4CIO #конгресс #доклады
———
@tsingular
🔥11👍8👏81
Media is too big
VIEW IN TELEGRAM
Очень крутой пример использования Курсора в качестве ИИ оркестратора от Степана Гершуни, если нет желания собирать конструкторы на n8n или langflow и т.д.

https://t.iss.one/cryptoEssay/2359
Сделал кибернетическую операционную систему.

В видео показываю как можно использовать Cursor для ИИ-автоматизации своей жизни, работы, бизнеса и процессов, экономя х10 времени в работе.

Я использую эту штуку для всех своих звонков (запись, транскрибация, саммари, анализ), всех сделок, всех статей, найма, организации мероприятий и долгих рисерч проектов. Такую же штуку можно раскатывать на организации от 2 до 20,000 человек, используя git как систему коллективной работы над AI воркфлоу, базами знаний и коннекторами.

Заменяет 90% всех ИИ продуктов. А если вам не хватает фичи — просто говорите и она появляется.

Смотреть как это работает: https://youtu.be/Am-B0bA9xBU


Вангую через год выход CursorOS
запомните этот твит :)

#Cursor #агенты
———
@tsingular
🔥14👍84😁1😐1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Помните на сайте wan.video была опция выбора первого И ПОСЛЕДНЕГО кадра для генерации видео?

На сайте было, а в коде нет.

Так вот, вчера завезли все это добро в код.

Причем сразу в большую модель 14B с разрешением 720P.

Просто обновляем Wan и ну тестировать. Пойду раcчехлять облачный сервак на immerse.cloud

Что нового:
Frame conditional control:
‒ Perfectly replicates reference visuals
‒ Precise instruction-following
‒ Smooth transitions + real-world physics adherence
‒ Cinema-quality 720P output

https://github.com/Wan-Video/Wan2.1

И да, Киджай уже сделал ноды на Комфи.

@cgevent
👍5
Интересно.
Что если Запад останется без видеокарт?

Официально подтверждено, что имела место встреча мэра Шанхая и главы NVIDIA.

KS

#Китай #NVidia
------
@tsingular
🤔5
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел полноценный генератор 3D-сцен от Krea AI: теперь это замена Blender прямо в браузере.

Вот что умеет:

— Любые объекты и готовые сцены создаются за считанные секунды через промпты.
— Нейронка чувствительна к контексту и сама будет предлагать удачные идеи для генерации.
— Работает бесплатно.


Пробуем — тут.

😇 Техно
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4
Forwarded from Machinelearning
🔥 Kaggle и Google выпустили мини-курс генеративному ИИ!

С 31 марта по 4 апреля 2025 года на Kaggle прошел ряд интенсивов по генеративному ИИ, теперь все материалы с доступны для самостоятельного обучения.

✔️ Что внутри:
🟡День 1: Основы генеративного ИИ и инженерия промптов

Изучите эволюцию больших языковых моделей (LLM), от трансформеров до методов ускорения инференса.

Описание техник создания эффективных промптов для взаимодействия с ИИ.​

🟡День 2: Интеграция с API и практическое применение

Вы научитесь использовать API LLM, для создания интерактивных приложений.

Реализуйте проекты с использованием Retrieval-Augmented Generation (RAG) и семантического поиска.​

🟡День 3: Работа с векторными базами данных

Настройте векторные базы данных для эффективного хранения и поиска информации.

Примените эмбеддинги для улучшения качества генерации текста.​

🟡День 4: Создание персонализированных ИИ-ассистентов

Разработайте персонализированных ИИ-ассистентов, способных отвечать на сложные запросы.

Используйте передовые методы генерации для создания реалистичных диалогов.​

🟡День 5: Проект

Примените полученные знания в финальном проекте, продемонстрировав свои навыки в области генеративного ИИ.​

🧠 Примеры проектов:
- AI Health Assistant: - Персонализированный медицинский помощник, использующий RAG и семантический поиск для предоставления точной информации. ​
Kaggle
- NewsGenius AI: Интеллектуальный агрегатор новостей, анализирующий и обобщающий актуальные события. ​

🔗 Курс
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
63👍2🦄1
Forwarded from PIMENOV.RU
Это просто 96 MacMini, соединённые между собой для запуска ИИ моделей локально. Кто-то делает что-то большое и очень секретное.

🗣@pimenov_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀7👍3🤩2🐳2
Шпаргалка по n8n
Исходник в комментарии.

#n8n #docs
———
@tsingular
4🤝3
🚀 Трансформеры + vLLM: вместе вкуснее

vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.

Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.

Достаточно просто указать:
from transformers import pipeline

pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
result = pipe("The future of AI is")

print(result[0]["generated_text"])


И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.

Бизнес-кейсы:

1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.

2. OpenAI-совместимый API:

запускаем
vllm serve meta-llama/Llama-3.2-1B


вызываем по url
curl https://localhost:8000/v1/completions \
-H "Content-Type: application/json" \
-d '{"model": "meta-llama/Llama-3.2-1B", "prompt": "San Francisco is a", "max_tokens": 7, "temperature": 0}'


или в коде
from openai import OpenAI

client = OpenAI(api_key="EMPTY", base_url="https://localhost:8000/v1")
completion = client.completions.create(
model="meta-llama/Llama-3.2-1B",
prompt="San Francisco is a",
max_tokens=7,
temperature=0
)
print("Completion result:", completion.choices[0].text)


3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.

Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.

#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
👍5🔥21