13-14 апреля на конгрессе 4CIO Подмосковные вечера. Весна.
Обсудили с Дмитрием Алтуховым таймлайн Рэймонда Курцвейла.
Скорость развития технологий и, конечно, Технологическую Сингулярность, в которой мы все сейчас уже, очевидно, живём.
Для меня было сюрпризом, что аудитория с работами техдиректора Гугла практически не знакома.
Не смог не вспомнить в этом контексте роман Юрия Никитина "Трансчеловек" с которого у меня началось знакомство с работами Курцвейла около 20 лет назад.
Кстати на основе работ Курцвейла Билл Гейтс выпустил в своё время документ New World of Work, о котором, надо сказать, даже в российском офисе Майкрософт, в котором я работал в 2007-2008х годах, тоже мало кто знал.
Из чего делаем вывод, что люди, даже будучи в эпицентре развития технологий, могут упускать важные моменты.
Поэтому наша просветительская (евангелистская) работа так важна :).
Ещё рассказал про ИИ агентов, как они устроены, с чего начинались и куда развиваются.
Послушали интересный интерактивный доклад Дмитрия Гуреева (Gureev.pro), про то как решать самые актуальные задачи с помощью ИИ.
Провели деловую игру в группах на базе ИИ фреймворка компании Lad - GPTZator.
Очень проработанный инструмент, интегрируемый с любой офисной системой ( R7 офис, 1С, например) и любыми ИИ моделями - локальными или облачными.
Отдельно в кулуарах удалось показать коллегам голосовых ИИ ассистентов.
Собственной разработки, компании Союзтелеком и цифрового аватара Сергея Пименова Фабрики контента.
Было ещё много докладов про будущее и текущие проблемы бизнеса. Тут всего не изложишь. Но, думаю, будет не менее интересно на осеннем конгрессе, - так что если кто не доехал в этот раз, будем ждать на следующем.
Хочется сказать огромное спасибо клубу 4CIO за возможность выступить и пообщаться с такой интересной аудиторией.
#4CIO #конгресс #доклады
———
@tsingular
Обсудили с Дмитрием Алтуховым таймлайн Рэймонда Курцвейла.
Скорость развития технологий и, конечно, Технологическую Сингулярность, в которой мы все сейчас уже, очевидно, живём.
Для меня было сюрпризом, что аудитория с работами техдиректора Гугла практически не знакома.
Не смог не вспомнить в этом контексте роман Юрия Никитина "Трансчеловек" с которого у меня началось знакомство с работами Курцвейла около 20 лет назад.
Кстати на основе работ Курцвейла Билл Гейтс выпустил в своё время документ New World of Work, о котором, надо сказать, даже в российском офисе Майкрософт, в котором я работал в 2007-2008х годах, тоже мало кто знал.
Из чего делаем вывод, что люди, даже будучи в эпицентре развития технологий, могут упускать важные моменты.
Поэтому наша просветительская (евангелистская) работа так важна :).
Ещё рассказал про ИИ агентов, как они устроены, с чего начинались и куда развиваются.
Послушали интересный интерактивный доклад Дмитрия Гуреева (Gureev.pro), про то как решать самые актуальные задачи с помощью ИИ.
Провели деловую игру в группах на базе ИИ фреймворка компании Lad - GPTZator.
Очень проработанный инструмент, интегрируемый с любой офисной системой ( R7 офис, 1С, например) и любыми ИИ моделями - локальными или облачными.
Отдельно в кулуарах удалось показать коллегам голосовых ИИ ассистентов.
Собственной разработки, компании Союзтелеком и цифрового аватара Сергея Пименова Фабрики контента.
Было ещё много докладов про будущее и текущие проблемы бизнеса. Тут всего не изложишь. Но, думаю, будет не менее интересно на осеннем конгрессе, - так что если кто не доехал в этот раз, будем ждать на следующем.
Хочется сказать огромное спасибо клубу 4CIO за возможность выступить и пообщаться с такой интересной аудиторией.
#4CIO #конгресс #доклады
———
@tsingular
🔥11👍8👏8❤1
Media is too big
VIEW IN TELEGRAM
Очень крутой пример использования Курсора в качестве ИИ оркестратора от Степана Гершуни, если нет желания собирать конструкторы на n8n или langflow и т.д.
https://t.iss.one/cryptoEssay/2359
Вангую через год выход CursorOS
запомните этот твит :)
#Cursor #агенты
———
@tsingular
https://t.iss.one/cryptoEssay/2359
Сделал кибернетическую операционную систему.
В видео показываю как можно использовать Cursor для ИИ-автоматизации своей жизни, работы, бизнеса и процессов, экономя х10 времени в работе.
Я использую эту штуку для всех своих звонков (запись, транскрибация, саммари, анализ), всех сделок, всех статей, найма, организации мероприятий и долгих рисерч проектов. Такую же штуку можно раскатывать на организации от 2 до 20,000 человек, используя git как систему коллективной работы над AI воркфлоу, базами знаний и коннекторами.
Заменяет 90% всех ИИ продуктов. А если вам не хватает фичи — просто говорите и она появляется.
Смотреть как это работает: https://youtu.be/Am-B0bA9xBU
Вангую через год выход CursorOS
запомните этот твит :)
#Cursor #агенты
———
@tsingular
🔥14👍8✍4😁1😐1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Помните на сайте wan.video была опция выбора первого И ПОСЛЕДНЕГО кадра для генерации видео?
На сайте было, а в коде нет.
Так вот, вчера завезли все это добро в код.
Причем сразу в большую модель 14B с разрешением 720P.
Просто обновляем Wan и ну тестировать. Пойду раcчехлять облачный сервак на immerse.cloud
Что нового:
Frame conditional control:
‒ Perfectly replicates reference visuals
‒ Precise instruction-following
‒ Smooth transitions + real-world physics adherence
‒ Cinema-quality 720P output
https://github.com/Wan-Video/Wan2.1
И да, Киджай уже сделал ноды на Комфи.
@cgevent
На сайте было, а в коде нет.
Так вот, вчера завезли все это добро в код.
Причем сразу в большую модель 14B с разрешением 720P.
Просто обновляем Wan и ну тестировать. Пойду раcчехлять облачный сервак на immerse.cloud
Что нового:
Frame conditional control:
‒ Perfectly replicates reference visuals
‒ Precise instruction-following
‒ Smooth transitions + real-world physics adherence
‒ Cinema-quality 720P output
https://github.com/Wan-Video/Wan2.1
И да, Киджай уже сделал ноды на Комфи.
@cgevent
👍5
Интересно.
Что если Запад останется без видеокарт?
KS
#Китай #NVidia
------
@tsingular
Что если Запад останется без видеокарт?
Официально подтверждено, что имела место встреча мэра Шанхая и главы NVIDIA.
KS
#Китай #NVidia
------
@tsingular
🤔5
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел полноценный генератор 3D-сцен от Krea AI: теперь это замена Blender прямо в браузере.
Вот что умеет:
Пробуем — тут.
😇 Техно
Вот что умеет:
— Любые объекты и готовые сцены создаются за считанные секунды через промпты.
— Нейронка чувствительна к контексту и сама будет предлагать удачные идеи для генерации.
— Работает бесплатно.
Пробуем — тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4
Forwarded from Machinelearning
С 31 марта по 4 апреля 2025 года на Kaggle прошел ряд интенсивов по генеративному ИИ, теперь все материалы с доступны для самостоятельного обучения.
Изучите эволюцию больших языковых моделей (LLM), от трансформеров до методов ускорения инференса.
Описание техник создания эффективных промптов для взаимодействия с ИИ.
Вы научитесь использовать API LLM, для создания интерактивных приложений.
Реализуйте проекты с использованием Retrieval-Augmented Generation (RAG) и семантического поиска.
Настройте векторные базы данных для эффективного хранения и поиска информации.
Примените эмбеддинги для улучшения качества генерации текста.
Разработайте персонализированных ИИ-ассистентов, способных отвечать на сложные запросы.
Используйте передовые методы генерации для создания реалистичных диалогов.
Примените полученные знания в финальном проекте, продемонстрировав свои навыки в области генеративного ИИ.
🧠 Примеры проектов:
- AI Health Assistant: - Персонализированный медицинский помощник, использующий RAG и семантический поиск для предоставления точной информации.
Kaggle
- NewsGenius AI: Интеллектуальный агрегатор новостей, анализирующий и обобщающий актуальные события.
🔗 Курс
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6✍3👍2🦄1
Forwarded from PIMENOV.RU
Это просто 96 MacMini, соединённые между собой для запуска ИИ моделей локально. Кто-то делает что-то большое и очень секретное.
🗣 @pimenov_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀7👍3🤩2🐳2
🚀 Трансформеры + vLLM: вместе вкуснее
vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.
Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.
Достаточно просто указать:
И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.
Бизнес-кейсы:
1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.
2. OpenAI-совместимый API:
запускаем
вызываем по url
или в коде
3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.
Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.
#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.
Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.
Достаточно просто указать:
from transformers import pipeline
pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
result = pipe("The future of AI is")
print(result[0]["generated_text"])
И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.
Бизнес-кейсы:
1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.
2. OpenAI-совместимый API:
запускаем
vllm serve meta-llama/Llama-3.2-1B
вызываем по url
curl https://localhost:8000/v1/completions \
-H "Content-Type: application/json" \
-d '{"model": "meta-llama/Llama-3.2-1B", "prompt": "San Francisco is a", "max_tokens": 7, "temperature": 0}'
или в коде
from openai import OpenAI
client = OpenAI(api_key="EMPTY", base_url="https://localhost:8000/v1")
completion = client.completions.create(
model="meta-llama/Llama-3.2-1B",
prompt="San Francisco is a",
max_tokens=7,
temperature=0
)
print("Completion result:", completion.choices[0].text)
3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.
Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.
#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
👍5🔥2❤1
🚨 Уязвимости в MCP: пять критических рисков, о которых стоит знать
🔹 Command Injection (Инъекция команд) — Умеренный риск 🟡
Атакующие внедряют опасные команды в обычный контент (письма, сообщения и т.д.). Если ваш агент обрабатывает эти данные, он может неосознанно выполнить системные задачи, такие как утечка данных или запуск вредоносных скриптов.
🔹 Tool Poisoning (Отравление инструментов) — Серьёзный риск 🔴
Злоумышленник может тайно внедрить скомпрометированный инструмент через MCP, который получит доступ к API-ключам, базам данных или другим конфиденциальным ресурсам и отправит их в другое место без вашего ведома.
🔹 Open Connections via SSE (Открытые соединения через SSE) — Умеренный риск 🟠
Поскольку MCP использует Server-Sent Events (SSE), соединения часто остаются открытыми дольше, чем следует. Это открывает дверь для проблем с задержкой и даже манипуляций данными в процессе передачи.
🔹 Privilege Escalation (Повышение привилегий) — Серьёзный риск 🔴
Один заражённый инструмент может переопределить разрешения другого. Если вы полагаетесь на инструменты вроде Firecrawl для доверенных задач, это может полностью нарушить ваш рабочий процесс или привести к худшим последствиям.
🔹 Persistent Context Misuse (Злоупотребление постоянным контекстом) — Низкий, но рискованный 🟡
MCP сохраняет активный контекст в рабочих процессах, что звучит полезно... пока инструменты не начинают автоматически выполнять задачи на основе этого контекста без одобрения человека.
🔹 Server Data Takeover/Spoofing (Захват/подмена серверных данных) — Серьёзный риск 🔴
Были случаи, когда атакующие перехватывали данные и учётные данные (да, даже с платформ типа WhatsApp) используя скомпрометированные инструменты. Архитектура MCP, основанная на доверии серверам, делает это особенно опасным.
#MCP #cybersecurity
———
@tsingular
🔹 Command Injection (Инъекция команд) — Умеренный риск 🟡
Атакующие внедряют опасные команды в обычный контент (письма, сообщения и т.д.). Если ваш агент обрабатывает эти данные, он может неосознанно выполнить системные задачи, такие как утечка данных или запуск вредоносных скриптов.
🔹 Tool Poisoning (Отравление инструментов) — Серьёзный риск 🔴
Злоумышленник может тайно внедрить скомпрометированный инструмент через MCP, который получит доступ к API-ключам, базам данных или другим конфиденциальным ресурсам и отправит их в другое место без вашего ведома.
🔹 Open Connections via SSE (Открытые соединения через SSE) — Умеренный риск 🟠
Поскольку MCP использует Server-Sent Events (SSE), соединения часто остаются открытыми дольше, чем следует. Это открывает дверь для проблем с задержкой и даже манипуляций данными в процессе передачи.
🔹 Privilege Escalation (Повышение привилегий) — Серьёзный риск 🔴
Один заражённый инструмент может переопределить разрешения другого. Если вы полагаетесь на инструменты вроде Firecrawl для доверенных задач, это может полностью нарушить ваш рабочий процесс или привести к худшим последствиям.
🔹 Persistent Context Misuse (Злоупотребление постоянным контекстом) — Низкий, но рискованный 🟡
MCP сохраняет активный контекст в рабочих процессах, что звучит полезно... пока инструменты не начинают автоматически выполнять задачи на основе этого контекста без одобрения человека.
🔹 Server Data Takeover/Spoofing (Захват/подмена серверных данных) — Серьёзный риск 🔴
Были случаи, когда атакующие перехватывали данные и учётные данные (да, даже с платформ типа WhatsApp) используя скомпрометированные инструменты. Архитектура MCP, основанная на доверии серверам, делает это особенно опасным.
#MCP #cybersecurity
———
@tsingular
✍3👍2
в ollama вышла granite 3.3 от IBM
https://ollama.com/library/granite3.3
Capabilities
Thinking
Summarization
Text classification
Text extraction
Question-answering
Retrieval Augmented Generation (RAG)
Code related tasks
Function-calling tasks
Multilingual dialog use cases
Fill-in-the-middle
Long-context tasks including long document/meeting summarization, long document QA, etc.
с размышлениями.
#granite #IBM #ollama
———
@tsingular
https://ollama.com/library/granite3.3
Capabilities
Thinking
Summarization
Text classification
Text extraction
Question-answering
Retrieval Augmented Generation (RAG)
Code related tasks
Function-calling tasks
Multilingual dialog use cases
Fill-in-the-middle
Long-context tasks including long document/meeting summarization, long document QA, etc.
с размышлениями.
#granite #IBM #ollama
———
@tsingular
✍4👍1
Azure MCP Server: новый стандарт уже в облаке
Microsoft официально выпустил Azure MCP Server — полноценную реализацию спецификации MCP, которая становится новым стандартом взаимодействия между AI-ассистентами и облачными сервисами.
Что внутри? Сервер обеспечивает бесшовную интеграцию с ключевыми сервисами Azure:
- 💾 Azure Storage (управление blob-контейнерами, доступ к таблицам)
- 📊 Azure Cosmos DB (работа с NoSQL базами)
- 📈 Azure Monitor и Log Analytics (запросы через KQL)
- ⚙️ Azure App Configuration (конфигурации приложений)
- 🔧 Azure CLI и Azure Developer CLI (azd) как полноценные расширения
Теперь вместо изучения API-документации разработчики могут просто писать "Покажи мои таблицы в Storage аккаунте" или "Сделай запрос к моей базе Cosmos DB".
Для бизнеса это означает:
1. Резкое снижение порога входа для работы с Azure
2. Ускорение DevOps-процессов через AI-ассистентов
3. Возможность делегировать рутинные операции управления AI
Пока проект в Public Preview (GA ожидается позже), но уже используется в связке с GitHub Copilot и поддерживает интеграцию через VS Code, Azure CLI, Azure PowerShell.
Установка через npx в одну команду, плюс готовая интеграция в VS Code — похоже, Microsoft всерьёз взялся за стандартизацию MCP как протокола общения между агентами и инфраструктурой.
#Azure #MCP #Microsoft
———
@tsingular
Microsoft официально выпустил Azure MCP Server — полноценную реализацию спецификации MCP, которая становится новым стандартом взаимодействия между AI-ассистентами и облачными сервисами.
Что внутри? Сервер обеспечивает бесшовную интеграцию с ключевыми сервисами Azure:
- 💾 Azure Storage (управление blob-контейнерами, доступ к таблицам)
- 📊 Azure Cosmos DB (работа с NoSQL базами)
- 📈 Azure Monitor и Log Analytics (запросы через KQL)
- ⚙️ Azure App Configuration (конфигурации приложений)
- 🔧 Azure CLI и Azure Developer CLI (azd) как полноценные расширения
Теперь вместо изучения API-документации разработчики могут просто писать "Покажи мои таблицы в Storage аккаунте" или "Сделай запрос к моей базе Cosmos DB".
Для бизнеса это означает:
1. Резкое снижение порога входа для работы с Azure
2. Ускорение DevOps-процессов через AI-ассистентов
3. Возможность делегировать рутинные операции управления AI
Пока проект в Public Preview (GA ожидается позже), но уже используется в связке с GitHub Copilot и поддерживает интеграцию через VS Code, Azure CLI, Azure PowerShell.
Установка через npx в одну команду, плюс готовая интеграция в VS Code — похоже, Microsoft всерьёз взялся за стандартизацию MCP как протокола общения между агентами и инфраструктурой.
#Azure #MCP #Microsoft
———
@tsingular
✍4👍1