Технозаметки Малышева
8.49K subscribers
3.8K photos
1.42K videos
40 files
3.98K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Олимпийские игры провели среди КОШЕК — видос с сальтухами пушистых набрал 57 млн просмотров в соцсетях.

Правда есть небольшой нюанс — это генерация от Hailuo 02.

Такую олимпиаду одобряем.

😇 Техно
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥293👏3😁1
Исследователи показали как оптоволокно может сделать компьютеры сверхбыстрыми

Команды из Университета Тампере и Université Marie et Louis Pasteur продемонстрировали революционный способ обработки информации с помощью света и оптоволокна.

Ключевые параметры системы:
Архитектура: Extreme Learning Machine (ELM), где оптоволокно выступает в роли "скрытого слоя" нейросети, который не требует обучения. Обучается только выходной слой, что радикально упрощает процесс.

Процесс:
- Изображение (например, из датасета MNIST) сжимается методом главных компонент (PCA) до небольшого вектора (например, 40-100 "пикселей").
- Этот вектор кодируется в спектральную фазу фемтосекундного лазерного импульса.
- Импульс проходит через оптоволокно, где за счет нелинейных эффектов (таких как самофазовая модуляция и деление солитонов) его спектр многократно расширяется и усложняется.
- Выходной спектр считывается и используется для классификации.

Скорость: Весь процесс вычисления занимает менее одной пикосекунды (10⁻¹² с) — в тысячи раз быстрее современных электронных аналогов.
Точность: На стандартном бенчмарке MNIST достигнута точность до 93%, что сопоставимо с цифровыми методами.

Инженерные инсайты и фундаментальные пределы
Исследование выявило несколько критически важных для инженерии и физики аспектов:
Нелинейность vs. Точность: Максимальная производительность достигается не при пиковой мощности лазера, а при тонком балансе между мощностью, дисперсией и длиной волокна. Простое "увеличение мощности" контрпродуктивно.
Эффективная размерность: Система способна генерировать до 100 линейно-независимых вычислительных каналов ("виртуальных нейронов"). Важно, что лучшие результаты достигаются, когда размерность входных данных (после сжатия) меньше эффективной размерности оптической системы. Это позволяет эффективно "расширять" пространство признаков, что является ключом к работе ELM.
Локализация вычислений: Основные вычислительные преобразования происходят в узком спектральном диапазоне (±40 нм) вокруг центральной длины волны лазера, а не во всем сгенерированном суперконтинууме.
Влияние дисперсии: Симуляции показали, что волокно с нормальной дисперсией обеспечивает более высокую точность (93%) и лучшую устойчивость к шумам, чем волокно с аномальной дисперсией (91%).
Квантовый предел: Численное моделирование выявило фундаментальное ограничение: квантовый шум входных лазерных импульсов сам по себе накладывает неустранимый предел на максимальную достижимую точность системы.

Технология может стать основой для новых архитектур сверхбыстрых и энергоэффективных ИИ-систем.

#OpticalComputing #UltrafastAI #Photonic
------
@tsingular
🔥12🤔4🤯41
Клуб GPU-миллионеров

Гонка за создание генеративного ИИ перешла в новую фазу — инфраструктурную, и ее фундаментом стала энергетика.
Существует как минимум 8 мега-проектов, нацеленных на преодоление порога в 1 миллион GPU.
Ключевой фактор их реализации — доступ к гигаваттам стабильной мощности, которую может обеспечить только атомная энергетика.

Расчетная база: 1 ИИ-ускоритель (H100/B200) ≈ 1 кВт. PUE (эффективность энергопотребления) ≈ 1.2. Резервирование по стандарту Tier IV требует удвоения мощности.

1. Объединенные Арабские Эмираты: Ядерный оазис
ОАЭ анонсировали самый масштабный проект, потенциально обеспеченный атомной энергией.

Игрок: G42
Мощность: ~2.5 млн GPU
Энергопотребление (оценка): ~3.0 ГВт
Источник энергии: АЭС "Барака" (мощность 5.6 ГВт). Уже работающая станция полностью покрывает потребности проекта, однако вопрос хватит ли запаса с учетом текущего потребления открыт.

2. Meta* (США): В поисках атома
Meta активно ищет площадки с доступом к атомной энергии для своих ЦОД.

Мощность: ~1.3+ млн GPU
Энергопотребление (оценка): ~1.6 ГВт
Источник энергии: Активное строительство ЦОД в Техасе (рядом АЭС Comanche Peak и South Texas Project) и партнерства с операторами АЭС в других штатах.

3. Китай: Синергия атома и ИИ
Китай уверенно наращивает вычислительные и ядерные мощности.

Мощность: >1 млн GPU (национальный пул)
Энергопотребление (оценка): >1.2 ГВт
Источник энергии: Самая масштабная в мире программа строительства десятков новых АЭС вдоль побережья, где сосредоточены основные технологические кластеры.

4. xAI/Tesla (США): Питание от TVA
Проект "Colossus" стратегически расположен в зоне с мощной атомной генерацией.

Название: "Colossus"
Мощность: 1 млн GPU
Энергопотребление (оценка): ~1.2 ГВт
Источник энергии: Энергосистема оператора TVA (Tennessee Valley Authority), включающая АЭС Sequoyah (2.3 ГВт) и Watts Bar (2.6 ГВт).

5, 6, 7. Гиперскейлеры (Broadcom)
Три отдельных мега-проекта, чье энергообеспечение под вопросом.

Мощность (ИТ): 1 млн "XPU" каждый
Энергопотребление (оценка): ~1.2 ГВт на каждый кластер (3.6 ГВт суммарно)
Источник энергии: Вероятно, размещение вблизи существующих АЭС в США (Техас, Вирджиния) или заказ малых модульных реакторов (SMR), как это уже делает Google.

8. Саудовская Аравия: Двойная ставка на атом
ИИ-амбиции Королевства напрямую связаны с планами по развитию собственной ядерной программы.

Игрок: HUMAIN (PIF)
Мощность (ИТ): "Сотни тысяч" GPU
Энергопотребление (оценка): ~0.6-0.8 ГВт
Источник энергии: Планы по строительству нескольких крупных АЭС, в том числе в рамках проекта NEOM.

Итого 8 проектов с 1+ млн GPU каждый. а с учетом амбиций СА - это 10 млн GPU всего в мире.

А еще есть TPU Гугла и LPU типа Groq.

А сколько у нас? Информации о проектах 1+ млн GPU не найдено.

И на конференции ПМЭФ в онлайне вопросов про это не услышал. А жаль.

*Мета - запрещённая в РФ организация

#1mlnGPU #GPU #миллион
———
@tsingular
💯11🔥433👍3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 MiniMax продолжают жечь и выпускают генератор речи

🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка

Попробовать можно здесь →https://minimax.io/audio

@ai_machinelearning_big_data


#audio #ai #ml #MiniMax
7🔥4👍3
Alibaba Cloud представила новые ИИ-решения для европейского рынка

На саммите в Париже Alibaba Cloud показал обновлённые ИИ-инструменты для европейского бизнеса.

Ключевые анонсы:
• Улучшенная платформа PAI во Франкфурте для масштабного машинного обучения
AI Guardrails — система безопасности для ИИ-контента
• Партнёрство с Accenture для работы над гиперпесонализацией для luxury-брендов
• Логистическое решение с Cainiao даёт 25% рост эффективности и 22% экономию

Расширяются партнёрства с BMW (интеграция Qwen в авто), LVMH и SAP. Также запущена образовательная программа с французской бизнес-школой для подготовки ИИ-специалистов.

Китай закрепляется в Европе

#Alibaba #Cloud #Китай
------
@tsingular
31
Forwarded from AI Insider
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск говорит, что люди — это всего лишь биологический загрузчик для цифрового сверхразума

Даже если бы у всех был IQ 1000, человеческий интеллект все равно был бы в миллиард раз слабее искусственного интеллекта

«процент интеллекта, присущего человеку, будет весьма невелик»

в этом и есть особенность: мы не знаем, что будет дальше
😐9👾8🤔3321💯1🤣1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Google выпустил Magenta RealTime — модель для создания музыки в реальном времени

Google опубликовал открытую модель Magenta RT для интерактивного создания музыки в реальном времени. Это младший брат Lyria RealTime, которая работает в Music FX DJ.

Модель на 800 млн параметров обучена на 190к часах инструментальной музыки. Генерирует 2-секундные аудиоблоки за 1.25 секунды на TPU.

Ключевая фишка — возможность изменять стиль музыки на лету, смешивая разные жанры и инструменты через текстовые промпты. Максимальная задержка управления — 2 секунды.

Запускается бесплатно в Colab, код доступен на GitHub. Скоро добавят локальный запуск и файн-тюнинг.
HuggingFace

Новый вид диджейства - промпт-диджей :)

#Music #Google #Magenta
------
@tsingular
🔥4👍1
Hugging Face обновили курс по LLM

Крупное обновление популярного курса от Hugging Face - теперь фокус на создании как малых, так и больших языковых моделей.

Основные улучшения:
- Новая глава по файн-тюнингу моделей с практическими примерами
- Интеграция библиотек Datasets, Tokenizers, Accelerate и Evaluate
- Обновленные best practices для PyTorch
- Интерактивные квизы для проверки знаний
- Практические задания по классификации текста с BERT

Теперь студенты смогут не только использовать готовые модели, но и адаптировать их под свои задачи с современными подходами.

#HuggingFace #LLMCourse #FineTuning
------
@tsingular
43
MCP сервер для автоматического создания и проверки процессов в n8n

Наткнулся на интересный проект - MCP сервер для интеграции n8n с ИИ-ассистентами вроде Claude.

Теперь ИИ может напрямую работать с документацией 525+ нод n8n, вытаскивать их ключевые параметры, создавать и проверять корректные автоматизации.

Есть готовый докер:
docker pull ghcr.io/czlonkowski/n8n-mcp:latest


Или локальная установка:
# 1. Clone and setup
git clone https://github.com/czlonkowski/n8n-mcp.git
cd n8n-mcp
npm install
npm run build
npm run rebuild

# 2. Test it works
npm start


Функции
🔍 Интеллектуальный поиск узлов по имени, категории или функциональности
📖 Получение только 10–20 важных свойств
🎯 Преднастроенные шаблоны типовых задач
Проверка конфигураций узлов
🔗 Анализ взаимосвязей и условий свойств нод
💡 Рабочие примеры
⚡️ Быстрый ответ: среднее время ответа ~12 мс
🌐 Универсальная совместимость: работает с любой версией Node.js

Основные инструменты
start_here_workflow_guide
— основное руководство и лучшие практики
list_nodes — список всех узлов n8n с параметрами фильтрации
get_node_info — получение полной информации о конкретном node
get_node_essentials — получить только основные свойства с примерами (10–20 свойств вместо 200+)
search_nodes — полнотекстовый поиск по всей документации узлов
search_node_properties — найти определенные свойства в узлах
list_ai_tools — составить список всех узлов с поддержкой ИИ

#MCP #n8n
———
@tsingular
🤔6👍1
IBM официально завершила покупку DataStax

Сделка объявленная в феврале официально закрыта. DataStax теперь часть IBM.

Основная идея остается прежней - "нет ИИ без данных". Но теперь у компании больше ресурсов для масштабирования.

Основные продукты:
- Astra DB и Hyper-Converged Database
- Интеграция с watsonx.data и watsonx.ai
- Langflow - популярный продукт для no-code разработки
- Apache Cassandra как основа

Для клиентов ничего не меняется - тот же сервис, но с большей поддержкой IBM.

Langflow, - это теперь IBM

#DataStax #IBM #Langflow
------
@tsingular
2🔥2🤯2
Зацените насколько круче китайский Hailuoai чем Sora от OpenAI.

Не хватает, конечно, генерации звука, как в Veo3, но уверен к концу лета сделают, а может и раньше.

#Hailuoai #Sora #нейрорендер
———
@tsingular
🔥81
Новая медицинская ИИ-модель превзошла конкурентов Google

Intelligent Internet выпустили II-Medical-8B-1706 — специализированную модель для медицинских задач на основе Qwen3-8B.

Модель показала 46.8% на бенчмарке HealthBench, что сравнимо с 27-миллиардной MedGemma от Google. При этом размер модели всего 8 миллиардов параметров.

Обучалась на 2.3 млн образцов медицинских данных через двухэтапный процесс: сначала supervised fine-tuning, затем reinforcement learning для улучшения рассуждений и безопасности.

Доступны готовые квантованные версии для быстрого запуска через vLLM или SGLang.

#MedicalAI #LLM #HealthTech
------
@tsingular
5👍42
Коллекция руководств по созданию production-ready AI агентов

Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.

Каждый урок содержит готовый к запуску код с документацией.

Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.

#Agents #Production #OpenSource #каталоги
———
@tsingular
93👍3
Adobe запускает LLM Optimizer - конец эпохи SEO?

Adobe представила инструмент LLM Optimizer для оптимизации контента под ИИ-чатботы вроде ChatGPT, Gemini и Claude.

Трафик с генеративного ИИ на ритейл-сайты США вырос на 3500%, на туристические - на 3200% за год. Люди всё чаще ищут информацию через чатботы вместо Google.

Инструмент отслеживает, как бренды появляются в ответах ИИ, находит пробелы в видимости и предлагает улучшения "в один клик". Даже оценивает денежную стоимость потенциального трафика.

Традиционное SEO может уйти в прошлое - ведь чатботы работают не как поисковики. Новый золотой век оптимизации под ИИ уже начался.

#LLMOptimization #AdobeAI #AITraffic
------
@tsingular
641🗿1
ChatGPT научился записывать и резюмировать встречи

OpenAI запустила функцию записи аудио для пользователей ChatGPT Pro, Enterprise и Edu. Теперь можно записывать встречи одним кликом.

Функция работает как Otter.ai - записывает до 2 часов, автоматически создает транскрипцию и резюме. Можно преобразовывать в письма, код или другие форматы.

Доступно пока только в macOS приложении. Аудио удаляется сразу после обработки, но транскрипции могут использоваться для обучения модели (если не отключить в настройках).

#ChatGPT #MeetingTranscription #OpenAI
------
@tsingular
🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
PlayHT представила PlayDiffusion для точного редактирования речи

Компания Play.AI решила главную проблему синтеза речи — невозможность редактировать отдельные слова без артефактов.

Их новая модель PlayDiffusion использует диффузионный подход вместо авторегрессивного. Например заменить "Neo" на "Morpheus" в уже сгенерированной фразе, сохранив естественность речи.

Модель работает через маскирование: выделяет нужный фрагмент, заменяет его на основе нового текста, при этом контекст остается целостным.

Чёрное зеркало,- подмена реальности.

#PlayDiffusion #SpeechSynthesis #AudioEditing
------
@tsingular
🔥82👍1🤔1
Forwarded from Education Scaling Club (Alexander Laryanovskiy)
Самый результативный лайфхак про персонализацию, глубину и точность ответов нейросети.

(Метод подсмотрел в канале Саши Садовского.)

Я начал добавлять в конце промпта фразу:

«Прежде чем дать мне ответ, оцени его неопределённость. Если она больше, чем 0.1 — задавай мне уточняющие вопросы до тех пор, пока неопределённость будет 0.1 или меньше».

И это магически увеличивает качество ответа.

Почему так происходит?

Неопределённость — это вероятность, что какой-то новый факт может сильно изменить существующий ответ.

Откуда она берётся?

Неопределённость происходит из-за моей лени.

Я не готов писать каждый раз гигантские промпты, чтобы максимально точно передавать свой запрос.

Неопределённость происходит из-за иежупы — «и_ежу_понятно». Когда я уверен, что всё очевидно, потому что я сам внутри контекста. Но другие — не я. И нет, им далеко не всё понятно.

«В письмах всё не скажется, всё не так услышится».

Поэтому я перекладываю задачу по конкретизации на нейросеть. И она отлично сама себя погружает в мой контекст.

Вопросов может быть 2, может быть 10. Может быть одним блоком, а иногда у неё появляются новые вопросы после моих ответов.

Таким образом GPT начинает стремиться к однозначности, задаёт вопросы и корректирует себя до того, как отвечает. В результате — гораздо более точные и осмысленные ответы, с учётом контекста.
15🔥13👍52🆒2