Израильский разработчик продал 6-месячный стартап Wix за $80 млн
Маор Шломо создал Base44 — платформу для разработки приложений в стиле вайб-кодинга. За полгода компания выросла до 250,000 пользователей и стала прибыльной.
В мае стартап заработал $189,000 чистой прибыли даже после покрытия высоких затрат на LLM токены. Рос исключительно через сарафанное радио в соцсетях.
Wix купил Base44 за $80 млн наличными. $25 млн из которых пойдут на бонусы 8 сотрудникам.
Шломо объяснил продажу необходимостью масштабирования: "Если мы зашли так далеко органически, интересно увидеть наш темп с новыми ресурсами".
#VibeCoding #Startup #Base44 #SoloFounder
------
@tsingular
Маор Шломо создал Base44 — платформу для разработки приложений в стиле вайб-кодинга. За полгода компания выросла до 250,000 пользователей и стала прибыльной.
В мае стартап заработал $189,000 чистой прибыли даже после покрытия высоких затрат на LLM токены. Рос исключительно через сарафанное радио в соцсетях.
Wix купил Base44 за $80 млн наличными. $25 млн из которых пойдут на бонусы 8 сотрудникам.
Шломо объяснил продажу необходимостью масштабирования: "Если мы зашли так далеко органически, интересно увидеть наш темп с новыми ресурсами".
#VibeCoding #Startup #Base44 #SoloFounder
------
@tsingular
🔥8⚡5🐳1🤝1
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Олимпийские игры провели среди КОШЕК — видос с сальтухами пушистых набрал 57 млн просмотров в соцсетях.
Правда есть небольшой нюанс — этогенерация от Hailuo 02.
Такую олимпиаду одобряем.
😇 Техно
Правда есть небольшой нюанс — это
Такую олимпиаду одобряем.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤3👏3😁1
Исследователи показали как оптоволокно может сделать компьютеры сверхбыстрыми
Команды из Университета Тампере и Université Marie et Louis Pasteur продемонстрировали революционный способ обработки информации с помощью света и оптоволокна.
Ключевые параметры системы:
Архитектура: Extreme Learning Machine (ELM), где оптоволокно выступает в роли "скрытого слоя" нейросети, который не требует обучения. Обучается только выходной слой, что радикально упрощает процесс.
Процесс:
- Изображение (например, из датасета MNIST) сжимается методом главных компонент (PCA) до небольшого вектора (например, 40-100 "пикселей").
- Этот вектор кодируется в спектральную фазу фемтосекундного лазерного импульса.
- Импульс проходит через оптоволокно, где за счет нелинейных эффектов (таких как самофазовая модуляция и деление солитонов) его спектр многократно расширяется и усложняется.
- Выходной спектр считывается и используется для классификации.
Скорость: Весь процесс вычисления занимает менее одной пикосекунды (10⁻¹² с) — в тысячи раз быстрее современных электронных аналогов.
Точность: На стандартном бенчмарке MNIST достигнута точность до 93%, что сопоставимо с цифровыми методами.
Инженерные инсайты и фундаментальные пределы
Исследование выявило несколько критически важных для инженерии и физики аспектов:
Нелинейность vs. Точность: Максимальная производительность достигается не при пиковой мощности лазера, а при тонком балансе между мощностью, дисперсией и длиной волокна. Простое "увеличение мощности" контрпродуктивно.
Эффективная размерность: Система способна генерировать до 100 линейно-независимых вычислительных каналов ("виртуальных нейронов"). Важно, что лучшие результаты достигаются, когда размерность входных данных (после сжатия) меньше эффективной размерности оптической системы. Это позволяет эффективно "расширять" пространство признаков, что является ключом к работе ELM.
Локализация вычислений: Основные вычислительные преобразования происходят в узком спектральном диапазоне (±40 нм) вокруг центральной длины волны лазера, а не во всем сгенерированном суперконтинууме.
Влияние дисперсии: Симуляции показали, что волокно с нормальной дисперсией обеспечивает более высокую точность (93%) и лучшую устойчивость к шумам, чем волокно с аномальной дисперсией (91%).
Квантовый предел: Численное моделирование выявило фундаментальное ограничение: квантовый шум входных лазерных импульсов сам по себе накладывает неустранимый предел на максимальную достижимую точность системы.
Технология может стать основой для новых архитектур сверхбыстрых и энергоэффективных ИИ-систем.
#OpticalComputing #UltrafastAI #Photonic
------
@tsingular
Команды из Университета Тампере и Université Marie et Louis Pasteur продемонстрировали революционный способ обработки информации с помощью света и оптоволокна.
Ключевые параметры системы:
Архитектура: Extreme Learning Machine (ELM), где оптоволокно выступает в роли "скрытого слоя" нейросети, который не требует обучения. Обучается только выходной слой, что радикально упрощает процесс.
Процесс:
- Изображение (например, из датасета MNIST) сжимается методом главных компонент (PCA) до небольшого вектора (например, 40-100 "пикселей").
- Этот вектор кодируется в спектральную фазу фемтосекундного лазерного импульса.
- Импульс проходит через оптоволокно, где за счет нелинейных эффектов (таких как самофазовая модуляция и деление солитонов) его спектр многократно расширяется и усложняется.
- Выходной спектр считывается и используется для классификации.
Скорость: Весь процесс вычисления занимает менее одной пикосекунды (10⁻¹² с) — в тысячи раз быстрее современных электронных аналогов.
Точность: На стандартном бенчмарке MNIST достигнута точность до 93%, что сопоставимо с цифровыми методами.
Инженерные инсайты и фундаментальные пределы
Исследование выявило несколько критически важных для инженерии и физики аспектов:
Нелинейность vs. Точность: Максимальная производительность достигается не при пиковой мощности лазера, а при тонком балансе между мощностью, дисперсией и длиной волокна. Простое "увеличение мощности" контрпродуктивно.
Эффективная размерность: Система способна генерировать до 100 линейно-независимых вычислительных каналов ("виртуальных нейронов"). Важно, что лучшие результаты достигаются, когда размерность входных данных (после сжатия) меньше эффективной размерности оптической системы. Это позволяет эффективно "расширять" пространство признаков, что является ключом к работе ELM.
Локализация вычислений: Основные вычислительные преобразования происходят в узком спектральном диапазоне (±40 нм) вокруг центральной длины волны лазера, а не во всем сгенерированном суперконтинууме.
Влияние дисперсии: Симуляции показали, что волокно с нормальной дисперсией обеспечивает более высокую точность (93%) и лучшую устойчивость к шумам, чем волокно с аномальной дисперсией (91%).
Квантовый предел: Численное моделирование выявило фундаментальное ограничение: квантовый шум входных лазерных импульсов сам по себе накладывает неустранимый предел на максимальную достижимую точность системы.
Технология может стать основой для новых архитектур сверхбыстрых и энергоэффективных ИИ-систем.
#OpticalComputing #UltrafastAI #Photonic
------
@tsingular
🔥12🤔4🤯4❤1
Клуб GPU-миллионеров
Гонка за создание генеративного ИИ перешла в новую фазу — инфраструктурную, и ее фундаментом стала энергетика.
Существует как минимум 8 мега-проектов, нацеленных на преодоление порога в 1 миллион GPU.
Ключевой фактор их реализации — доступ к гигаваттам стабильной мощности, которую может обеспечить только атомная энергетика.
Расчетная база: 1 ИИ-ускоритель (H100/B200) ≈ 1 кВт. PUE (эффективность энергопотребления) ≈ 1.2. Резервирование по стандарту Tier IV требует удвоения мощности.
1. Объединенные Арабские Эмираты: Ядерный оазис
ОАЭ анонсировали самый масштабный проект, потенциально обеспеченный атомной энергией.
Игрок: G42
Мощность: ~2.5 млн GPU
Энергопотребление (оценка): ~3.0 ГВт
Источник энергии: АЭС "Барака" (мощность 5.6 ГВт). Уже работающая станция полностью покрывает потребности проекта, однако вопрос хватит ли запаса с учетом текущего потребления открыт.
2. Meta* (США): В поисках атома
Meta активно ищет площадки с доступом к атомной энергии для своих ЦОД.
Мощность: ~1.3+ млн GPU
Энергопотребление (оценка): ~1.6 ГВт
Источник энергии: Активное строительство ЦОД в Техасе (рядом АЭС Comanche Peak и South Texas Project) и партнерства с операторами АЭС в других штатах.
3. Китай: Синергия атома и ИИ
Китай уверенно наращивает вычислительные и ядерные мощности.
Мощность: >1 млн GPU (национальный пул)
Энергопотребление (оценка): >1.2 ГВт
Источник энергии: Самая масштабная в мире программа строительства десятков новых АЭС вдоль побережья, где сосредоточены основные технологические кластеры.
4. xAI/Tesla (США): Питание от TVA
Проект "Colossus" стратегически расположен в зоне с мощной атомной генерацией.
Название: "Colossus"
Мощность: 1 млн GPU
Энергопотребление (оценка): ~1.2 ГВт
Источник энергии: Энергосистема оператора TVA (Tennessee Valley Authority), включающая АЭС Sequoyah (2.3 ГВт) и Watts Bar (2.6 ГВт).
5, 6, 7. Гиперскейлеры (Broadcom)
Три отдельных мега-проекта, чье энергообеспечение под вопросом.
Мощность (ИТ): 1 млн "XPU" каждый
Энергопотребление (оценка): ~1.2 ГВт на каждый кластер (3.6 ГВт суммарно)
Источник энергии: Вероятно, размещение вблизи существующих АЭС в США (Техас, Вирджиния) или заказ малых модульных реакторов (SMR), как это уже делает Google.
8. Саудовская Аравия: Двойная ставка на атом
ИИ-амбиции Королевства напрямую связаны с планами по развитию собственной ядерной программы.
Игрок: HUMAIN (PIF)
Мощность (ИТ): "Сотни тысяч" GPU
Энергопотребление (оценка): ~0.6-0.8 ГВт
Источник энергии: Планы по строительству нескольких крупных АЭС, в том числе в рамках проекта NEOM.
Итого 8 проектов с 1+ млн GPU каждый. а с учетом амбиций СА - это 10 млн GPU всего в мире.
А еще есть TPU Гугла и LPU типа Groq.
А сколько у нас? Информации о проектах 1+ млн GPU не найдено.
И на конференции ПМЭФ в онлайне вопросов про это не услышал. А жаль.
*Мета - запрещённая в РФ организация
#1mlnGPU #GPU #миллион
———
@tsingular
Гонка за создание генеративного ИИ перешла в новую фазу — инфраструктурную, и ее фундаментом стала энергетика.
Существует как минимум 8 мега-проектов, нацеленных на преодоление порога в 1 миллион GPU.
Ключевой фактор их реализации — доступ к гигаваттам стабильной мощности, которую может обеспечить только атомная энергетика.
Расчетная база: 1 ИИ-ускоритель (H100/B200) ≈ 1 кВт. PUE (эффективность энергопотребления) ≈ 1.2. Резервирование по стандарту Tier IV требует удвоения мощности.
1. Объединенные Арабские Эмираты: Ядерный оазис
ОАЭ анонсировали самый масштабный проект, потенциально обеспеченный атомной энергией.
Игрок: G42
Мощность: ~2.5 млн GPU
Энергопотребление (оценка): ~3.0 ГВт
Источник энергии: АЭС "Барака" (мощность 5.6 ГВт). Уже работающая станция полностью покрывает потребности проекта, однако вопрос хватит ли запаса с учетом текущего потребления открыт.
2. Meta* (США): В поисках атома
Meta активно ищет площадки с доступом к атомной энергии для своих ЦОД.
Мощность: ~1.3+ млн GPU
Энергопотребление (оценка): ~1.6 ГВт
Источник энергии: Активное строительство ЦОД в Техасе (рядом АЭС Comanche Peak и South Texas Project) и партнерства с операторами АЭС в других штатах.
3. Китай: Синергия атома и ИИ
Китай уверенно наращивает вычислительные и ядерные мощности.
Мощность: >1 млн GPU (национальный пул)
Энергопотребление (оценка): >1.2 ГВт
Источник энергии: Самая масштабная в мире программа строительства десятков новых АЭС вдоль побережья, где сосредоточены основные технологические кластеры.
4. xAI/Tesla (США): Питание от TVA
Проект "Colossus" стратегически расположен в зоне с мощной атомной генерацией.
Название: "Colossus"
Мощность: 1 млн GPU
Энергопотребление (оценка): ~1.2 ГВт
Источник энергии: Энергосистема оператора TVA (Tennessee Valley Authority), включающая АЭС Sequoyah (2.3 ГВт) и Watts Bar (2.6 ГВт).
5, 6, 7. Гиперскейлеры (Broadcom)
Три отдельных мега-проекта, чье энергообеспечение под вопросом.
Мощность (ИТ): 1 млн "XPU" каждый
Энергопотребление (оценка): ~1.2 ГВт на каждый кластер (3.6 ГВт суммарно)
Источник энергии: Вероятно, размещение вблизи существующих АЭС в США (Техас, Вирджиния) или заказ малых модульных реакторов (SMR), как это уже делает Google.
8. Саудовская Аравия: Двойная ставка на атом
ИИ-амбиции Королевства напрямую связаны с планами по развитию собственной ядерной программы.
Игрок: HUMAIN (PIF)
Мощность (ИТ): "Сотни тысяч" GPU
Энергопотребление (оценка): ~0.6-0.8 ГВт
Источник энергии: Планы по строительству нескольких крупных АЭС, в том числе в рамках проекта NEOM.
Итого 8 проектов с 1+ млн GPU каждый. а с учетом амбиций СА - это 10 млн GPU всего в мире.
А еще есть TPU Гугла и LPU типа Groq.
А сколько у нас? Информации о проектах 1+ млн GPU не найдено.
И на конференции ПМЭФ в онлайне вопросов про это не услышал. А жаль.
*Мета - запрещённая в РФ организация
#1mlnGPU #GPU #миллион
———
@tsingular
💯11🔥4⚡3❤3👍3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 MiniMax продолжают жечь и выпускают генератор речи
🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка
Попробовать можно здесь →https://minimax.io/audio
@ai_machinelearning_big_data
#audio #ai #ml #MiniMax
🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка
Попробовать можно здесь →https://minimax.io/audio
@ai_machinelearning_big_data
#audio #ai #ml #MiniMax
✍7🔥4👍3
Alibaba Cloud представила новые ИИ-решения для европейского рынка
На саммите в Париже Alibaba Cloud показал обновлённые ИИ-инструменты для европейского бизнеса.
Ключевые анонсы:
• Улучшенная платформа PAI во Франкфурте для масштабного машинного обучения
• AI Guardrails — система безопасности для ИИ-контента
• Партнёрство с Accenture для работы над гиперпесонализацией для luxury-брендов
• Логистическое решение с Cainiao даёт 25% рост эффективности и 22% экономию
Расширяются партнёрства с BMW (интеграция Qwen в авто), LVMH и SAP. Также запущена образовательная программа с французской бизнес-школой для подготовки ИИ-специалистов.
Китай закрепляется в Европе
#Alibaba #Cloud #Китай
------
@tsingular
На саммите в Париже Alibaba Cloud показал обновлённые ИИ-инструменты для европейского бизнеса.
Ключевые анонсы:
• Улучшенная платформа PAI во Франкфурте для масштабного машинного обучения
• AI Guardrails — система безопасности для ИИ-контента
• Партнёрство с Accenture для работы над гиперпесонализацией для luxury-брендов
• Логистическое решение с Cainiao даёт 25% рост эффективности и 22% экономию
Расширяются партнёрства с BMW (интеграция Qwen в авто), LVMH и SAP. Также запущена образовательная программа с французской бизнес-школой для подготовки ИИ-специалистов.
Китай закрепляется в Европе
#Alibaba #Cloud #Китай
------
@tsingular
⚡3❤1
Forwarded from AI Insider
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск говорит, что люди — это всего лишь биологический загрузчик для цифрового сверхразума
Даже если бы у всех был IQ 1000, человеческий интеллект все равно был бы в миллиард раз слабее искусственного интеллекта
«процент интеллекта, присущего человеку, будет весьма невелик»
в этом и есть особенность: мы не знаем, что будет дальше
Даже если бы у всех был IQ 1000, человеческий интеллект все равно был бы в миллиард раз слабее искусственного интеллекта
«процент интеллекта, присущего человеку, будет весьма невелик»
в этом и есть особенность: мы не знаем, что будет дальше
😐9👾8🤔3 3❤2⚡1💯1🤣1🗿1
🤔8👍4🤨3👾2
This media is not supported in your browser
VIEW IN TELEGRAM
Google выпустил Magenta RealTime — модель для создания музыки в реальном времени
Google опубликовал открытую модель Magenta RT для интерактивного создания музыки в реальном времени. Это младший брат Lyria RealTime, которая работает в Music FX DJ.
Модель на 800 млн параметров обучена на 190к часах инструментальной музыки. Генерирует 2-секундные аудиоблоки за 1.25 секунды на TPU.
Ключевая фишка — возможность изменять стиль музыки на лету, смешивая разные жанры и инструменты через текстовые промпты. Максимальная задержка управления — 2 секунды.
Запускается бесплатно в Colab, код доступен на GitHub. Скоро добавят локальный запуск и файн-тюнинг.
HuggingFace
Новый вид диджейства - промпт-диджей :)
#Music #Google #Magenta
------
@tsingular
Google опубликовал открытую модель Magenta RT для интерактивного создания музыки в реальном времени. Это младший брат Lyria RealTime, которая работает в Music FX DJ.
Модель на 800 млн параметров обучена на 190к часах инструментальной музыки. Генерирует 2-секундные аудиоблоки за 1.25 секунды на TPU.
Ключевая фишка — возможность изменять стиль музыки на лету, смешивая разные жанры и инструменты через текстовые промпты. Максимальная задержка управления — 2 секунды.
Запускается бесплатно в Colab, код доступен на GitHub. Скоро добавят локальный запуск и файн-тюнинг.
HuggingFace
Новый вид диджейства - промпт-диджей :)
#Music #Google #Magenta
------
@tsingular
🔥4👍1
Hugging Face обновили курс по LLM
Крупное обновление популярного курса от Hugging Face - теперь фокус на создании как малых, так и больших языковых моделей.
Основные улучшения:
- Новая глава по файн-тюнингу моделей с практическими примерами
- Интеграция библиотек Datasets, Tokenizers, Accelerate и Evaluate
- Обновленные best practices для PyTorch
- Интерактивные квизы для проверки знаний
- Практические задания по классификации текста с BERT
Теперь студенты смогут не только использовать готовые модели, но и адаптировать их под свои задачи с современными подходами.
#HuggingFace #LLMCourse #FineTuning
------
@tsingular
Крупное обновление популярного курса от Hugging Face - теперь фокус на создании как малых, так и больших языковых моделей.
Основные улучшения:
- Новая глава по файн-тюнингу моделей с практическими примерами
- Интеграция библиотек Datasets, Tokenizers, Accelerate и Evaluate
- Обновленные best practices для PyTorch
- Интерактивные квизы для проверки знаний
- Практические задания по классификации текста с BERT
Теперь студенты смогут не только использовать готовые модели, но и адаптировать их под свои задачи с современными подходами.
#HuggingFace #LLMCourse #FineTuning
------
@tsingular
⚡4✍3
MCP сервер для автоматического создания и проверки процессов в n8n
Наткнулся на интересный проект - MCP сервер для интеграции n8n с ИИ-ассистентами вроде Claude.
Теперь ИИ может напрямую работать с документацией 525+ нод n8n, вытаскивать их ключевые параметры, создавать и проверять корректные автоматизации.
Есть готовый докер:
Или локальная установка:
Функции
🔍 Интеллектуальный поиск узлов по имени, категории или функциональности
📖 Получение только 10–20 важных свойств
🎯 Преднастроенные шаблоны типовых задач
✅ Проверка конфигураций узлов
🔗 Анализ взаимосвязей и условий свойств нод
💡 Рабочие примеры
⚡️ Быстрый ответ: среднее время ответа ~12 мс
🌐 Универсальная совместимость: работает с любой версией Node.js
Основные инструменты
start_here_workflow_guide — основное руководство и лучшие практики
list_nodes — список всех узлов n8n с параметрами фильтрации
get_node_info — получение полной информации о конкретном node
get_node_essentials — получить только основные свойства с примерами (10–20 свойств вместо 200+)
search_nodes — полнотекстовый поиск по всей документации узлов
search_node_properties — найти определенные свойства в узлах
list_ai_tools — составить список всех узлов с поддержкой ИИ
#MCP #n8n
———
@tsingular
Наткнулся на интересный проект - MCP сервер для интеграции n8n с ИИ-ассистентами вроде Claude.
Теперь ИИ может напрямую работать с документацией 525+ нод n8n, вытаскивать их ключевые параметры, создавать и проверять корректные автоматизации.
Есть готовый докер:
docker pull ghcr.io/czlonkowski/n8n-mcp:latest
Или локальная установка:
# 1. Clone and setup
git clone https://github.com/czlonkowski/n8n-mcp.git
cd n8n-mcp
npm install
npm run build
npm run rebuild
# 2. Test it works
npm start
Функции
🔍 Интеллектуальный поиск узлов по имени, категории или функциональности
📖 Получение только 10–20 важных свойств
🎯 Преднастроенные шаблоны типовых задач
✅ Проверка конфигураций узлов
🔗 Анализ взаимосвязей и условий свойств нод
💡 Рабочие примеры
⚡️ Быстрый ответ: среднее время ответа ~12 мс
🌐 Универсальная совместимость: работает с любой версией Node.js
Основные инструменты
start_here_workflow_guide — основное руководство и лучшие практики
list_nodes — список всех узлов n8n с параметрами фильтрации
get_node_info — получение полной информации о конкретном node
get_node_essentials — получить только основные свойства с примерами (10–20 свойств вместо 200+)
search_nodes — полнотекстовый поиск по всей документации узлов
search_node_properties — найти определенные свойства в узлах
list_ai_tools — составить список всех узлов с поддержкой ИИ
#MCP #n8n
———
@tsingular
🤔6👍1
IBM официально завершила покупку DataStax
Сделка объявленная в феврале официально закрыта. DataStax теперь часть IBM.
Основная идея остается прежней - "нет ИИ без данных". Но теперь у компании больше ресурсов для масштабирования.
Основные продукты:
- Astra DB и Hyper-Converged Database
- Интеграция с watsonx.data и watsonx.ai
- Langflow - популярный продукт для no-code разработки
- Apache Cassandra как основа
Для клиентов ничего не меняется - тот же сервис, но с большей поддержкой IBM.
Langflow, - это теперь IBM
#DataStax #IBM #Langflow
------
@tsingular
Сделка объявленная в феврале официально закрыта. DataStax теперь часть IBM.
Основная идея остается прежней - "нет ИИ без данных". Но теперь у компании больше ресурсов для масштабирования.
Основные продукты:
- Astra DB и Hyper-Converged Database
- Интеграция с watsonx.data и watsonx.ai
- Langflow - популярный продукт для no-code разработки
- Apache Cassandra как основа
Для клиентов ничего не меняется - тот же сервис, но с большей поддержкой IBM.
Langflow, - это теперь IBM
#DataStax #IBM #Langflow
------
@tsingular
⚡2🔥2🤯2
Зацените насколько круче китайский Hailuoai чем Sora от OpenAI.
Не хватает, конечно, генерации звука, как в Veo3, но уверен к концу лета сделают, а может и раньше.
#Hailuoai #Sora #нейрорендер
———
@tsingular
Не хватает, конечно, генерации звука, как в Veo3, но уверен к концу лета сделают, а может и раньше.
#Hailuoai #Sora #нейрорендер
———
@tsingular
🔥8❤1
Новая медицинская ИИ-модель превзошла конкурентов Google
Intelligent Internet выпустили II-Medical-8B-1706 — специализированную модель для медицинских задач на основе Qwen3-8B.
Модель показала 46.8% на бенчмарке HealthBench, что сравнимо с 27-миллиардной MedGemma от Google. При этом размер модели всего 8 миллиардов параметров.
Обучалась на 2.3 млн образцов медицинских данных через двухэтапный процесс: сначала supervised fine-tuning, затем reinforcement learning для улучшения рассуждений и безопасности.
Доступны готовые квантованные версии для быстрого запуска через vLLM или SGLang.
#MedicalAI #LLM #HealthTech
------
@tsingular
Intelligent Internet выпустили II-Medical-8B-1706 — специализированную модель для медицинских задач на основе Qwen3-8B.
Модель показала 46.8% на бенчмарке HealthBench, что сравнимо с 27-миллиардной MedGemma от Google. При этом размер модели всего 8 миллиардов параметров.
Обучалась на 2.3 млн образцов медицинских данных через двухэтапный процесс: сначала supervised fine-tuning, затем reinforcement learning для улучшения рассуждений и безопасности.
Доступны готовые квантованные версии для быстрого запуска через vLLM или SGLang.
#MedicalAI #LLM #HealthTech
------
@tsingular
✍5👍4⚡2
Коллекция руководств по созданию production-ready AI агентов
Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.
Каждый урок содержит готовый к запуску код с документацией.
Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.
#Agents #Production #OpenSource #каталоги
———
@tsingular
Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.
Каждый урок содержит готовый к запуску код с документацией.
Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.
#Agents #Production #OpenSource #каталоги
———
@tsingular
✍9⚡3👍3
Adobe запускает LLM Optimizer - конец эпохи SEO?
Adobe представила инструмент LLM Optimizer для оптимизации контента под ИИ-чатботы вроде ChatGPT, Gemini и Claude.
Трафик с генеративного ИИ на ритейл-сайты США вырос на 3500%, на туристические - на 3200% за год. Люди всё чаще ищут информацию через чатботы вместо Google.
Инструмент отслеживает, как бренды появляются в ответах ИИ, находит пробелы в видимости и предлагает улучшения "в один клик". Даже оценивает денежную стоимость потенциального трафика.
Традиционное SEO может уйти в прошлое - ведь чатботы работают не как поисковики. Новый золотой век оптимизации под ИИ уже начался.
#LLMOptimization #AdobeAI #AITraffic
------
@tsingular
Adobe представила инструмент LLM Optimizer для оптимизации контента под ИИ-чатботы вроде ChatGPT, Gemini и Claude.
Трафик с генеративного ИИ на ритейл-сайты США вырос на 3500%, на туристические - на 3200% за год. Люди всё чаще ищут информацию через чатботы вместо Google.
Инструмент отслеживает, как бренды появляются в ответах ИИ, находит пробелы в видимости и предлагает улучшения "в один клик". Даже оценивает денежную стоимость потенциального трафика.
Традиционное SEO может уйти в прошлое - ведь чатботы работают не как поисковики. Новый золотой век оптимизации под ИИ уже начался.
#LLMOptimization #AdobeAI #AITraffic
------
@tsingular
✍6⚡4❤1🗿1
ChatGPT научился записывать и резюмировать встречи
OpenAI запустила функцию записи аудио для пользователей ChatGPT Pro, Enterprise и Edu. Теперь можно записывать встречи одним кликом.
Функция работает как Otter.ai - записывает до 2 часов, автоматически создает транскрипцию и резюме. Можно преобразовывать в письма, код или другие форматы.
Доступно пока только в macOS приложении. Аудио удаляется сразу после обработки, но транскрипции могут использоваться для обучения модели (если не отключить в настройках).
#ChatGPT #MeetingTranscription #OpenAI
------
@tsingular
OpenAI запустила функцию записи аудио для пользователей ChatGPT Pro, Enterprise и Edu. Теперь можно записывать встречи одним кликом.
Функция работает как Otter.ai - записывает до 2 часов, автоматически создает транскрипцию и резюме. Можно преобразовывать в письма, код или другие форматы.
Доступно пока только в macOS приложении. Аудио удаляется сразу после обработки, но транскрипции могут использоваться для обучения модели (если не отключить в настройках).
#ChatGPT #MeetingTranscription #OpenAI
------
@tsingular
🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
PlayHT представила PlayDiffusion для точного редактирования речи
Компания Play.AI решила главную проблему синтеза речи — невозможность редактировать отдельные слова без артефактов.
Их новая модель PlayDiffusion использует диффузионный подход вместо авторегрессивного. Например заменить "Neo" на "Morpheus" в уже сгенерированной фразе, сохранив естественность речи.
Модель работает через маскирование: выделяет нужный фрагмент, заменяет его на основе нового текста, при этом контекст остается целостным.
Чёрное зеркало,- подмена реальности.
#PlayDiffusion #SpeechSynthesis #AudioEditing
------
@tsingular
Компания Play.AI решила главную проблему синтеза речи — невозможность редактировать отдельные слова без артефактов.
Их новая модель PlayDiffusion использует диффузионный подход вместо авторегрессивного. Например заменить "Neo" на "Morpheus" в уже сгенерированной фразе, сохранив естественность речи.
Модель работает через маскирование: выделяет нужный фрагмент, заменяет его на основе нового текста, при этом контекст остается целостным.
Чёрное зеркало,- подмена реальности.
#PlayDiffusion #SpeechSynthesis #AudioEditing
------
@tsingular
🔥8⚡2👍1🤔1
Forwarded from Education Scaling Club (Alexander Laryanovskiy)
Самый результативный лайфхак про персонализацию, глубину и точность ответов нейросети.
(Метод подсмотрел в канале Саши Садовского.)
Я начал добавлять в конце промпта фразу:
«Прежде чем дать мне ответ, оцени его неопределённость. Если она больше, чем 0.1 — задавай мне уточняющие вопросы до тех пор, пока неопределённость будет 0.1 или меньше».
И это магически увеличивает качество ответа.
Почему так происходит?
Неопределённость — это вероятность, что какой-то новый факт может сильно изменить существующий ответ.
Откуда она берётся?
Неопределённость происходит из-за моей лени.
Я не готов писать каждый раз гигантские промпты, чтобы максимально точно передавать свой запрос.
Неопределённость происходит из-за иежупы — «и_ежу_понятно». Когда я уверен, что всё очевидно, потому что я сам внутри контекста. Но другие — не я. И нет, им далеко не всё понятно.
«В письмах всё не скажется, всё не так услышится».
Поэтому я перекладываю задачу по конкретизации на нейросеть. И она отлично сама себя погружает в мой контекст.
Вопросов может быть 2, может быть 10. Может быть одним блоком, а иногда у неё появляются новые вопросы после моих ответов.
Таким образом GPT начинает стремиться к однозначности, задаёт вопросы и корректирует себя до того, как отвечает. В результате — гораздо более точные и осмысленные ответы, с учётом контекста.
(Метод подсмотрел в канале Саши Садовского.)
Я начал добавлять в конце промпта фразу:
«Прежде чем дать мне ответ, оцени его неопределённость. Если она больше, чем 0.1 — задавай мне уточняющие вопросы до тех пор, пока неопределённость будет 0.1 или меньше».
И это магически увеличивает качество ответа.
Почему так происходит?
Неопределённость — это вероятность, что какой-то новый факт может сильно изменить существующий ответ.
Откуда она берётся?
Неопределённость происходит из-за моей лени.
Я не готов писать каждый раз гигантские промпты, чтобы максимально точно передавать свой запрос.
Неопределённость происходит из-за иежупы — «и_ежу_понятно». Когда я уверен, что всё очевидно, потому что я сам внутри контекста. Но другие — не я. И нет, им далеко не всё понятно.
«В письмах всё не скажется, всё не так услышится».
Поэтому я перекладываю задачу по конкретизации на нейросеть. И она отлично сама себя погружает в мой контекст.
Вопросов может быть 2, может быть 10. Может быть одним блоком, а иногда у неё появляются новые вопросы после моих ответов.
Таким образом GPT начинает стремиться к однозначности, задаёт вопросы и корректирует себя до того, как отвечает. В результате — гораздо более точные и осмысленные ответы, с учётом контекста.
✍15🔥13👍5❤2🆒2