Forwarded from Denis Sexy IT 🤖
Первые выводы про o1 Pro
TL;DR: o1 Pro — модель, нацеленная на глубину и точность ответов, особенно полезная для людей, уже разбирающихся в теме и способных оценить качество выдачи. Без чётких вводных модель может быть поверхностной, но при грамотных запросах способна дать действительно ценные инсайты. Но это все еще не AGI.
— o1 Pro ориентирована на специалистов, глубоко погружённых в свою область. Она легко разбирает сложные научные данные, тексты любой сложности и код, но настоящую пользу приносит тем, кто может понять, где модель поверхностна или ошибается, и скорректировать её ход мыслей.
— Я использовал эту модель в бизнесе и пытался применить её для решения маркетинговых задач. По умолчанию она выдавала лишь «первого уровня» посылы, просто перечисляя фичи. Но опытный маркетолог знает, что клиенты покупают не функционал, а историю и идею. Например, Apple не говорит: «Мы добавили камеру получше», а показывает, как люди сохраняют важные моменты. Чтобы o1 Pro смогла сделать то же самое, нужно направлять её, задавая правильные вопросы и требуя глубины, а не просто сводки преимуществ.
— Визуальный анализ у o1 Pro серьёзно продвинулся: она лучше распознаёт детали на изображениях по сравнению с предыдущими моделями, которые я пробовал.
— При создании художественных текстов (я пробовал сделать что-то вроде интерактивной текстовой игры с зомби-апокалипсисом) o1 Pro пишет шикарно. Она хорошо держит логику сюжета, помнит детали и героев, не скатывается в бессвязный поток. Однако без новых вводных идей от пользователя сама модель не двигается дальше и не создаёт неожиданные сюжетные повороты, полагаясь на креативность пользователя.
— В написании кода o1 Pro не лучше других моделей. Ничего сверхъестественного в её программных навыках я не заметил, еще и учитывая как долго она думает.
— Модель обрабатывает запросы довольно долго: иногда около минуты, а порой и до пяти. Это значит, что быстро спросить у неё, например, рецепт прямо в магазине, не получится. Скорее, o1 Pro ассистент для вдумчивого взаимодействия, когда вы можете задать вопрос и заняться своими делами, пока она «думает».
— В плане факт-чекинга o1 Pro показала себя с лучшей стороны. За всё время тестирования мне не удалось поймать её на откровенной фактической ошибке. Если модель сталкивается с сомнительной информацией, она либо отказывается отвечать, либо указывает на неточность, демонстрируя глубину самопроверки, либо говорит мне, что я не прав.
— Этот пост написан моделью o1 Pro по моей надиктовке, без последующего редактирования. На подготовку текста ушло примерно столько же времени, сколько заняло бы самостоятельное наборное редактирование с ноутбука.
Вывод: Пока у меня есть сомнения насчёт того, окупит ли o1 Pro стоимость в 200 долларов в месяц. Нынешняя версия «обычной» O1 решает многие схожие задачи не хуже. Посмотрим, что будет дальше, когда OpenAI покажет все обновления.
TL;DR: o1 Pro — модель, нацеленная на глубину и точность ответов, особенно полезная для людей, уже разбирающихся в теме и способных оценить качество выдачи. Без чётких вводных модель может быть поверхностной, но при грамотных запросах способна дать действительно ценные инсайты. Но это все еще не AGI.
— o1 Pro ориентирована на специалистов, глубоко погружённых в свою область. Она легко разбирает сложные научные данные, тексты любой сложности и код, но настоящую пользу приносит тем, кто может понять, где модель поверхностна или ошибается, и скорректировать её ход мыслей.
— Я использовал эту модель в бизнесе и пытался применить её для решения маркетинговых задач. По умолчанию она выдавала лишь «первого уровня» посылы, просто перечисляя фичи. Но опытный маркетолог знает, что клиенты покупают не функционал, а историю и идею. Например, Apple не говорит: «Мы добавили камеру получше», а показывает, как люди сохраняют важные моменты. Чтобы o1 Pro смогла сделать то же самое, нужно направлять её, задавая правильные вопросы и требуя глубины, а не просто сводки преимуществ.
— Визуальный анализ у o1 Pro серьёзно продвинулся: она лучше распознаёт детали на изображениях по сравнению с предыдущими моделями, которые я пробовал.
— При создании художественных текстов (я пробовал сделать что-то вроде интерактивной текстовой игры с зомби-апокалипсисом) o1 Pro пишет шикарно. Она хорошо держит логику сюжета, помнит детали и героев, не скатывается в бессвязный поток. Однако без новых вводных идей от пользователя сама модель не двигается дальше и не создаёт неожиданные сюжетные повороты, полагаясь на креативность пользователя.
— В написании кода o1 Pro не лучше других моделей. Ничего сверхъестественного в её программных навыках я не заметил, еще и учитывая как долго она думает.
— Модель обрабатывает запросы довольно долго: иногда около минуты, а порой и до пяти. Это значит, что быстро спросить у неё, например, рецепт прямо в магазине, не получится. Скорее, o1 Pro ассистент для вдумчивого взаимодействия, когда вы можете задать вопрос и заняться своими делами, пока она «думает».
— В плане факт-чекинга o1 Pro показала себя с лучшей стороны. За всё время тестирования мне не удалось поймать её на откровенной фактической ошибке. Если модель сталкивается с сомнительной информацией, она либо отказывается отвечать, либо указывает на неточность, демонстрируя глубину самопроверки, либо говорит мне, что я не прав.
— Этот пост написан моделью o1 Pro по моей надиктовке, без последующего редактирования. На подготовку текста ушло примерно столько же времени, сколько заняло бы самостоятельное наборное редактирование с ноутбука.
Вывод: Пока у меня есть сомнения насчёт того, окупит ли o1 Pro стоимость в 200 долларов в месяц. Нынешняя версия «обычной» O1 решает многие схожие задачи не хуже. Посмотрим, что будет дальше, когда OpenAI покажет все обновления.
👍8❤1
в X (twitter) добавили Aurora - рисовалка в Grok с минимальным цензором
X выпустила фотореалистичный генератор изображений Aurora с доступом для всех пользователей через интерфейс Grok.
Уникальная особенность - минимум ограничений на контент, включая возможность генерации защищённых авторским правом персонажей.
Функционал доступен через опцию Grok 2 + Aurora beta в меню выбора моделей.
Точность в анатомии и деталях пока хромает.
Полный доступ только для владельцев Premium-подписки в X.
UPD: Пока в бете. Уже отключили на доработку.
#Aurora #Grok #XAI
———
@tsingular
X выпустила фотореалистичный генератор изображений Aurora с доступом для всех пользователей через интерфейс Grok.
Уникальная особенность - минимум ограничений на контент, включая возможность генерации защищённых авторским правом персонажей.
Функционал доступен через опцию Grok 2 + Aurora beta в меню выбора моделей.
Точность в анатомии и деталях пока хромает.
Полный доступ только для владельцев Premium-подписки в X.
UPD: Пока в бете. Уже отключили на доработку.
#Aurora #Grok #XAI
———
@tsingular
Популярная ИИ-библиотека Ultralytics подверглась атаке
Разработчики популярного фреймворка компьютерного зрения Ultralytics обнаружили вредоносный код в своей библиотеке.
Злоумышленники внедрили троян в PyPI-пакет ultralytics, использующийся для работы с YOLO.
Вредоносная версия 8.0.228 загружалась более 2000 раз до обнаружения.
Троян собирал системную информацию и отправлял её на удалённый сервер.
Команда оперативно удалила скомпрометированную версию и выпустила патч 8.0.229.
Если кто использует, - обновляемся.
#Ultralytics #YOLO #cybersecurity
-------
@tsingular
Разработчики популярного фреймворка компьютерного зрения Ultralytics обнаружили вредоносный код в своей библиотеке.
Злоумышленники внедрили троян в PyPI-пакет ultralytics, использующийся для работы с YOLO.
Вредоносная версия 8.0.228 загружалась более 2000 раз до обнаружения.
Троян собирал системную информацию и отправлял её на удалённый сервер.
Команда оперативно удалила скомпрометированную версию и выпустила патч 8.0.229.
Если кто использует, - обновляемся.
#Ultralytics #YOLO #cybersecurity
-------
@tsingular
Alibaba выпускает ClearerVoice-Studio: Open-Source фреймворк для обработки звука
Alibaba Speech Lab представили набор инструментов с открытым кодом для обработки речи.
Система интегрирует SOTA-модели для шумоподавления, разделения голосов и выделения целевого спикера.
В основе лежат технологии FRCRN и MossFormer.
Фреймворк включает компоненты для обработки, обучения и оценки качества речи с поддержкой до 48кГц.
Проект доступен на GitHub и в Hugging Face и идет в наборе с готовыми предобученными моделями.
Теперь даже домашний подкаст можно записывать в студийном качестве. Шах и мат, звукорежиссеры! 🎙
#Alibaba #ClearerVoice #MossFormer #Китай
-------
@tsingular
Alibaba Speech Lab представили набор инструментов с открытым кодом для обработки речи.
Система интегрирует SOTA-модели для шумоподавления, разделения голосов и выделения целевого спикера.
В основе лежат технологии FRCRN и MossFormer.
Фреймворк включает компоненты для обработки, обучения и оценки качества речи с поддержкой до 48кГц.
Проект доступен на GitHub и в Hugging Face и идет в наборе с готовыми предобученными моделями.
Теперь даже домашний подкаст можно записывать в студийном качестве. Шах и мат, звукорежиссеры! 🎙
#Alibaba #ClearerVoice #MossFormer #Китай
-------
@tsingular
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini в Google Docs - теперь создаёт документы с нуля
Google запустил функцию "Help me create" для автоматической генерации форматированных документов через Gemini.
Виртуальный помощник формирует меню, брифы, бюллетени, КП и блог-посты по текстовому запросу.
Нововведение доступно в веб-версии через File > New > Help me create.
Система поддерживает естественные диалоги и референсы на файлы через @filename.
Сервис развёртывается поэтапно для участников Workspace Alpha и Labs.
Ограничения: работает только с пустыми документами, без картинок и фото людей.
Кому нужен MS Office, когда в Google Docs теперь ИИ создаёт документы!
Мой Офис, когда уже добавит подобное?
Пусть даже с ГигаЧатом, раз своих моделей нет.
#Google #Gemini #Workspace
———
@tsingular
Google запустил функцию "Help me create" для автоматической генерации форматированных документов через Gemini.
Виртуальный помощник формирует меню, брифы, бюллетени, КП и блог-посты по текстовому запросу.
Нововведение доступно в веб-версии через File > New > Help me create.
Система поддерживает естественные диалоги и референсы на файлы через @filename.
Сервис развёртывается поэтапно для участников Workspace Alpha и Labs.
Ограничения: работает только с пустыми документами, без картинок и фото людей.
Кому нужен MS Office, когда в Google Docs теперь ИИ создаёт документы!
Мой Офис, когда уже добавит подобное?
Пусть даже с ГигаЧатом, раз своих моделей нет.
#Google #Gemini #Workspace
———
@tsingular
👍3
🚀 Разбор o1-pro на Reddit: первые дни новой модели от OpenAI
Народ активно тестирует новую модель, и делится первыми результатами:
💎 Что нового:
- Контекстное окно 128K
- Безлимитное использование - никаких "подождите немного"
- Pro режим - улучшенное "мышление" на сложных задачах
- Ценник: $200/месяц (около $250 с налогами)
🔥 Первые впечатления пользователей:
- Data scientists в восторге: "снижает когнитивную нагрузку при решении сложных задач"
- Разработчики: "one-shot написание рекурсивного Reversi на C в 500+ строк и работает!"
- Есть даже случаи, когда джуны с помощью AI делают за месяц то, что команда из 5 человек делала год (хотя тут, конечно, стоит учитывать правило 80/20 😉)
⚡️ В чём реально силён:
- Глубокий анализ сложных больших баз кода
- Мастерски поддерживает и переписывает legacy-код
- Стабильно решает комплексные технические задачи
- Выдаёт более последовательные и надёжные ответы
🤔 Где пока спотыкается:
- Простые тесты всё ещё проблема (те самые пресловутые подсчёты букв и головоломки)
- В некоторых задачах Claude по-прежнему впереди
- Некоторые пишут, что o1-preview был лучше
💰 Кому точно пригодится:
- Data scientists и аналитикам
- Разработчикам сложных систем
- Исследователям
- Техническим специалистам, которые регулярно сталкиваются со сложными задачами
💡 Интересная мысль из обсуждения: "если вам действительно нужна модель такого уровня, странно не суметь заработать с её помощью $200 в месяц"
🎯 Итого:
- Обычному пользователю хватит базового o1 за $20/месяц
- Pro версия - для тех, кто может монетизировать её возможности
- Возможно, стоит подождать: цены могут измениться, функционал улучшиться и конкуренты подтянутся заодно.
#o1pro #OpenAI
———
@tsingular
Народ активно тестирует новую модель, и делится первыми результатами:
💎 Что нового:
- Контекстное окно 128K
- Безлимитное использование - никаких "подождите немного"
- Pro режим - улучшенное "мышление" на сложных задачах
- Ценник: $200/месяц (около $250 с налогами)
🔥 Первые впечатления пользователей:
- Data scientists в восторге: "снижает когнитивную нагрузку при решении сложных задач"
- Разработчики: "one-shot написание рекурсивного Reversi на C в 500+ строк и работает!"
- Есть даже случаи, когда джуны с помощью AI делают за месяц то, что команда из 5 человек делала год (хотя тут, конечно, стоит учитывать правило 80/20 😉)
⚡️ В чём реально силён:
- Глубокий анализ сложных больших баз кода
- Мастерски поддерживает и переписывает legacy-код
- Стабильно решает комплексные технические задачи
- Выдаёт более последовательные и надёжные ответы
🤔 Где пока спотыкается:
- Простые тесты всё ещё проблема (те самые пресловутые подсчёты букв и головоломки)
- В некоторых задачах Claude по-прежнему впереди
- Некоторые пишут, что o1-preview был лучше
💰 Кому точно пригодится:
- Data scientists и аналитикам
- Разработчикам сложных систем
- Исследователям
- Техническим специалистам, которые регулярно сталкиваются со сложными задачами
💡 Интересная мысль из обсуждения: "если вам действительно нужна модель такого уровня, странно не суметь заработать с её помощью $200 в месяц"
🎯 Итого:
- Обычному пользователю хватит базового o1 за $20/месяц
- Pro версия - для тех, кто может монетизировать её возможности
- Возможно, стоит подождать: цены могут измениться, функционал улучшиться и конкуренты подтянутся заодно.
#o1pro #OpenAI
———
@tsingular
👍4🤔2❤1
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍10😍4🤔1
Forwarded from AI Product | Igor Akimov
This media is not supported in your browser
VIEW IN TELEGRAM
Sora v2, мать моя женщина...
Кажется, весь видео процессинг скоро изменится навсегда.
Будет доступна "совсем скоро".
Минутная генерация
Текст, текст+картинка, текст+видео -> видео
Отсюда https://x.com/RuudNL/status/1865425438991945938
Кажется, весь видео процессинг скоро изменится навсегда.
Будет доступна "совсем скоро".
Минутная генерация
Текст, текст+картинка, текст+видео -> видео
Отсюда https://x.com/RuudNL/status/1865425438991945938
1🔥11🤯5👍1
This media is not supported in your browser
VIEW IN TELEGRAM
@ai_gptfreebot снова в обычном режиме.
модель gemma2:27b
генерация 3х картинок - flux-dev, SD 3.5
подключен поиск, как инструмент
все бесплатно для подписчиков.
#freeGPT #боты
———
@tsingular
модель gemma2:27b
генерация 3х картинок - flux-dev, SD 3.5
подключен поиск, как инструмент
все бесплатно для подписчиков.
#freeGPT #боты
———
@tsingular
1🔥10👍1
Media is too big
VIEW IN TELEGRAM
Сдаётся, к концу следующего года мы таки увидим полнометражный фильм, сделанный любителями нейрорендера.
Source
#нейрорендер #Starcraft
------
@tsingular
Source
#нейрорендер #Starcraft
------
@tsingular
1🔥8👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Из махонького чатика выросло такое вот махонькое решение.
Простое, как топор, но может пригодиться, если вы никак не успеваете за чатами.
Будь то чат дома, подъезда, школьный чат или любой другой холиварный, где сложно прочитать все и сразу.
@aisummary_bot
Подведёт для вас итоги и расскажет кто о чем написал.
Просто добавьте его в чат, как админа.
Более того, можно добавить к команде просьбу:
/summary уточни о чем написал ХХХ, что он имел ввиду?
и бот сделает акцент именно на сообщениях от конкретного участника чата или на конкретном вопросе за последние 24 часа.
Других задач у бота нет.
Чисто секретарь, - саммаризатор.
Надеюсь будет полезно.
#dev #боты
———
@tsingular
Простое, как топор, но может пригодиться, если вы никак не успеваете за чатами.
Будь то чат дома, подъезда, школьный чат или любой другой холиварный, где сложно прочитать все и сразу.
@aisummary_bot
Подведёт для вас итоги и расскажет кто о чем написал.
Просто добавьте его в чат, как админа.
Более того, можно добавить к команде просьбу:
/summary уточни о чем написал ХХХ, что он имел ввиду?
и бот сделает акцент именно на сообщениях от конкретного участника чата или на конкретном вопросе за последние 24 часа.
Других задач у бота нет.
Чисто секретарь, - саммаризатор.
Надеюсь будет полезно.
#dev #боты
———
@tsingular
1👍16❤7🔥7
IBM предлагает обучать AI на оптических чипах
IBM представила оптический модуль, позволяющий микросхемам обмениваться данными на скорости света.
Технология обеспечивает 80-кратное увеличение пропускной способности по сравнению с электрическими коннекторами.
Включает 51 оптоволокно на миллиметр и выдерживает температуры от -40°C до 125°C.
Разработка снижает энергопотребление дата-центров в 5 раз и ускоряет обучение крупных языковых моделей с 3 месяцев до 3 недель.
Нейросети будут сиять от счастья! 💡 :)
Всё больше новостей о фотонных чипах.
Скоро станет обыденностью.
Начинаем копить на upgrade.
Реально через 5 лет будем смотреть на все эти 4090, как на устаревшее г. и крутить модели с триллионом параметров на телефонах.
#IBM #photonics #datacenter
-------
@tsingular
IBM представила оптический модуль, позволяющий микросхемам обмениваться данными на скорости света.
Технология обеспечивает 80-кратное увеличение пропускной способности по сравнению с электрическими коннекторами.
Включает 51 оптоволокно на миллиметр и выдерживает температуры от -40°C до 125°C.
Разработка снижает энергопотребление дата-центров в 5 раз и ускоряет обучение крупных языковых моделей с 3 месяцев до 3 недель.
Нейросети будут сиять от счастья! 💡 :)
Всё больше новостей о фотонных чипах.
Скоро станет обыденностью.
Начинаем копить на upgrade.
Реально через 5 лет будем смотреть на все эти 4090, как на устаревшее г. и крутить модели с триллионом параметров на телефонах.
#IBM #photonics #datacenter
-------
@tsingular
👍11🔥6🍓2❤1