Новая модель OpenAI вышла бесплатной и пока без лимитов. Распротрянется как o3-mini-low и high. Первая быстро решает средние задачи, а вторая подольше и качественнее, чем o1. Работают с интернетом, но без фичи с документами и генерации изображений (разве что хорошо делает ASCII-арт, например, слона). Также неплохо делает лендосы и считает буквы
По сравнению с R1 и QWEN 2.5 Max особо нет замечаний. Текущие модели хорошо справляются с задачами, но кратного роста, увы, ждём дальше скорее в формате агентского ризонинга. Не факт, что в полноценной o3 будет, но кабиносного результата не произошло. Да, цены и скорость лучше, но не по качеству кратного развития. От этого я скорее смотрю на новые модели не как на «о, на это надо моментально переходить ради 5,1283232% качества», а на то, что есть как альтернатива
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🫡2
Grok 3 клево 👍
Состоялась презентация новой модели, все добротно. Чтобы не пересказывать пресс-релиз, можно сказать, что появилась модель на подобии GPT-o1 Pro, только за 22$ в месяц по подписке X Premium +
Grok 3 сейчас одна из фронтирных моделей по текстовым бенчмаркам, где результаты колебляться от фактора «как долго будет думаться ответ». Ризонинг есть, при этом он поделен на базовый Think и Big Brain. Первый чуть меньше думает и результаты проще, а второй дольше размышляет и результаты лучше. На демо показали, как можно сделать комбинацию игры Тетриса и 3 в ряд, заработало хорошо. Еще интересно, что в промпте использовали эмоциональный промптинг, хе-хе
Ну и последняя фича — DeepSearch. Этакий DeerResearch, только по базе данных твитера и других источников
Опробовать Grok 3 можно примерно через неделю с новыми фичами на iOS приложении и на сайте
🤖 InNeuralNetwork
Состоялась презентация новой модели, все добротно. Чтобы не пересказывать пресс-релиз, можно сказать, что появилась модель на подобии GPT-o1 Pro, только за 22$ в месяц по подписке X Premium +
Grok 3 сейчас одна из фронтирных моделей по текстовым бенчмаркам, где результаты колебляться от фактора «как долго будет думаться ответ». Ризонинг есть, при этом он поделен на базовый Think и Big Brain. Первый чуть меньше думает и результаты проще, а второй дольше размышляет и результаты лучше. На демо показали, как можно сделать комбинацию игры Тетриса и 3 в ряд, заработало хорошо. Еще интересно, что в промпте использовали эмоциональный промптинг, хе-хе
Ну и последняя фича — DeepSearch. Этакий DeerResearch, только по базе данных твитера и других источников
Опробовать Grok 3 можно примерно через неделю с новыми фичами на iOS приложении и на сайте
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2
Claude 3.7 Sonnet от Anthropic — праздник для мат задач
Супер впечатлён гибридным режимом мышления: модель сама выбирает между быстрым, точным ответом и глубоким, аналитическим разбором запроса. Особенно радует функция extended thinking, когда можно наблюдать, как шаг за шагом строится решение, что даёт дополнительную прозрачность и контроль.
Еще завезли интеграцию с GitHub и возможность редактировать код через Claude Code в реальном времени. Жду, когда выкатят в разных IDE.
Я настоятельно рекомендую воспользоваться им хотя бы в пользовательской версии. Сейчас доступно, кстати, бесплатно
🤖 InNeuralNetwork
Супер впечатлён гибридным режимом мышления: модель сама выбирает между быстрым, точным ответом и глубоким, аналитическим разбором запроса. Особенно радует функция extended thinking, когда можно наблюдать, как шаг за шагом строится решение, что даёт дополнительную прозрачность и контроль.
Еще завезли интеграцию с GitHub и возможность редактировать код через Claude Code в реальном времени. Жду, когда выкатят в разных IDE.
Я настоятельно рекомендую воспользоваться им хотя бы в пользовательской версии. Сейчас доступно, кстати, бесплатно
🤖 InNeuralNetwork
🔥10👍4
Дольше думаем, глубже анализируем 💡
2 клёвые новости за недавнее время — DeepResearch в ChatGPT стал доступен в каждом тире платной подписки. Базово дают 10 запросов в месяц, а если Pro подписка за 200$ в месяц, то 120. Работает прекрасно, чтобы найти ответы на самые заковыристые запросы
Можно ещё оформить подписку на Perplexity на год, кхм, за 300 рублей. Там тоже есть DeepResearch и больше источников, но качество алгоритма познается в сравнении. Тем не менее, рекомендую воспользоваться через покупку промокода на Plati (Серёжа, спасибо за новость!)
🤖 InNeuralNetwork
2 клёвые новости за недавнее время — DeepResearch в ChatGPT стал доступен в каждом тире платной подписки. Базово дают 10 запросов в месяц, а если Pro подписка за 200$ в месяц, то 120. Работает прекрасно, чтобы найти ответы на самые заковыристые запросы
Можно ещё оформить подписку на Perplexity на год, кхм, за 300 рублей. Там тоже есть DeepResearch и больше источников, но качество алгоритма познается в сравнении. Тем не менее, рекомендую воспользоваться через покупку промокода на Plati (Серёжа, спасибо за новость!)
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤6👍1
Forwarded from Силиконовый Мешок
https://teletype.in/@prompt_design/Deep-Research
Почти потратил свой лимит на Deep Research но все же получил нужное качество на выходе.
Самое важное, это заморочиться с хорошим промптом, поэтому сделал для вас подробную инструкцию на базе своих заметок.
Почти потратил свой лимит на Deep Research но все же получил нужное качество на выходе.
Самое важное, это заморочиться с хорошим промптом, поэтому сделал для вас подробную инструкцию на базе своих заметок.
Teletype
Универсальное руководство по составлению промптов для Deep Research
Ниже приведен базовый шаблон, который можно копировать и адаптировать под свои задачи:
26👍25🔥5❤4
Приходите (виртуально) на мое выступление про нейросети в бизнесе (и не только). Даже можно на выбор:
13 марта буду открывать конференцию NEXT AI: Точка роста. Там поделюсь, как оценить применение нейросетей в своей жизни, какие есть особенности публичного использования нейростей, а также поделюсь своим сетапом нейросетей. На конференции от других авторов будут еще выступления касаемо социальных сетей, создания контента и заработка. Если что-то из этих ключевых слов попадает в ваши глаза чаще, чем присутствие в этом тексте, рекомендую к посещению!
17 марта посещу конференцию Skillbox про нейросети. На ней рассказжу о том же, как нейросети влияют на бизнес. Чтобы не повторяться, я еще покажу особенности прототипирования различных решений, так что хоть презентация будет та же, выступление будет отличаться. Еще на конференции будет много клевых выступлений про чат-боты, еком и дизайн. Регистрируйтесь и приходите — будет здорово!
13 марта буду открывать конференцию NEXT AI: Точка роста. Там поделюсь, как оценить применение нейросетей в своей жизни, какие есть особенности публичного использования нейростей, а также поделюсь своим сетапом нейросетей. На конференции от других авторов будут еще выступления касаемо социальных сетей, создания контента и заработка. Если что-то из этих ключевых слов попадает в ваши глаза чаще, чем присутствие в этом тексте, рекомендую к посещению!
17 марта посещу конференцию Skillbox про нейросети. На ней рассказжу о том же, как нейросети влияют на бизнес. Чтобы не повторяться, я еще покажу особенности прототипирования различных решений, так что хоть презентация будет та же, выступление будет отличаться. Еще на конференции будет много клевых выступлений про чат-боты, еком и дизайн. Регистрируйтесь и приходите — будет здорово!
⚡7❤2👍1
Forwarded from Силиконовый Мешок
Сделал для вас перевод из блога OpenAI, что за инструменты они запустили для ИИ-Агентов. Мне кажется, что в конце 2025 мы будем смеяться над неуклюжим и медленным Manus’ом начала года. Все развивается очень быстро, слишком.
https://teletype.in/@prompt_design/new-tools-for-building-agents
https://teletype.in/@prompt_design/new-tools-for-building-agents
Teletype
Новые инструменты для создания ИИ-Агентов от OpenAI
Оригинал тут
1🫡7👍5❤2🔥1🗿1
После выхода 4o Image Generator задумался: почему нет нормального стандарта для проверки цифровых данных? Сейчас любую jpeg можно выдать за настоящую, причём с минимальными усилиями. Несколько моих примеров за 1,5 недели тестов:
📱 Верификация профиля по фото занимает 1-2 запроса вместо мясорубки с Flux и инпейнтом. Галочка за минуту. Модераторы, не серчайте 🥲
📕 Студенческий билет для скидки в спортзал раньше фотошопил вручную (менял даты). Сейчас надо написать текстом содержание, приложить фотку студака и своего лица, а дальше подождать минутку и уже сэкономилось 30т на абонемент
📷 Фото на визу пока не идеально в один запрос проходит, но мелкие черты легко доправить. Распечатал вместо салонной фотосессии, сдал в консульстве — приняли без замечаний
Пускай нужно намного меньше усилий для генерации изображений, мелкие правки ещё остаются. Кто еще может поделиться своими необычными примерами из генератора картинок в ChatGPT?👀
🤖 InNeuralNetwork
Пускай нужно намного меньше усилий для генерации изображений, мелкие правки ещё остаются. Кто еще может поделиться своими необычными примерами из генератора картинок в ChatGPT?
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩18🔥15👍4❤3🫡1
В июне еду на фестиваль «Тех-Френдли Викенд» в Нижнем Новгороде. Выступать не буду, зато планирую увлечённо посещать техно-доклады и разные приколы: от нейросетей-сценаристов до гастроуикенда и воздушных шаров. В общем, всё интересное и красивое.
Фестиваль пройдёт с 5 по 8 июня. Если тоже заинтересовало, следите за анонсом регистрации на фестиваль
Фестиваль пройдёт с 5 по 8 июня. Если тоже заинтересовало, следите за анонсом регистрации на фестиваль
👍5❤1
Бизнесово подумал про омнимодальность
Наблюдаю за картинками с ChatGPT, где генерятся животные как люди, люди как игрушки, а игрушки снова как люди и так до бесконечности. Понял, что успех подобной фичи заложен в комбинации языкового запроса с визуальным (или любой другой формой контента), что обозначается с прикладного✨ омнимодальностью ✨
Следите за руками:
Выход новой технической фичи априори не меняет мою жизнь (пользователя). Я живу своими процессами, что-то новое непонятное пробовать не хочу, потому что и так процессы работают. Чтобы обратить мое внимание, тут надо зайти через радикальное решение проблемы, либо через фан. В первом случае я меняю что-то в своей жизни (знакомство с фичей), что оптимизирует процесс на порядок, а во втором случае просто получаю развлекуху, которую показываю друзьям (потенциальные новые пользователи). И как думаю, капитански наберитесь воздуха, омнимодальность это делает сразу через фана и решение проблемы.
Например, я понял из генератора изображений ChatGPT, что тот учитывает визуальный и текстовый контекст, от чего я могу запрашивать у него разные приколы и показывать другим людям. Пускай мне захотелось определить, какой я суп и почему именно такой. ChatGPT минутку попыхтит над запросом и выдаст персонализированный ответ, где даёт фан и решение проблемы. А далее я показываю это другим людям, что влечёт цепную реакцию «надо сделать тоже самое»▶️ «надо сделать что-то новое на подобии» ▶️ «надо попробовать новую фичу того же сервиса». Очень просто, но цифры того же OpenAI о миллионах новых пользователей за последнее время об этом говорят из-под плавящихся серверов.
Омнимодальность раскрывает бесконечную песочницу, которая нативно показывает, почему та или иная фича нужна мне. При этом сервис необязательно должен быть песочницей или омнимодальным, чтобы привлечь внимание (Perplexity, я тебя очень люблю!), просто это повышает кардинальный интерес. Или я один такой?
🤖 InNeuralNetwork
Наблюдаю за картинками с ChatGPT, где генерятся животные как люди, люди как игрушки, а игрушки снова как люди и так до бесконечности. Понял, что успех подобной фичи заложен в комбинации языкового запроса с визуальным (или любой другой формой контента), что обозначается с прикладного
Следите за руками:
Выход новой технической фичи априори не меняет мою жизнь (пользователя). Я живу своими процессами, что-то новое непонятное пробовать не хочу, потому что и так процессы работают. Чтобы обратить мое внимание, тут надо зайти через радикальное решение проблемы, либо через фан. В первом случае я меняю что-то в своей жизни (знакомство с фичей), что оптимизирует процесс на порядок, а во втором случае просто получаю развлекуху, которую показываю друзьям (потенциальные новые пользователи). И как думаю, капитански наберитесь воздуха, омнимодальность это делает сразу через фана и решение проблемы.
Например, я понял из генератора изображений ChatGPT, что тот учитывает визуальный и текстовый контекст, от чего я могу запрашивать у него разные приколы и показывать другим людям. Пускай мне захотелось определить, какой я суп и почему именно такой. ChatGPT минутку попыхтит над запросом и выдаст персонализированный ответ, где даёт фан и решение проблемы. А далее я показываю это другим людям, что влечёт цепную реакцию «надо сделать тоже самое»
Омнимодальность раскрывает бесконечную песочницу, которая нативно показывает, почему та или иная фича нужна мне. При этом сервис необязательно должен быть песочницей или омнимодальным, чтобы привлечь внимание (Perplexity, я тебя очень люблю!), просто это повышает кардинальный интерес. Или я один такой?
🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🗿2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Персонализация и память в ChatGPT клево прокачались. Теперь запоминаются все данные, можно в разных чатах делать задачу. Режим Projects, правда, не совсем понятно зачем, но тесты и время покажет. Доступно пользователям с подпиской 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍3