Попробовал OpenAI'ный Codex клиент, пока сыровато. Первый же демо запрос "explain codebase" падает по лимиту в 200k токенов и результат не возвращает. Товарищи уже чинят. Странно, что сразу не проверили, много пользователей на это наткнулось.
Деньги за ~170k-180k токенов при этом кушает, тут ошибок нет.
Деньги за ~170k-180k токенов при этом кушает, тут ошибок нет.
😁50🤯6⚡5
OpenAI добавили в API свою новую крутую модель по генерации картинок (через которую недавно все генерили Ghibli аниме) — в API она называется gpt-image-1.
Можно было бы встроить в свои проекты, тут есть куча идей, но модель доступна только после верификации организации, привязанной к аккаунту. Верификация проходит через сторонний сервис whitepersona (а у кого-то кнопки для верификации вообще нет). Там надо загружать личные документы.
У меня с первого раза не получилось и, как я понял, вторую попытку сразу не дают. Написал им в саппорт.
Можно было бы встроить в свои проекты, тут есть куча идей, но модель доступна только после верификации организации, привязанной к аккаунту. Верификация проходит через сторонний сервис whitepersona (а у кого-то кнопки для верификации вообще нет). Там надо загружать личные документы.
У меня с первого раза не получилось и, как я понял, вторую попытку сразу не дают. Написал им в саппорт.
🤯11👍6🔥3
🔺 У Perplexity вчера был созвон по зуму с пользователями
Я слоупок, но только по ходу созвона понял, что ведущий, Денис Ярац, и есть основатель компании. Переехал в США из Беларуси, поработал в разных конторах, сделал стартап.
Основные тезисы:
🔸 Сделали дешевле, нас ругали за плату за токены для цитирования, теперь мы их не считаем
🔸 Нас замерили на независимом бенче search arena, мы там внезапно вторые после gemini
🔸 Делаем браузер
🔸 Улучшили DeepResearch, скоро обновим. Есть большой запрос на DeepResearch для крупных компаний (поиск и анализ своих данных)
🔸 Мультиязычность для нас важна, улучшаем
🔸 Данные от пользователей мы никак не используем и модели на них не обучаем
Ну и главный тейк созвона, закинули участникам $50 на API
Я слоупок, но только по ходу созвона понял, что ведущий, Денис Ярац, и есть основатель компании. Переехал в США из Беларуси, поработал в разных конторах, сделал стартап.
Основные тезисы:
🔸 Сделали дешевле, нас ругали за плату за токены для цитирования, теперь мы их не считаем
🔸 Нас замерили на независимом бенче search arena, мы там внезапно вторые после gemini
🔸 Делаем браузер
🔸 Улучшили DeepResearch, скоро обновим. Есть большой запрос на DeepResearch для крупных компаний (поиск и анализ своих данных)
🔸 Мультиязычность для нас важна, улучшаем
🔸 Данные от пользователей мы никак не используем и модели на них не обучаем
Ну и главный тейк созвона, закинули участникам $50 на API
🔥51👍11❤7👀3
Forwarded from RnD ML Team
Словарь русского жестового языка растёт! 📕📺
Мы продолжаем развивать наш проект и рады поделиться обновлениями:
✅ Добавлены новые жесты — уже доступно для изучения около 1,000 жестов с почти 2,000 переводов.
✅ Появилась вкладка «Тесты» — теперь можно проверять свои знания и закреплять материал в интерактивном формате.
Попробуйте пройти тесты и поделитесь результатами в комментариях! Какие жесты для вас стали открытием?
🔗 Ссылка на словарь 👉 https://signflow.ru
🙏 Мы благодарим за помощь в развитии нашего сервиса команду спецпроектов Соловьёва Н. и Хоруженко А.
#ржя #жестовыйязык
Мы продолжаем развивать наш проект и рады поделиться обновлениями:
✅ Добавлены новые жесты — уже доступно для изучения около 1,000 жестов с почти 2,000 переводов.
✅ Появилась вкладка «Тесты» — теперь можно проверять свои знания и закреплять материал в интерактивном формате.
Попробуйте пройти тесты и поделитесь результатами в комментариях! Какие жесты для вас стали открытием?
🔗 Ссылка на словарь 👉 https://signflow.ru
#ржя #жестовыйязык
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥18👍11❤8⚡3🙏2🆒1
⚡9💅6🏆2
🔺 API gpt-image-1, цена и качество
🔸 Осваиваем новое API от OpenAI. Чтобы начать пользоваться надо подтвердить личность в аккаунте (надо именно для API, в веб-версии можно без этого).
🔸 Теперь можно задавать качество (low, medium и high)
🔸 Если надо что-то попроще, то лучше medium, потому что high будет сразу в 4 раза дороже. Low вообще не очень.
🔸 По времени low генерится примерно за 15 секунд, medium и high примерно за 30 и 60 секунд.
🔸 По цене. Low стоит около $0.03 за картинку, medium около $0.10, high ~$0.40
🔸 Есть параметр moderation, можно выставить его в "low" и по идее должно быть меньше отказов в генерации. Это надо потестить на каких-то более интересных темах.
🔸 В клиенте есть методы client.images.generate и client.images.edit. Параметры немного отличаются (например, moderation в edit нет), картинку в промпте можно передавать только в edit.
🔸 Собственно, если надо хорошее качество, детали и надписи, то нужно генерить с high, так будет похоже на то, что выдает web-версия. Low бесполезен, но дешев. Medium — как повезет.
🔸 Осваиваем новое API от OpenAI. Чтобы начать пользоваться надо подтвердить личность в аккаунте (надо именно для API, в веб-версии можно без этого).
🔸 Теперь можно задавать качество (low, medium и high)
🔸 Если надо что-то попроще, то лучше medium, потому что high будет сразу в 4 раза дороже. Low вообще не очень.
🔸 По времени low генерится примерно за 15 секунд, medium и high примерно за 30 и 60 секунд.
🔸 По цене. Low стоит около $0.03 за картинку, medium около $0.10, high ~$0.40
🔸 Есть параметр moderation, можно выставить его в "low" и по идее должно быть меньше отказов в генерации. Это надо потестить на каких-то более интересных темах.
🔸 В клиенте есть методы client.images.generate и client.images.edit. Параметры немного отличаются (например, moderation в edit нет), картинку в промпте можно передавать только в edit.
🔸 Собственно, если надо хорошее качество, детали и надписи, то нужно генерить с high, так будет похоже на то, что выдает web-версия. Low бесполезен, но дешев. Medium — как повезет.
🔥19👍9❤6⚡1
🔺 В NotebookLM добавили 70+ языков для озвучки
🔸 В официальной новости говорится про 50+ языков, в документации указано гораздо больше. Любой из них можно выбрать в настройках (Output language), на нём и будет всё происходить.
〰️ Что это такое?
🔸 NotebookLM — сервис от Google, в который можно загрузить документы, тексты, презентации, ссылки на сайты и видео с YouTube. Все это будет собрано в один контекст и обработано Gemini.
〰️ Что можно делать?
🔸 По данным затем можно создавать конспекты, планы обучения и таймлайны. Можно делать mind maps, тоже прикольная вещь. Можно задавать вопросы по вашим документам, но этим как будто никого не удивишь уже.
🔸 Самая прикольная фишка, как по мне, так это создание подкаста на два рассказчика по сгенерированному по вашим данным сценарию. Фишка на самом деле не самая сложная — вот тут делал на коленке подкаст по инструкции по холодильнику Бирюса (Claude + ElevenLabs).
🔸 Так вот, до недавнего времени озвучка была на английском языке, а теперь их стало сразу много (на картинке, документация тут). Есть русский. Есть даже латынь (!).
🔸 Что еще круче, так это интерактивный режим, когда можно прервать подкаст, задать вопрос, а ведущий на него ответит 🤯. Такое работает только для английского (пока это в beta режиме), зато можете прокачать свои навыки общения на этом языке. Кажется, что добавить остальные языки не будет проблемой раз они уже поддерживаются в озвучке, так что ждём.
👉 В общем штука крутая, попробовал на русском, английском, латыни и китайском. На английском, конечно, естественней всего звучит, но и на остальных весьма качественно. Скину примеры в комментариях.
🔸 В официальной новости говорится про 50+ языков, в документации указано гораздо больше. Любой из них можно выбрать в настройках (Output language), на нём и будет всё происходить.
〰️ Что это такое?
🔸 NotebookLM — сервис от Google, в который можно загрузить документы, тексты, презентации, ссылки на сайты и видео с YouTube. Все это будет собрано в один контекст и обработано Gemini.
〰️ Что можно делать?
🔸 По данным затем можно создавать конспекты, планы обучения и таймлайны. Можно делать mind maps, тоже прикольная вещь. Можно задавать вопросы по вашим документам, но этим как будто никого не удивишь уже.
🔸 Самая прикольная фишка, как по мне, так это создание подкаста на два рассказчика по сгенерированному по вашим данным сценарию. Фишка на самом деле не самая сложная — вот тут делал на коленке подкаст по инструкции по холодильнику Бирюса (Claude + ElevenLabs).
🔸 Так вот, до недавнего времени озвучка была на английском языке, а теперь их стало сразу много (на картинке, документация тут). Есть русский. Есть даже латынь (!).
🔸 Что еще круче, так это интерактивный режим, когда можно прервать подкаст, задать вопрос, а ведущий на него ответит 🤯. Такое работает только для английского (пока это в beta режиме), зато можете прокачать свои навыки общения на этом языке. Кажется, что добавить остальные языки не будет проблемой раз они уже поддерживаются в озвучке, так что ждём.
👉 В общем штука крутая, попробовал на русском, английском, латыни и китайском. На английском, конечно, естественней всего звучит, но и на остальных весьма качественно. Скину примеры в комментариях.
🔥33⚡8✍6❤2
🔺 Тут коллеги недавно обновили аудиомодальность в Гигачате
🔸 Интересно это потому, что теперь работа с аудио идёт не через ASR (распознавание речи в текст) с передачей текста в обычную языковую модель, а через аудио-эмбеддинги, которые подаются в контекст LLM.
🔸 То есть все звуки, шумы, смех и пение птичек не теряются на этапе транскрибации, а обрабатываются наравне с текстовым промптом, позволяя модели "слышать" звуки.
🔸 Так как аудио-эмбеддинги предварительно сжимаются, то в контекст сейчас можно передать запись длиной более 2-х часов. Можно даже просто передать ссылку на YouTube и попросить пересказать или сделать конспект.
🔸 Попробовал сгенерить timestamp'ы по видео, но так пока не умеет. Надо, видимо, дополнительно добавлять временные метки вместе с аудио или обогащать SFT сет такими задачами.
🔸 Зато работает с любыми записями, пересказывает даже матерные стендапы.
С удовольствием почитал как ребята это сделали на уровне архитектуры и обучения, предлагаю и вам. У кого есть аккаунт, ставьте лайк.
👉 Хабр
🔸 Интересно это потому, что теперь работа с аудио идёт не через ASR (распознавание речи в текст) с передачей текста в обычную языковую модель, а через аудио-эмбеддинги, которые подаются в контекст LLM.
🔸 То есть все звуки, шумы, смех и пение птичек не теряются на этапе транскрибации, а обрабатываются наравне с текстовым промптом, позволяя модели "слышать" звуки.
🔸 Так как аудио-эмбеддинги предварительно сжимаются, то в контекст сейчас можно передать запись длиной более 2-х часов. Можно даже просто передать ссылку на YouTube и попросить пересказать или сделать конспект.
🔸 Попробовал сгенерить timestamp'ы по видео, но так пока не умеет. Надо, видимо, дополнительно добавлять временные метки вместе с аудио или обогащать SFT сет такими задачами.
🔸 Зато работает с любыми записями, пересказывает даже матерные стендапы.
С удовольствием почитал как ребята это сделали на уровне архитектуры и обучения, предлагаю и вам. У кого есть аккаунт, ставьте лайк.
👉 Хабр
🔥44👍14⚡2🆒2❤1
Перед прочтением сжечь
Были тут в Питере (там, кстати, весна полным ходом)...
Зашли в небольшой уютный книжный, который так и называется — Перед прочтением сжечь, на улице Радищева в центре. Ребята проводят экскурсии по району и даже вот такие книжки сами делают с обзором местных строений с забавными иллюстрациями. Ну и кафе там тоже есть, рекомендую.
Были тут в Питере (там, кстати, весна полным ходом)...
Зашли в небольшой уютный книжный, который так и называется — Перед прочтением сжечь, на улице Радищева в центре. Ребята проводят экскурсии по району и даже вот такие книжки сами делают с обзором местных строений с забавными иллюстрациями. Ну и кафе там тоже есть, рекомендую.
1❤27🔥11👍4✍1
Forwarded from NLP Core Team (Dmitry Zmitrovich)
🚀🚀🚀 Koda 🚀🚀🚀
Мы запустили Koda! AI сервис для разработчиков с хорошим пониманием русского языка.
Под капотом — лучшие открытые LLM, дообученные на актуальном коде и адаптированные для русского языка, c применением нашего опыта по созданию моделей.
Koda и наши модели бесплатны. Даем 250 запросов на внешние модели после аутентификации через GitHub. В списке моделей есть DeepSeek V3.1, Qwen3 235B и другие. Можете вбить свой токен внешней модели для CodeChat если есть.
Сейчас в beta-тестировании. Выкатили базовые сервисы. Куча фичей ждут своих релизов. Вместе с вами тестируем и улучшаем.
Делитесь вашим опытом использования Koda в нашем сообществе. Ждем ваши вопросы, ошибки, которые встретили, или идеи, как улучшить.
Koda сейчас — это команда энтузиастов, бывших разработчиков и соавторов GigaCode от Сбера, которые хотят сделать программирование более доступным c помощью AI.
Наш лендинг
Плагин для VSCode
Koda сообщество
Мы запустили Koda! AI сервис для разработчиков с хорошим пониманием русского языка.
Под капотом — лучшие открытые LLM, дообученные на актуальном коде и адаптированные для русского языка, c применением нашего опыта по созданию моделей.
Koda и наши модели бесплатны. Даем 250 запросов на внешние модели после аутентификации через GitHub. В списке моделей есть DeepSeek V3.1, Qwen3 235B и другие. Можете вбить свой токен внешней модели для CodeChat если есть.
Сейчас в beta-тестировании. Выкатили базовые сервисы. Куча фичей ждут своих релизов. Вместе с вами тестируем и улучшаем.
Делитесь вашим опытом использования Koda в нашем сообществе. Ждем ваши вопросы, ошибки, которые встретили, или идеи, как улучшить.
Koda сейчас — это команда энтузиастов, бывших разработчиков и соавторов GigaCode от Сбера, которые хотят сделать программирование более доступным c помощью AI.
Наш лендинг
Плагин для VSCode
Koda сообщество
🔥23👍14❤6🎉4
🔺 Вышел Claude Opus 4 и Sonnet 4
На кодовых замерах опережает и o3 и Gemini 2.5 Pro. Но это ладно.
🔸 Пишут, что сильно улучшили память. Если при разработке дать доступ к файловой системе, то модель сможет создавать "memory files" с ключевыми данными. Не понял до конца, почему так нельзя делать с предыдущими версиями. Может быть, появился какой-то встроенный механизм.
🔸 Увеличили кеширование контекста до 60 минут (работа с одним и тем же контекстом при таком подходе дешевле, особенно если он длинный).
🔸 Появился Code execution tool — тула, которая вызывается, если Claude решит, что для решения задачи надо написать код, запустить его и выдать результат.
🔸 Эта же тула умеет вызываться на переданных файлах с данными. То есть по API можно передать какие-то документы и попросить их проанализировать, сделать табличку и т.д. Все это обработается кодом, то есть все числа будут точные (если сгенерится правильный код).
Это все интересно при разработке ваших приложений, через интерфейс можно было и так.
🔸 Веб-поиск в API тоже доехал. Стоит $10 за 1000 вызовов, добавляется к общей цене. Цена на Opus высокая, надо подумать, стоит ли оно того. Цена на Sonnet 4 такая же как у 3.7 и 3.5 ($3/$15 за 1M токенов на вход/выход).
В общем, смотрю. В плане качества генерации вроде +- то же, нужно потыкать мультиязычность и новые фичи в API.
👉 https://www.anthropic.com/news/claude-4
На кодовых замерах опережает и o3 и Gemini 2.5 Pro. Но это ладно.
🔸 Пишут, что сильно улучшили память. Если при разработке дать доступ к файловой системе, то модель сможет создавать "memory files" с ключевыми данными. Не понял до конца, почему так нельзя делать с предыдущими версиями. Может быть, появился какой-то встроенный механизм.
🔸 Увеличили кеширование контекста до 60 минут (работа с одним и тем же контекстом при таком подходе дешевле, особенно если он длинный).
🔸 Появился Code execution tool — тула, которая вызывается, если Claude решит, что для решения задачи надо написать код, запустить его и выдать результат.
🔸 Эта же тула умеет вызываться на переданных файлах с данными. То есть по API можно передать какие-то документы и попросить их проанализировать, сделать табличку и т.д. Все это обработается кодом, то есть все числа будут точные (если сгенерится правильный код).
Это все интересно при разработке ваших приложений, через интерфейс можно было и так.
🔸 Веб-поиск в API тоже доехал. Стоит $10 за 1000 вызовов, добавляется к общей цене. Цена на Opus высокая, надо подумать, стоит ли оно того. Цена на Sonnet 4 такая же как у 3.7 и 3.5 ($3/$15 за 1M токенов на вход/выход).
В общем, смотрю. В плане качества генерации вроде +- то же, нужно потыкать мультиязычность и новые фичи в API.
👉 https://www.anthropic.com/news/claude-4
👍19🔥6❤3 1