Бот @Cloud_GPT_bot переведён на gpt-5 в максимальной версии.
gpt-5-nano в базовой.
#dev #боты
———
@tsingular
gpt-5-nano в базовой.
#dev #боты
———
@tsingular
🔥6
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Тут понятно, где видео, а где рендер.
Но как же быстро все эти рендеры становятся реальными видео.
Есть мнение, что киношники во многом "накаркали" весь этот треш и угар, который нам теперь разгребать.
@cgevent
Но как же быстро все эти рендеры становятся реальными видео.
Есть мнение, что киношники во многом "накаркали" весь этот треш и угар, который нам теперь разгребать.
@cgevent
💯8👍2🔥2⚡1🤯1
Китайские роботы-волки присоединились к учениям НОАК
Народно-освободительная армия Китая впервые официально показала боевых роботов-волков на военных учениях.
Четвероногие дроны способны нести оружие, патрулировать территорию и работать в стае с солдатами.
Машины развивают скорость до 15 км/ч и преодолевают сложный рельеф.
Технология отражает глобальный тренд перехода от традиционных боевых систем к автономным платформам. Роботы снижают риски для людей и обеспечивают модульность операций.
Запоминаем. В Китае,- волки.
Лютоволки? Робоволки?
#RobotWolves #China #Китай #Волки
------
@tsingular
Народно-освободительная армия Китая впервые официально показала боевых роботов-волков на военных учениях.
Четвероногие дроны способны нести оружие, патрулировать территорию и работать в стае с солдатами.
Машины развивают скорость до 15 км/ч и преодолевают сложный рельеф.
Технология отражает глобальный тренд перехода от традиционных боевых систем к автономным платформам. Роботы снижают риски для людей и обеспечивают модульность операций.
Запоминаем. В Китае,- волки.
Лютоволки? Робоволки?
#RobotWolves #China #Китай #Волки
------
@tsingular
🔥7⚡4✍1🫡1
Forwarded from CodeCamp
Ладно, кто-то должен это сказать: релиз GPT-5 провалился. Полностью.
По пунктам:
— Роутинг сломан из-за нагрузки, каждый второй запрос летит на GPT-5-mini;
— Бюджет ризонинга занерфили в ноль: даже над сложными тасками у Plus юзеров он думает не дольше минуты. Навайбкодить что-то серьёзное нереально;
— GPT-5 почти во всем хуже предыдущих моделей. Она не такая приятная в общении, как GPT-4o, не такая креативная, как GPT-4.5 и не такая умная, как OpenAI o3 (см. прошлый пункт);
— А самое обидное, что все старые модели у Plus-подписчиков забрали — кушайте, что дают;
— Ну и докучи странная преза, на которой ничего интересного не показали, но смешно накосячили с графиками.
На Reddit планируется AMA с топами OpenAI. Если почитать, то там каждое второе сообщение о том, какой GPT-5 отстой и просьба вернуть старые модели.
Первый серьёзный провал от OpenAI. Посмотрим, как выкрутятся.
По пунктам:
— Роутинг сломан из-за нагрузки, каждый второй запрос летит на GPT-5-mini;
— Бюджет ризонинга занерфили в ноль: даже над сложными тасками у Plus юзеров он думает не дольше минуты. Навайбкодить что-то серьёзное нереально;
— GPT-5 почти во всем хуже предыдущих моделей. Она не такая приятная в общении, как GPT-4o, не такая креативная, как GPT-4.5 и не такая умная, как OpenAI o3 (см. прошлый пункт);
— А самое обидное, что все старые модели у Plus-подписчиков забрали — кушайте, что дают;
— Ну и докучи странная преза, на которой ничего интересного не показали, но смешно накосячили с графиками.
На Reddit планируется AMA с топами OpenAI. Если почитать, то там каждое второе сообщение о том, какой GPT-5 отстой и просьба вернуть старые модели.
Первый серьёзный провал от OpenAI. Посмотрим, как выкрутятся.
⚡10💯8 6✍2❤2🐳2
Forwarded from LLM под капотом
Локальная gpt-oss-20b - эквивалент закрытой gpt-5-nano, а mini - 120b 🔥
Теперь все цифры сошлись. Я таки запустил gpt-oss-20b, как если бы reasoning у него изначально работал с поддержкой Structured Outputs.
В итоге - очки на моем бенчмарке получились у моделей похожие. Смотрите сами. Причем ситуация аналогична паре моделей gpt-5-mini и gpt-oss-120b.
В принципе, это логично. Зачем OpenAI поддерживать большой зоопарк моделей, когда можно обучить три новые модели, выдать по API все три (спрятав reasoning) и раздать всем две младшие модели? Ну а смогут ли люди получить от локальных моделей результаты аналогичные их облачным вариантам - это уж зависит от самих людей.
Можете проверить сами, скачав локальные модели с Hugging Face (20B и 120B) и запустив у себя, или через одного из провайдеров (списки - 20B и 120B).
Для честного сравнения с gpt-5-nano и gpt-5-mini обязательно давайте локальным моделям возможность подумать над проблемой до ответа, как это делается в CoT. А когда в xgrammar/outlines появится поддержка constrained decoding для 120B/20B, то можно будет и Schema-Guided Reasoning использовать (как это делается в бенчмарке).
Ваш, @llm_under_hood 🤗
Теперь все цифры сошлись. Я таки запустил gpt-oss-20b, как если бы reasoning у него изначально работал с поддержкой Structured Outputs.
Сейчас gpt-oss-20b из-за новизны архитектуры работает без Structured Outputs даже у Fireworks (это мне подтвердили ребята в OpenRouter). Но, думаю, для таких хороших моделей завезут поддержку новой архитектуры достаточно быстро.
В итоге - очки на моем бенчмарке получились у моделей похожие. Смотрите сами. Причем ситуация аналогична паре моделей gpt-5-mini и gpt-oss-120b.
В принципе, это логично. Зачем OpenAI поддерживать большой зоопарк моделей, когда можно обучить три новые модели, выдать по API все три (спрятав reasoning) и раздать всем две младшие модели? Ну а смогут ли люди получить от локальных моделей результаты аналогичные их облачным вариантам - это уж зависит от самих людей.
Можете проверить сами, скачав локальные модели с Hugging Face (20B и 120B) и запустив у себя, или через одного из провайдеров (списки - 20B и 120B).
Для честного сравнения с gpt-5-nano и gpt-5-mini обязательно давайте локальным моделям возможность подумать над проблемой до ответа, как это делается в CoT. А когда в xgrammar/outlines появится поддержка constrained decoding для 120B/20B, то можно будет и Schema-Guided Reasoning использовать (как это делается в бенчмарке).
Ваш, @llm_under_hood 🤗
1⚡6🔥6🤝3❤🔥2❤1
Media is too big
VIEW IN TELEGRAM
Тут вчера интересно стало, а как разные модели на одни и те же вопросы отвечают.
Запилил по-быстрому за часик такое приложение, - локальный вебсервер на Go (мы же теперь с GPT-5, почему бы и нет), который тестирует одновременно вообще ВСЕ модели, которые есть в Aitunnel.ru.
Получается рублей 60-100 за 1 запрос, но зато быстро и наглядно.
Выкладываю исходник в комментарии.
для запуска нужен Go, скомпилировать файл и еще .env файл рядом положить с вашим ключём к aitunnel в виде: AITUNNEL_API_KEY=sk-aitunnel-rS4 ит.д..
Через роутер тестирую потому, что там можно с одним ключём достаточно много моделей дернуть по одному апи.
Так то можно потом будет собрать такой же и для Cloud.ru, например.
Вообще код универсальный, - там baseurl может быть любой совместимый с openai и модели поправить в списке - можно вообще любые хабы быстро подключать
#dev #tests #Go #API
———
@tsingular
Запилил по-быстрому за часик такое приложение, - локальный вебсервер на Go (мы же теперь с GPT-5, почему бы и нет), который тестирует одновременно вообще ВСЕ модели, которые есть в Aitunnel.ru.
Получается рублей 60-100 за 1 запрос, но зато быстро и наглядно.
Выкладываю исходник в комментарии.
для запуска нужен Go, скомпилировать файл и еще .env файл рядом положить с вашим ключём к aitunnel в виде: AITUNNEL_API_KEY=sk-aitunnel-rS4 ит.д..
Через роутер тестирую потому, что там можно с одним ключём достаточно много моделей дернуть по одному апи.
Так то можно потом будет собрать такой же и для Cloud.ru, например.
Вообще код универсальный, - там baseurl может быть любой совместимый с openai и модели поправить в списке - можно вообще любые хабы быстро подключать
#dev #tests #Go #API
———
@tsingular
👍8🔥7❤3
Forwarded from AI x Artem
Большая победа 🏆 🏆
Наши ребята на олимпиаде IOAI, которая проходила в Китае, заняли - 6 золотых, 1 серебро, и 1 бронзу - буквально все ребята стали медалистами.
В командном зачете одной из команд удалось обойти 80 команд из других стран и занять 2 место, уступив всего на 0.1 очко.
Поздравляю ребят от всей души🔥😎
Наши ребята на олимпиаде IOAI, которая проходила в Китае, заняли - 6 золотых, 1 серебро, и 1 бронзу - буквально все ребята стали медалистами.
В командном зачете одной из команд удалось обойти 80 команд из других стран и занять 2 место, уступив всего на 0.1 очко.
Поздравляю ребят от всей души🔥😎
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53🏆11⚡4🆒2❤🔥1
Google Finance тестирует новые AI-функции
Google интегрирует в Finance возможности своей Gemini AI для улучшения финансовой аналитики.
Новые функции включают умные исследовательские инструменты, продвинутые графики и ленту новостей в реальном времени с ИИ-анализом.
Платформа будет использовать машинное обучение для контекстного анализа финансовых данных и предоставления персонализированных инсайтов пользователям.
Рынок финтех-решений с ИИ ожидают рост до $70,1 млрд к 2033 году, что делает эти обновления критически важными для конкурентоспособности Google против новых стартапов.
Если даже ИИ Гугла будет давать финансовые советы, то что может пойти не так? 📈🤖
#Google #Finance #Gemini
------
@tsingular
Google интегрирует в Finance возможности своей Gemini AI для улучшения финансовой аналитики.
Новые функции включают умные исследовательские инструменты, продвинутые графики и ленту новостей в реальном времени с ИИ-анализом.
Платформа будет использовать машинное обучение для контекстного анализа финансовых данных и предоставления персонализированных инсайтов пользователям.
Рынок финтех-решений с ИИ ожидают рост до $70,1 млрд к 2033 году, что делает эти обновления критически важными для конкурентоспособности Google против новых стартапов.
Если даже ИИ Гугла будет давать финансовые советы, то что может пойти не так? 📈🤖
#Google #Finance #Gemini
------
@tsingular
👍2❤1
Телескоп Webb обнаружил свободно дрейфующие планеты размером с газовые гиганты
James Webb зафиксировал планеты-скитальцы, которые настолько массивны, что способны собирать вокруг себя собственные планетные системы.
Эти объекты дрейфуют в космосе без звезды-хозяина, но их гравитация достаточно сильна для захвата других небесных тел. Инфракрасные наблюдения выявили планеты массой до 5 Юпитеров в звездообразующих скоплениях вроде NGC 1333.
Обнаружение таких систем переворачивает представления о формировании планет. Теперь мы знаем - планетные системы могут возникать не только вокруг звезд.
Должна еще где-то быть планета на слонах и черепахе.
Нужно искать лучше. :)
#Webb #planets #rogue
------
@tsingular
James Webb зафиксировал планеты-скитальцы, которые настолько массивны, что способны собирать вокруг себя собственные планетные системы.
Эти объекты дрейфуют в космосе без звезды-хозяина, но их гравитация достаточно сильна для захвата других небесных тел. Инфракрасные наблюдения выявили планеты массой до 5 Юпитеров в звездообразующих скоплениях вроде NGC 1333.
Обнаружение таких систем переворачивает представления о формировании планет. Теперь мы знаем - планетные системы могут возникать не только вокруг звезд.
Должна еще где-то быть планета на слонах и черепахе.
Нужно искать лучше. :)
#Webb #planets #rogue
------
@tsingular
😁9🕊2👍1💯1
А почему до сих пор мультимодалки не тестируют ребусами?
Зачем выдумывать все эти AGI тесты?
#ребусы #бенчмарки
———
@tsingular
Зачем выдумывать все эти AGI тесты?
#ребусы #бенчмарки
———
@tsingular
1🔥13👍9❤3✍3⚡1
Ну вот Sonnet 4 решил, но ход размышлений ИИшный.
В общем ребусы уже можно использовать для проверки моделей.
Надо собрать пайп.
#ребус
———
@tsingular
В общем ребусы уже можно использовать для проверки моделей.
Надо собрать пайп.
#ребус
———
@tsingular
👍7✍3❤1🤣1
GPT-5!!
ну все, - AGI
апострофы только не объяснила, которые К и А убирают
%)
#ребусы #GPT5
———
@tsingular
ну все, - AGI
апострофы только не объяснила, которые К и А убирают
%)
#ребусы #GPT5
———
@tsingular
🔥9👍7❤1
GPT5 и Соннет 4 на простом завалились.
Ну в общем вывод такой, - старые ребусы можно и нужно использовать для тестирования мультимодалок.
а роботов нужно на 3х мерных детских загадках-конструкторах тестировать
#ребусы #бенчмарки
———
@tsingular
Ну в общем вывод такой, - старые ребусы можно и нужно использовать для тестирования мультимодалок.
а роботов нужно на 3х мерных детских загадках-конструкторах тестировать
#ребусы #бенчмарки
———
@tsingular
👍7✍3
💡 Meta* представила Byte Latent Transformer (BLT) — модель без токенов, которая обгоняет классические
Meta Research выложили исходник BLT (Byte Latent Transformer).
впервые байтовая модель догнала и местами превзошла токенизационные LLM вроде LLaMA 3, при этом снижая затраты на инференс до 50% и заметно повышая устойчивость.
🔍 Что нового в BLT
- Никакой токенизации: модель учится прямо на байтах, без фиксированного словаря.
- Динамические «патчи»: байты группируются в блоки переменной длины в зависимости от сложности текста (энтропии следующего байта).
- Эффективное распределение вычислений: сложные участки текста получают больше внимания и ресурсов, простые — меньше.
- Гибкое масштабирование: можно одновременно увеличивать размер модели и длину патча, сохраняя бюджет по FLOPs.
- Три уровня архитектуры: лёгкий байтовый энкодер, тяжёлый глобальный латентный трансформер и лёгкий декодер.
📈 Ключевые моменты из статьи
- Масштаб: обучение моделей до 8B параметров и 4T байт данных.
- Сравнение: при фиксированном бюджете инференса BLT обгоняет LLaMA 2/3 уже после compute-optimal точки.
- Качество: BLT-Entropy 8B превзошла LLaMA 3 на 4 из 7 стандартных бенчмарках, а в задачах устойчивости к шуму и работе с символами — с огромным отрывом (CUTE benchmark +25 пунктов).
- Переводы: +2 BLEU в среднем на низкоресурсных языках в FLORES-101.
- Инференс: патчи по 8 байт экономят ~50% FLOPs при минимальной потере качества.
💡 Почему это важно
BLT открывает путь к универсальным LLM, работающим с любыми языками и форматами без тонкой настройки токенизатора. Это особенно перспективно для:
— мультиязычных и низкоресурсных сценариев;
— устойчивости к ошибкам и «грязным» данным;
— мультимодальных моделей (байты можно применять и к аудио/видео-потокам).
📎 Репозиторий: github.com/facebookresearch/blt
Paper
TLDR: Meta убила токенизаторы
*Meta - запрещенная в РФ организация
#BLT #Meta #Transformers
———
@tsingular
Meta Research выложили исходник BLT (Byte Latent Transformer).
впервые байтовая модель догнала и местами превзошла токенизационные LLM вроде LLaMA 3, при этом снижая затраты на инференс до 50% и заметно повышая устойчивость.
🔍 Что нового в BLT
- Никакой токенизации: модель учится прямо на байтах, без фиксированного словаря.
- Динамические «патчи»: байты группируются в блоки переменной длины в зависимости от сложности текста (энтропии следующего байта).
- Эффективное распределение вычислений: сложные участки текста получают больше внимания и ресурсов, простые — меньше.
- Гибкое масштабирование: можно одновременно увеличивать размер модели и длину патча, сохраняя бюджет по FLOPs.
- Три уровня архитектуры: лёгкий байтовый энкодер, тяжёлый глобальный латентный трансформер и лёгкий декодер.
📈 Ключевые моменты из статьи
- Масштаб: обучение моделей до 8B параметров и 4T байт данных.
- Сравнение: при фиксированном бюджете инференса BLT обгоняет LLaMA 2/3 уже после compute-optimal точки.
- Качество: BLT-Entropy 8B превзошла LLaMA 3 на 4 из 7 стандартных бенчмарках, а в задачах устойчивости к шуму и работе с символами — с огромным отрывом (CUTE benchmark +25 пунктов).
- Переводы: +2 BLEU в среднем на низкоресурсных языках в FLORES-101.
- Инференс: патчи по 8 байт экономят ~50% FLOPs при минимальной потере качества.
💡 Почему это важно
BLT открывает путь к универсальным LLM, работающим с любыми языками и форматами без тонкой настройки токенизатора. Это особенно перспективно для:
— мультиязычных и низкоресурсных сценариев;
— устойчивости к ошибкам и «грязным» данным;
— мультимодальных моделей (байты можно применять и к аудио/видео-потокам).
📎 Репозиторий: github.com/facebookresearch/blt
Paper
TLDR: Meta убила токенизаторы
*Meta - запрещенная в РФ организация
#BLT #Meta #Transformers
———
@tsingular
🔥6👍3❤2