Технозаметки Малышева
Все-таки сохранение стиля, - это удобно. в боте @sketchmaster_bot вот такая команда: /style 3d rendering, neon lighting, c4d, blender, black background, octane render, unreal render, volumetric lighting и дальше просто - гоночный грузовик - снеговик -…
This media is not supported in your browser
VIEW IN TELEGRAM
Pika 2
не очень видно, но там я за рулём :)
https://t.iss.one/tsingular/2894
#pika2 #нейрорендер
———
@tsingular
не очень видно, но там я за рулём :)
https://t.iss.one/tsingular/2894
#pika2 #нейрорендер
———
@tsingular
👏7😁3
Forwarded from эйай ньюз
В ChatGPT улучшили поиск
Парад трансляций продолжается, 8 позади, 4 осталось.
🔎 Теперь поиск доступен бесплатным пользователям
🔎 В Advanced Voice Mode теперь есть поиск
🔎 Качество поиска в целом апгрейднули
Стоит ли дальше писать про такие минорные апдейты, или только про что-то важное?
@ai_newz
Парад трансляций продолжается, 8 позади, 4 осталось.
🔎 Теперь поиск доступен бесплатным пользователям
🔎 В Advanced Voice Mode теперь есть поиск
🔎 Качество поиска в целом апгрейднули
Стоит ли дальше писать про такие минорные апдейты, или только про что-то важное?
@ai_newz
👍9
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Google Veo 2
Вы будете смеяться, но у нас новый видео-генератор.
Ну то есть генератор старый, версия новая.
Заявленные фичи:
Generates 4K resolution clips.
Understands camera controls like wide shots & angles.
Recreates real-world physics & emotions.
Дальше идет жоский маркетинг:
Create cinematic-quality videos without a camera.
Perfect for filmmakers, creators, & brands.
Human raters prefer Veo 2 over top competitors.
Последнее меня просто обескураживает.
"Говорят, что наш генератор лучше!"
Тетенька с микроскопом выглядит действительно здорово. А вот фигуристка, конечно, оборотень.
Картинка довольно сочная, как у Соры, но меня не оставляет ощущение, что это апскейл.
VideoFX isn't available in your country yet. Пойду расчехлять впн.
Кто-то уже попробовал?
Ну и зная пугливость и диверситикацию Гугла, остается только гадать о размерах цензуры.
https://deepmind.google/technologies/veo/veo-2/
@cgevent
Вы будете смеяться, но у нас новый видео-генератор.
Ну то есть генератор старый, версия новая.
Заявленные фичи:
Generates 4K resolution clips.
Understands camera controls like wide shots & angles.
Recreates real-world physics & emotions.
Дальше идет жоский маркетинг:
Create cinematic-quality videos without a camera.
Perfect for filmmakers, creators, & brands.
Human raters prefer Veo 2 over top competitors.
Последнее меня просто обескураживает.
"Говорят, что наш генератор лучше!"
Тетенька с микроскопом выглядит действительно здорово. А вот фигуристка, конечно, оборотень.
Картинка довольно сочная, как у Соры, но меня не оставляет ощущение, что это апскейл.
VideoFX isn't available in your country yet. Пойду расчехлять впн.
Кто-то уже попробовал?
Ну и зная пугливость и диверситикацию Гугла, остается только гадать о размерах цензуры.
https://deepmind.google/technologies/veo/veo-2/
@cgevent
🔥5
Корпоративные ИИ-услуги OpenAI подорожают до $2000 в месяц
Финансовый директор OpenAI Сара Фриар анонсировала радикальное изменение тарифной политики компании.
Стоимость бизнес-подписки увеличится в 10 раз - до $2000 ежемесячно.
Новая ценовая стратегия базируется на реальной ценности продукта для корпоративного сектора.
Функционал расширится: автоматизация сложных процессов, бронирование, исследования, замена параюристов.
Базовые тарифы останутся прежними: $20 для частных лиц, $200 за доступ к передовым моделям.
Идея в том, что стоимость месячной подписки должна быть эквивалентом найма человека с образованием уровня доктора наук.
Похоже, эра дешёвого ИИ подходит к концу. Готовьте кошельки, господа бизнесмены! 💰
#OpenAI #enterprise #pricing
-------
@tsingular
Финансовый директор OpenAI Сара Фриар анонсировала радикальное изменение тарифной политики компании.
Стоимость бизнес-подписки увеличится в 10 раз - до $2000 ежемесячно.
Новая ценовая стратегия базируется на реальной ценности продукта для корпоративного сектора.
Функционал расширится: автоматизация сложных процессов, бронирование, исследования, замена параюристов.
Базовые тарифы останутся прежними: $20 для частных лиц, $200 за доступ к передовым моделям.
Идея в том, что стоимость месячной подписки должна быть эквивалентом найма человека с образованием уровня доктора наук.
Похоже, эра дешёвого ИИ подходит к концу. Готовьте кошельки, господа бизнесмены! 💰
#OpenAI #enterprise #pricing
-------
@tsingular
🤨5
Очень сложно оторваться от Pika2.
Практически невозможно.
Нейрорендер это тяжёлый наркотик.
Когда миры создаются из картинок, которые ты кидаешь как в миксер, это непередаваемое ощущение.
Когда это будет чуть более качественно и быстро доступно на локальных машинах, - нас ждёт переосмысление реальности.
Можно будет переснимать любые фильмы с любыми героями.
Создавать фильмы по книгам, как по промптам.
#pika2 #нейрорендер
———
@tsingular
Практически невозможно.
Нейрорендер это тяжёлый наркотик.
Когда миры создаются из картинок, которые ты кидаешь как в миксер, это непередаваемое ощущение.
Когда это будет чуть более качественно и быстро доступно на локальных машинах, - нас ждёт переосмысление реальности.
Можно будет переснимать любые фильмы с любыми героями.
Создавать фильмы по книгам, как по промптам.
#pika2 #нейрорендер
———
@tsingular
1👍18🔥4💯1
Forwarded from Сиолошная
Ещё из этого поста узнал про ProcessBench от Qwen Team, вышедший неделю назад. Как вы могли понять из объяснения выше, очень важно, чтобы у вас был качественный оценщик — если он умеет обнаруживать ошибки почти идеально, и имеет интуицию о том, какие решения более перспективны, то это существенно улучшает оптимальность генерации десятков-сотен решений.
Вот ProcessBench и оценивает это: исследователи собрали 3400 примеров и разметили их вручную по шагам, а затем смотрели, насколько хорошо разные LLM умеют обнаруживать самый первый шаг, содержащий ошибку (или наоборот отсутствие проблем во всём решении).
Лучше всех из открытых моделей показала себя... их QwQ-32B-Preview, что не удивительно (не потому, что модель выпущена ими, а потому что она умеет рассуждать и сама по себе сильна в математике). Она правильно оценила 71.5% примеров, что больше, чем GPT-4o (61.9%), но меньше, чем o1-mini (87.9, существенно выше).
Почему это важно: с очень качественными оценщиками (верификаторами) можно запускать автоматический цикл генерации сотне решений и дообучения на самых высоко оценённых (и правильных). Предположительно, именно так и учили o1, и отсюда видно, насколько большим остаётся гэп в обучении оценщика.
Вот ProcessBench и оценивает это: исследователи собрали 3400 примеров и разметили их вручную по шагам, а затем смотрели, насколько хорошо разные LLM умеют обнаруживать самый первый шаг, содержащий ошибку (или наоборот отсутствие проблем во всём решении).
Лучше всех из открытых моделей показала себя... их QwQ-32B-Preview, что не удивительно (не потому, что модель выпущена ими, а потому что она умеет рассуждать и сама по себе сильна в математике). Она правильно оценила 71.5% примеров, что больше, чем GPT-4o (61.9%), но меньше, чем o1-mini (87.9, существенно выше).
Почему это важно: с очень качественными оценщиками (верификаторами) можно запускать автоматический цикл генерации сотне решений и дообучения на самых высоко оценённых (и правильных). Предположительно, именно так и учили o1, и отсюда видно, насколько большим остаётся гэп в обучении оценщика.
Интересный доклад по работе Gigachain в деталях.
По QR кодом ссылки на исходники.
https://github.com/ai-forever/gigachain
#gigachain #сбербанк
------
@tsingular
По QR кодом ссылки на исходники.
https://github.com/ai-forever/gigachain
#gigachain #сбербанк
------
@tsingular
👍5✍2👏1🆒1
Forwarded from Machinelearning
Институт технологических инноваций Абу-Даби представил семейство моделей Falcon 3 с расширенными возможностями в областях науки, математики и программирования.
Модели Falcon 3 основаны на трансформерах, совместимы с архитектурой Llama поддерживает до 32К токенов контекста (кроме 1B с контекстом 8К). Все модели используют функцию активации SwiGLU с размером словаря 131K токенов (65K для Mamba-7B версии).
Falcon3-7B-Base была масштабирована до 10 млрд. параметров путем дублирования избыточных слоев и последующего обучения на 2 трлн. токенов. Это позволило модели Falcon3-10B-Base достичь высоких результатов в задачах zero-shot и few-shot среди моделей с менее чем 13В параметров.
Для создания компактных моделей Falcon3-1B Base и Falcon3-3B Base использовались методы обрезки и дистилляции знаний на основе около 100 ГБ высококачественных данных.
Модель Falcon3-Mamba-7B-Base была усовершенствована путем обучения на дополнительных 1,5 трлн. токенов, что привело к созданию Falcon3-Mamba-7B-Base с улучшенными способностями к рассуждению и в математических задачах.
В бенчмарках задач математики Falcon3-10B-Base достигает 22,9 на MATH-Lvl5 и 83,0 на GSM8K, а в задачах программирования набирает 73,8 на MBPP.
Инструктивные версии моделей также показывают высокие результаты, при этом Falcon3-7B-Instruct и Falcon3-10B-Instruct превосходят аналогичные модели до 13 млрд. параметров.
⚠️ В январе 2025 года планируется выпуск моделей семейства Falcon3 с расширенными мультимодальными возможностями: поддержка изображений, видео и аудио, а также полный технический отчет с описанием методик.
@ai_machinelearning_big_data
#AI #ML #LLM #Falcon3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥2🤔2❤1🍾1