Технозаметки Малышева
9.23K subscribers
4K photos
1.47K videos
41 files
4.15K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from эйай ньюз
В ChatGPT улучшили поиск

Парад трансляций продолжается, 8 позади, 4 осталось.

🔎 Теперь поиск доступен бесплатным пользователям

🔎 В Advanced Voice Mode теперь есть поиск

🔎 Качество поиска в целом апгрейднули

Стоит ли дальше писать про такие минорные апдейты, или только про что-то важное?

@ai_newz
👍9
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Google Veo 2

Вы будете смеяться, но у нас новый видео-генератор.

Ну то есть генератор старый, версия новая.

Заявленные фичи:

Generates 4K resolution clips.
Understands camera controls like wide shots & angles.
Recreates real-world physics & emotions.

Дальше идет жоский маркетинг:

Create cinematic-quality videos without a camera.
Perfect for filmmakers, creators, & brands.
Human raters prefer Veo 2 over top competitors.

Последнее меня просто обескураживает.

"Говорят, что наш генератор лучше!"

Тетенька с микроскопом выглядит действительно здорово. А вот фигуристка, конечно, оборотень.

Картинка довольно сочная, как у Соры, но меня не оставляет ощущение, что это апскейл.

VideoFX isn't available in your country yet. Пойду расчехлять впн.

Кто-то уже попробовал?

Ну и зная пугливость и диверситикацию Гугла, остается только гадать о размерах цензуры.

https://deepmind.google/technologies/veo/veo-2/

@cgevent
🔥5
Корпоративные ИИ-услуги OpenAI подорожают до $2000 в месяц

Финансовый директор OpenAI Сара Фриар анонсировала радикальное изменение тарифной политики компании.
Стоимость бизнес-подписки увеличится в 10 раз - до $2000 ежемесячно.
Новая ценовая стратегия базируется на реальной ценности продукта для корпоративного сектора.
Функционал расширится: автоматизация сложных процессов, бронирование, исследования, замена параюристов.
Базовые тарифы останутся прежними: $20 для частных лиц, $200 за доступ к передовым моделям.

Идея в том, что стоимость месячной подписки должна быть эквивалентом найма человека с образованием уровня доктора наук.

Похоже, эра дешёвого ИИ подходит к концу. Готовьте кошельки, господа бизнесмены! 💰

#OpenAI #enterprise #pricing
-------
@tsingular
🤨5
Очень сложно оторваться от Pika2.
Практически невозможно.
Нейрорендер это тяжёлый наркотик.

Когда миры создаются из картинок, которые ты кидаешь как в миксер, это непередаваемое ощущение.

Когда это будет чуть более качественно и быстро доступно на локальных машинах, - нас ждёт переосмысление реальности.

Можно будет переснимать любые фильмы с любыми героями.

Создавать фильмы по книгам, как по промптам.

#pika2 #нейрорендер
———
@tsingular
1👍18🔥4💯1
Forwarded from Сиолошная
Ещё из этого поста узнал про ProcessBench от Qwen Team, вышедший неделю назад. Как вы могли понять из объяснения выше, очень важно, чтобы у вас был качественный оценщик — если он умеет обнаруживать ошибки почти идеально, и имеет интуицию о том, какие решения более перспективны, то это существенно улучшает оптимальность генерации десятков-сотен решений.

Вот ProcessBench и оценивает это: исследователи собрали 3400 примеров и разметили их вручную по шагам, а затем смотрели, насколько хорошо разные LLM умеют обнаруживать самый первый шаг, содержащий ошибку (или наоборот отсутствие проблем во всём решении).

Лучше всех из открытых моделей показала себя... их QwQ-32B-Preview, что не удивительно (не потому, что модель выпущена ими, а потому что она умеет рассуждать и сама по себе сильна в математике). Она правильно оценила 71.5% примеров, что больше, чем GPT-4o (61.9%), но меньше, чем o1-mini (87.9, существенно выше).

Почему это важно: с очень качественными оценщиками (верификаторами) можно запускать автоматический цикл генерации сотне решений и дообучения на самых высоко оценённых (и правильных). Предположительно, именно так и учили o1, и отсюда видно, насколько большим остаётся гэп в обучении оценщика.
Media is too big
VIEW IN TELEGRAM
GigaChain в действии.
Агент в диалоге на базе LangChain.

#gigachain #сбербанк
------
@tsingular
👍82👏1
Интересный доклад по работе Gigachain в деталях.
По QR кодом ссылки на исходники.

https://github.com/ai-forever/gigachain

#gigachain #сбербанк
------
@tsingular
👍52👏1🆒1
Forwarded from Machinelearning
⚡️ Релиз Falcon 3

Институт технологических инноваций Абу-Даби представил семейство моделей Falcon 3 с расширенными возможностями в областях науки, математики и программирования.

▶️В семейство входят 5 базовых моделей:

🟢Falcon3-1B-Base
🟢Falcon3-3B-Base
🟢Falcon3-Mamba-7B-Base
🟢Falcon3-7B-Base
🟢Falcon3-10B-Base

Модели Falcon 3 основаны на трансформерах, совместимы с архитектурой Llama поддерживает до 32К токенов контекста (кроме 1B с контекстом 8К). Все модели используют функцию активации SwiGLU с размером словаря 131K токенов (65K для Mamba-7B версии).

Falcon3-7B-Base была масштабирована до 10 млрд. параметров путем дублирования избыточных слоев и последующего обучения на 2 трлн. токенов. Это позволило модели Falcon3-10B-Base достичь высоких результатов в задачах zero-shot и few-shot среди моделей с менее чем 13В параметров.

Для создания компактных моделей Falcon3-1B Base и Falcon3-3B Base использовались методы обрезки и дистилляции знаний на основе около 100 ГБ высококачественных данных.

Модель Falcon3-Mamba-7B-Base была усовершенствована путем обучения на дополнительных 1,5 трлн. токенов, что привело к созданию Falcon3-Mamba-7B-Base с улучшенными способностями к рассуждению и в математических задачах.

▶️ Семейство продемонстрировало высокую производительность на стандартных бенчмарках:

🟠Falcon3-1B-Base превосходит SmolLM2-1.7B и сопоставима с gemma-2-2b;
🟠Falcon3-3B-Base опережает Llama-3.1-8B и Minitron-4B-Base;
🟠Falcon3-7B-Base показывает результаты, сравнимые с Qwen2.5-7B;
🟠Falcon3-10B-Base - лучшие результаты в категории до 13 млрд. параметров.

В бенчмарках задач математики Falcon3-10B-Base достигает 22,9 на MATH-Lvl5 и 83,0 на GSM8K, а в задачах программирования набирает 73,8 на MBPP.

Инструктивные версии моделей также показывают высокие результаты, при этом Falcon3-7B-Instruct и Falcon3-10B-Instruct превосходят аналогичные модели до 13 млрд. параметров.

▶️В репозитории на HuggingFace опубликованы базовые, Instruct, GPTQ-INT8, GPTO-INT4, AWQ и GGUF версии моделей Falcon3.


⚠️ В январе 2025 года планируется выпуск моделей семейства Falcon3 с расширенными мультимодальными возможностями: поддержка изображений, видео и аудио, а также полный технический отчет с описанием методик.


📌Лицензирование: Falcon 3 TII Falcon License.


🟡Статья
🟡Набор моделей
🟡Demo Falcon3
🟡Demo Falcon3-Mamba-7B-Instruct
🟡Сообщество в Discord

@ai_machinelearning_big_data

#AI #ML #LLM #Falcon3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥2🤔21🍾1