Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Так, потерпите, меня пробило на грибы и Runway.
Я щас доберусь до видеогенератров, но вот вам еще один очень классный пример, похожий на предыдущий о том, как вытаскивать 3Д мир из любой картинки, уже не имея никакой болванки в блендоре.
Берете в Runway Image2Video.
Просто используете новые управлялки из Runway, чтобы сделать видео облетов "внутри" картинки.
Используете эти видео чтобы собрать трехмерную сцену из Гауссианов в Unity Gaussian BOX Splatting.
А дальше вы уже в 3Д и просто светите сцену с помощью Custom URP Lit 6 ways Shader.
Еще раз - на входе картинка (хоть Флюкс, хоть древний Мидж) - на выходе вы бродите в Юнити по этой картинке внутри!
Шел 2024 год. Люди массово переселялись в картинки.
Сорс.
@cgevent
Я щас доберусь до видеогенератров, но вот вам еще один очень классный пример, похожий на предыдущий о том, как вытаскивать 3Д мир из любой картинки, уже не имея никакой болванки в блендоре.
Берете в Runway Image2Video.
Просто используете новые управлялки из Runway, чтобы сделать видео облетов "внутри" картинки.
Используете эти видео чтобы собрать трехмерную сцену из Гауссианов в Unity Gaussian BOX Splatting.
А дальше вы уже в 3Д и просто светите сцену с помощью Custom URP Lit 6 ways Shader.
Еще раз - на входе картинка (хоть Флюкс, хоть древний Мидж) - на выходе вы бродите в Юнити по этой картинке внутри!
Шел 2024 год. Люди массово переселялись в картинки.
Сорс.
@cgevent
⚡6🆒4🔥1
Perplexity добавляет функцию мгновенных покупок в AI-поисковик
Perplexity интегрирует возможность приобретения товаров напрямую через поисковую систему.
Функционал включает кнопку Buy with Pro, бесплатную доставку и автосохранение платёжных реквизитов.
Внедрены карточки товаров с AI-описаниями и инструмент Snap to Shop для визуального поиска по фото.
Продавцы получат доступ к аналитике поисковых трендов и инструментам продвижения.
Сервис пока функционирует только в США без комиссии с продаж.
Скоро ИИ будет сам ходить по магазинам, пока мы отдыхаем 🛍️😎
#Perplexity #ecommerce #visualsearch
-------
@tsingular
Perplexity интегрирует возможность приобретения товаров напрямую через поисковую систему.
Функционал включает кнопку Buy with Pro, бесплатную доставку и автосохранение платёжных реквизитов.
Внедрены карточки товаров с AI-описаниями и инструмент Snap to Shop для визуального поиска по фото.
Продавцы получат доступ к аналитике поисковых трендов и инструментам продвижения.
Сервис пока функционирует только в США без комиссии с продаж.
Скоро ИИ будет сам ходить по магазинам, пока мы отдыхаем 🛍️😎
#Perplexity #ecommerce #visualsearch
-------
@tsingular
⚡5👌3 2
Alibaba с Qwen2.5-Turbo бъёт рекорды скорости в работе с 1M токенов контекста
Модель Qwen2.5-Turbo демонстрирует 4х кратный рост скорости обработки гигантских объемов текста документов.
Технология sparse attention позволила сжать вычисления в 12.5 раз, обеспечив ускорение обработки в 3.2-4.3 раза.
Система успешно справляется с полными романами (690k токенов), кодовыми базами (133k) и научными статьями (171k).
Производительность сопоставима с GPT-4o-mini и превосходит аналогичные открытые решения.
Кому нужен RAG вообще с таким контекстным окном.. Правда тут Гугл к Новому Году 2млн обещает, - интересно что у них по скорости будет
#Qwen #LongContext #SparseAttention #Китай #Alibaba
-------
@tsingular
Модель Qwen2.5-Turbo демонстрирует 4х кратный рост скорости обработки гигантских объемов текста документов.
Технология sparse attention позволила сжать вычисления в 12.5 раз, обеспечив ускорение обработки в 3.2-4.3 раза.
Система успешно справляется с полными романами (690k токенов), кодовыми базами (133k) и научными статьями (171k).
Производительность сопоставима с GPT-4o-mini и превосходит аналогичные открытые решения.
Кому нужен RAG вообще с таким контекстным окном.. Правда тут Гугл к Новому Году 2млн обещает, - интересно что у них по скорости будет
#Qwen #LongContext #SparseAttention #Китай #Alibaba
-------
@tsingular
🍾5⚡3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Добрался я до запрещённой магии :)
Совершенно опаснейшая штука эти ваши дипфейки 2024го года выпуска уже.
Реальная работа для людей - снять при хорошем свете минуты 2 видео для обучения модели, а лучше несколько, чтобы в разных локациях или на ходу.
Т.е. это прям съёмочный процесс и он все-таки нужен.
А дальше таких вот 3 видео можно нарезать бесплатно или за $25 в месяц сколько хочешь без логотипов.
Через год нас ждёт идеальный липсинк и идеальная копия интонаций голоса.
#heygen #avatar
———
@tsingular
Совершенно опаснейшая штука эти ваши дипфейки 2024го года выпуска уже.
Реальная работа для людей - снять при хорошем свете минуты 2 видео для обучения модели, а лучше несколько, чтобы в разных локациях или на ходу.
Т.е. это прям съёмочный процесс и он все-таки нужен.
А дальше таких вот 3 видео можно нарезать бесплатно или за $25 в месяц сколько хочешь без логотипов.
Через год нас ждёт идеальный липсинк и идеальная копия интонаций голоса.
#heygen #avatar
———
@tsingular
1👍11⚡5🆒4
ElevenLabs запускает полноценную платформу разговорных AI-агентов
ElevenLabs трансформируется из сервиса клонирования голоса в комплексную платформу создания разговорных ботов.
Новая система поддерживает Gemini, GPT и Claude, интеграцию баз знаний через файлы и URL.
Предоставляет гибкие настройки: выбор языка, температуры ответов, лимитов токенов, параметров голоса.
SDK совместим с Python, Javascript, React и Swift, поддерживает WebSocket API.
Компания планирует привлечь финансирование с оценкой более $3 млрд, конкурируя с Vapi, Retell и OpenAI.
Теперь роботы смогут не только думать, но и разговаривать человеческими голосами. Колл-центры на выход! 🤖📞
#ElevenLabs #VoiceAI #ChatBots
-------
@tsingular
ElevenLabs трансформируется из сервиса клонирования голоса в комплексную платформу создания разговорных ботов.
Новая система поддерживает Gemini, GPT и Claude, интеграцию баз знаний через файлы и URL.
Предоставляет гибкие настройки: выбор языка, температуры ответов, лимитов токенов, параметров голоса.
SDK совместим с Python, Javascript, React и Swift, поддерживает WebSocket API.
Компания планирует привлечь финансирование с оценкой более $3 млрд, конкурируя с Vapi, Retell и OpenAI.
Теперь роботы смогут не только думать, но и разговаривать человеческими голосами. Колл-центры на выход! 🤖📞
#ElevenLabs #VoiceAI #ChatBots
-------
@tsingular
👍7 4⚡2
NVIDIA выпускает GPU H200 NVL быстрее в 1.7x раза в сравнеии с H100
NVIDIA расширила линейку вычислительных систем двумя моделями для центров обработки данных.
H200 NVL - двухслотовая PCIe карта с памятью HBM3e объёмом 141 ГБ и пропускной способностью 4,8 ТБ/с.
Можно собрать до восьми карт в мини-кластер с суммарным объёмом памяти 1126 ГБ.
NVLink при этом позволяет обеспечить межпроцессорную связь в 7 раз быстрее чем PCIe Gen5.
Так же показали GB200 NVL4 - комбинирует два 72-ядерных процессора Grace и четыре B100 в компактном корпусе с жидкостным охлаждением.
Система поддерживает 960 ГБ памяти LPDDR5X и 768 ГБ HBM3e при энергопотреблении до 5,5 кВт.
Поставки начнутся в декабре через Dell, HPE, Lenovo, Supermicro и других партнеров.
NVidia явно запрягла ИИ в проектирование процессоров, - с такой скоростью новинки клепать! 🤖
#NVIDIA #H200 #NVLink
-------
@tsingular
NVIDIA расширила линейку вычислительных систем двумя моделями для центров обработки данных.
H200 NVL - двухслотовая PCIe карта с памятью HBM3e объёмом 141 ГБ и пропускной способностью 4,8 ТБ/с.
Можно собрать до восьми карт в мини-кластер с суммарным объёмом памяти 1126 ГБ.
NVLink при этом позволяет обеспечить межпроцессорную связь в 7 раз быстрее чем PCIe Gen5.
Так же показали GB200 NVL4 - комбинирует два 72-ядерных процессора Grace и четыре B100 в компактном корпусе с жидкостным охлаждением.
Система поддерживает 960 ГБ памяти LPDDR5X и 768 ГБ HBM3e при энергопотреблении до 5,5 кВт.
Поставки начнутся в декабре через Dell, HPE, Lenovo, Supermicro и других партнеров.
NVidia явно запрягла ИИ в проектирование процессоров, - с такой скоростью новинки клепать! 🤖
#NVIDIA #H200 #NVLink
-------
@tsingular
🔥7🆒2👾2❤1
Forwarded from эйай ньюз
Pixtral Large 🔥 🔥 🔥
Новая моделька от Mistral на 124B параметров является мультимодальным расширением Mistral Large 2, но с обновлённым системным промптом и улучшенным пониманием длинного контекста в 128K токенов. На мультимодальных бенчах показывает себя очень хорошо, по заявлениям чуть ли не SOTA.
Но Mistral часто убирает неудобные бенчи или модели из своих анонсов. Конкретно тут непонятно с какими версиями моделей сравнивают, плюс как-то очень удобно "забыли" про мультимодального Qwen2-VL и Molmo. Я добавил таблицу с ними тоже. По сути Pixtral Large даже слегка хуже чем Qwen.
Также можно потыкаться в Le Chat. Он, кстати, тоже мощно обновился. Добавили веб-поиск с ссылками на цитаты. Canvas для редактирования аутпута inline, не переписывая всё заново, как это недавно сделали в ChatGPT. Ещё прикрутили Flux Pro прямо в чат.
Веса уже лежат на Hugging Face
Le Chat
Или подключиться по API
Подробнее
@ai_newz
Новая моделька от Mistral на 124B параметров является мультимодальным расширением Mistral Large 2, но с обновлённым системным промптом и улучшенным пониманием длинного контекста в 128K токенов. На мультимодальных бенчах показывает себя очень хорошо, по заявлениям чуть ли не SOTA.
Но Mistral часто убирает неудобные бенчи или модели из своих анонсов. Конкретно тут непонятно с какими версиями моделей сравнивают, плюс как-то очень удобно "забыли" про мультимодального Qwen2-VL и Molmo. Я добавил таблицу с ними тоже. По сути Pixtral Large даже слегка хуже чем Qwen.
Также можно потыкаться в Le Chat. Он, кстати, тоже мощно обновился. Добавили веб-поиск с ссылками на цитаты. Canvas для редактирования аутпута inline, не переписывая всё заново, как это недавно сделали в ChatGPT. Ещё прикрутили Flux Pro прямо в чат.
Веса уже лежат на Hugging Face
Le Chat
Или подключиться по API
Подробнее
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
Forwarded from Топ кибербезопасности Батранкова (Denis Batrankov ИКС Холдинг)
AI Security.pdf
3.5 MB
Начинаем защищать ИИ
Уже упоминал презентацию по искусственному интеллекту, которую я рассказывал в Кибердоме. Прикладываю ее в PDF.
Если вы уже осознали угрозы и думаете как защищаться, посмотрите вот эти OpenSource утилиты.
1. Inspect: Этот инструмент в свободный доступ выложил Британский институт проблем безопасности ИИ (AI Safety Institute). Он позволяет проводить всестороннюю оценку моделей ИИ, выявляя их слабые места и потенциальные уязвимости.
2. PentestGPT: Автоматизируя процесс пентестинга, этот инструмент помогает специалистам по кибербезопасности находить и устранять уязвимости в системах до того, как их смогут использовать злоумышленники.
3. LLMFuzzer: Этот инструмент помогает обнаруживать проблемы в больших языковых моделях путем подачи неожиданных данных, что может выявить скрытые уязвимости.
4. Vigil-LLM: Сканируя входящие запросы к языковым моделям, Vigil-LLM предотвращает атаки на системы ИИ до того, как они могут нанести вред.
5. Rebuff.Ai: Фильтруя злонамеренные запросы, этот инструмент защищает языковые модели от манипуляций и потенциальных атак.
Этот список легко расширить, однако, давайте есть слона по кусочкам и начнем с этих пяти.
Уже упоминал презентацию по искусственному интеллекту, которую я рассказывал в Кибердоме. Прикладываю ее в PDF.
Если вы уже осознали угрозы и думаете как защищаться, посмотрите вот эти OpenSource утилиты.
1. Inspect: Этот инструмент в свободный доступ выложил Британский институт проблем безопасности ИИ (AI Safety Institute). Он позволяет проводить всестороннюю оценку моделей ИИ, выявляя их слабые места и потенциальные уязвимости.
2. PentestGPT: Автоматизируя процесс пентестинга, этот инструмент помогает специалистам по кибербезопасности находить и устранять уязвимости в системах до того, как их смогут использовать злоумышленники.
3. LLMFuzzer: Этот инструмент помогает обнаруживать проблемы в больших языковых моделях путем подачи неожиданных данных, что может выявить скрытые уязвимости.
4. Vigil-LLM: Сканируя входящие запросы к языковым моделям, Vigil-LLM предотвращает атаки на системы ИИ до того, как они могут нанести вред.
5. Rebuff.Ai: Фильтруя злонамеренные запросы, этот инструмент защищает языковые модели от манипуляций и потенциальных атак.
Этот список легко расширить, однако, давайте есть слона по кусочкам и начнем с этих пяти.
👍8✍2🤝2
This media is not supported in your browser
VIEW IN TELEGRAM
Suno v4 вышла в релиз.
Пропали металлические артефакты.
Лучше генерит музыку, но для текста песен все-таки лучше пока использовать Claude Sonnet 3.5
#Suno #Sonnet #музыка
------
@tsingular
Пропали металлические артефакты.
Лучше генерит музыку, но для текста песен все-таки лучше пока использовать Claude Sonnet 3.5
#Suno #Sonnet #музыка
------
@tsingular
В США с 2000-го года существует United States–China Economic and Security Review Commission. В комиссии 12 членов, сама комиссия подчиняется только Конгрессу и не является частью никакого агентства или департамента. Каждый год до 1-го декабря комиссия публикует отчёт, в котором в том числе даёт рекомендации Конгрессу.
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
https://t.iss.one/seeallochnaya/2039
#AGI #USA #government
———
@tsingular
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
https://t.iss.one/seeallochnaya/2039
#AGI #USA #government
———
@tsingular
👀30🔥10 5
Gemini получил функцию долговременной памяти
Google активировал для Gemini Advanced способность запоминать информацию о пользователях, их интересах, предпочтениях, работе, целях и стремлениях.
Функционал включает специальную страницу управления сохраненными сведениями с возможностью просмотра, редактирования и удаления.
Система автоматически уведомляет об использовании персональной информации в ответах.
Нововведение доступно исключительно на английском языке для подписчиков Google One AI Premium.
Аналогичная функция была представлена в ChatGPT Plus весной 2024 года.
ИИ заведёт личное дело на каждого теперь. 📝🤖
#Google #Gemini #Memory
-------
@tsingular
Google активировал для Gemini Advanced способность запоминать информацию о пользователях, их интересах, предпочтениях, работе, целях и стремлениях.
Функционал включает специальную страницу управления сохраненными сведениями с возможностью просмотра, редактирования и удаления.
Система автоматически уведомляет об использовании персональной информации в ответах.
Нововведение доступно исключительно на английском языке для подписчиков Google One AI Premium.
Аналогичная функция была представлена в ChatGPT Plus весной 2024 года.
ИИ заведёт личное дело на каждого теперь. 📝🤖
#Google #Gemini #Memory
-------
@tsingular
💯4❤2👍2🤨1
Step-2-16k: Китайская LLM, практически равная o1, появилась в таблице лидеров
StepFun представила первую китайскую языковую модель с триллионом параметров.
Step-2-16k заняла 5-е место в LiveBench, обойдя большинство западных аналогов.
Архитектура построена на Mixture of Experts с контекстным окном в 16000 токенов. (удивительно мало для такой огромной модели)
Модель демонстрирует высший балл в категории следования инструкциям (IF Score: 86.57).
Доступна через API и интегрированного ассистента Yuewen.
Китаю буквально пол шага осталось до уровня Sonnet 3.5.
#StepFun #LiveBench #Китай
-------
@tsingular
StepFun представила первую китайскую языковую модель с триллионом параметров.
Step-2-16k заняла 5-е место в LiveBench, обойдя большинство западных аналогов.
Архитектура построена на Mixture of Experts с контекстным окном в 16000 токенов. (удивительно мало для такой огромной модели)
Модель демонстрирует высший балл в категории следования инструкциям (IF Score: 86.57).
Доступна через API и интегрированного ассистента Yuewen.
Китаю буквально пол шага осталось до уровня Sonnet 3.5.
#StepFun #LiveBench #Китай
-------
@tsingular
👍5🔥2⚡1
Новый Каталог ИИ агентов
К вашим услугам 446 агентcких фреймворка.
Из них:
142 комплексных агентских фреймворка
56 - продуктивность
55 - разработка
42 - поддержка пользователей
58 - персональные ассистенты
28 - дата аналитики
20 - управление процессами
19 - создание и генерация контента
12 - цифровые исследователи
Сайт обновляется еженедельно и похоже скоро будет как каталожище HF (там уже 1.1 млн моделей, кстати, если вы давно не заходили)
Пора, похоже, перебороть фобию эту и -таки попробовать что-нибудь в докере.
#Agents #Каталог
———
@tsingular
К вашим услугам 446 агентcких фреймворка.
Из них:
142 комплексных агентских фреймворка
56 - продуктивность
55 - разработка
42 - поддержка пользователей
58 - персональные ассистенты
28 - дата аналитики
20 - управление процессами
19 - создание и генерация контента
12 - цифровые исследователи
Сайт обновляется еженедельно и похоже скоро будет как каталожище HF (там уже 1.1 млн моделей, кстати, если вы давно не заходили)
Пора, похоже, перебороть фобию эту и -таки попробовать что-нибудь в докере.
#Agents #Каталог
———
@tsingular
🔥9❤4👍1
LLaVA-o1: Новая открытая визуальная нейронка с пошаговыми рассуждениями
Вышла визуально-языковая модель LLaVA-o1 в 11 млрд. параметров.
Превосходит Gemini-1.5-pro и GPT-4o-mini в комплексных задачах анализа изображений.
Нейросеть применяет четырёхэтапный подход:
1. описание задачи
2. интерпретация картинки
3. логический анализ
4. формирование вывода.
Файнтюн сделан на базе Llama-3.2-11B-Vision-Instruct на датасете LLaVA-o1-100k с использованием 8 GPU H100.
Демонстрирует особую эффективность в математических и научных задачах.
https://huggingface.co/Xkev/Llama-3.2V-11B-cot
А вот и парсер для сложных PDF документов, кстати.
46 гигов полный размер. в 2х4090 впритык будет.
Отдельно полезно пэйпер почитать, чтобы понять как оно под капотом устроено:
https://arxiv.org/html/2411.10440v1
#LLaVA #ComputerVision #agents #CoT
-------
@tsingular
Вышла визуально-языковая модель LLaVA-o1 в 11 млрд. параметров.
Превосходит Gemini-1.5-pro и GPT-4o-mini в комплексных задачах анализа изображений.
Нейросеть применяет четырёхэтапный подход:
1. описание задачи
2. интерпретация картинки
3. логический анализ
4. формирование вывода.
Файнтюн сделан на базе Llama-3.2-11B-Vision-Instruct на датасете LLaVA-o1-100k с использованием 8 GPU H100.
Демонстрирует особую эффективность в математических и научных задачах.
https://huggingface.co/Xkev/Llama-3.2V-11B-cot
А вот и парсер для сложных PDF документов, кстати.
46 гигов полный размер. в 2х4090 впритык будет.
Отдельно полезно пэйпер почитать, чтобы понять как оно под капотом устроено:
https://arxiv.org/html/2411.10440v1
#LLaVA #ComputerVision #agents #CoT
-------
@tsingular
✍2👍2⚡1
Forwarded from эйай ньюз
Llama 3.1 405B ускорили почти до тысячи токенов в секунду
Cerebras наконец-то нашли достаточное количество своих CS-3, чтобы запустить Llama 405B, применили к ней Speculative Decoding, который использовали для ускорения 70B до 2к токенов, и обскакали SambaNova почти в 6 раз. Стоить это будет $6 input/$12 output за миллион токенов и уже доступно в бете. Всем пользователям дадут доступ в первом квартале 2025.
Столько ждать нужно из-за крайне плохой доступности железа - для того чтобы запустить Llama 405B, нужно 20-30 CS-3. Для сравнения, в Condor Galaxy, суперкомпьютере на чипах Cerebras, всего 64 CS-3. А стоит он больше ста миллионов долларов. Надеюсь, что если им удастся перейти на массовое производство, то стоимость их систем значительно упадёт. Иначе прибыльность такого API сомнительна.
Проблемы с доступностью не только у Cerebras — есть они и у Groq, которые больше трёх месяцев обещают API 405B, но, видимо, чипов просто не хватает (для запуска 405B нужно около четырёх тысяч чипов Groq). А пока что они почти догнали Cerebras на инференсе Llama 70B — 1669 токенов в секунду, при этом обещая, что следующее поколение чипов будет сильно быстрее.
К сожалению, доступ всем юзерам через чат на этот раз не дали. Да и длина контекста пока что всего 8к, но на релизе обещают сделать доступным и 128к. Скорость при таком контексте, правда, проседает, но всё равно больше полутысячи токенов в секунду. Надеюсь, к полноценному релизу R1 они откопают ещё один суперкомпьютер, и будет у нас модель, думающая секунды вместо минут.
@ai_newz
Cerebras наконец-то нашли достаточное количество своих CS-3, чтобы запустить Llama 405B, применили к ней Speculative Decoding, который использовали для ускорения 70B до 2к токенов, и обскакали SambaNova почти в 6 раз. Стоить это будет $6 input/$12 output за миллион токенов и уже доступно в бете. Всем пользователям дадут доступ в первом квартале 2025.
Столько ждать нужно из-за крайне плохой доступности железа - для того чтобы запустить Llama 405B, нужно 20-30 CS-3. Для сравнения, в Condor Galaxy, суперкомпьютере на чипах Cerebras, всего 64 CS-3. А стоит он больше ста миллионов долларов. Надеюсь, что если им удастся перейти на массовое производство, то стоимость их систем значительно упадёт. Иначе прибыльность такого API сомнительна.
Проблемы с доступностью не только у Cerebras — есть они и у Groq, которые больше трёх месяцев обещают API 405B, но, видимо, чипов просто не хватает (для запуска 405B нужно около четырёх тысяч чипов Groq). А пока что они почти догнали Cerebras на инференсе Llama 70B — 1669 токенов в секунду, при этом обещая, что следующее поколение чипов будет сильно быстрее.
К сожалению, доступ всем юзерам через чат на этот раз не дали. Да и длина контекста пока что всего 8к, но на релизе обещают сделать доступным и 128к. Скорость при таком контексте, правда, проседает, но всё равно больше полутысячи токенов в секунду. Надеюсь, к полноценному релизу R1 они откопают ещё один суперкомпьютер, и будет у нас модель, думающая секунды вместо минут.
@ai_newz
👍5
GPT-4o получил обновление 🎉
Тексты стали более творческими и естественными.
Лучше работает с загружаемыми файлами, предоставляя более глубокое понимание и более тщательные ответы.
В api нужно поменять модель на gpt-4o-2024-11-20
Текущая gpt-4o пока ссылается на августовскую версию.
Elo подрос (1365 → 1402)
#OpenAI #GPT-4o
------
@tsingular
Тексты стали более творческими и естественными.
Лучше работает с загружаемыми файлами, предоставляя более глубокое понимание и более тщательные ответы.
В api нужно поменять модель на gpt-4o-2024-11-20
Текущая gpt-4o пока ссылается на августовскую версию.
Elo подрос (1365 → 1402)
#OpenAI #GPT-4o
------
@tsingular
👍1
Forwarded from Анализ данных (Data analysis)
Qwen2.5-Версия Turbo, которая включает:
📚 Поддержка расширенного контекста: Разработчики увеличили длину контекста модели со 128L до 1 М, что составляет примерно 1 миллион английских слов или 1,5 миллиона китайских иероглифов, что эквивалентно 10 крупным романам, 150 часам расшифровки речи или 30 000 строкам кода.
🚀 Более высокая скорость логического вывода: Используя механизмы разреженного внимания, разработчики успешно сократили время обработки контекста 1 млн токенов с 4,9 минут до 68 секунд, достигнув ускорения в 4,3 раза.
✅ Более низкая стоимость: При той же стоимости Qwen2.5-Turbo может обрабатывать в 3,6 раза больше токенов, чем GPT-4o-mini.
Теперь вы можете использовать его через API-сервис <url>.
➡ Alibaba Cloud Model Studio: https://help.aliyun.com/zh/model-studio/getting-started/what-is-model-studio,
➡ HF: https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
➡ Демо: https://modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo
@data_analysis_ml
📚 Поддержка расширенного контекста: Разработчики увеличили длину контекста модели со 128L до 1 М, что составляет примерно 1 миллион английских слов или 1,5 миллиона китайских иероглифов, что эквивалентно 10 крупным романам, 150 часам расшифровки речи или 30 000 строкам кода.
🚀 Более высокая скорость логического вывода: Используя механизмы разреженного внимания, разработчики успешно сократили время обработки контекста 1 млн токенов с 4,9 минут до 68 секунд, достигнув ускорения в 4,3 раза.
✅ Более низкая стоимость: При той же стоимости Qwen2.5-Turbo может обрабатывать в 3,6 раза больше токенов, чем GPT-4o-mini.
Теперь вы можете использовать его через API-сервис <url>.
➡ Alibaba Cloud Model Studio: https://help.aliyun.com/zh/model-studio/getting-started/what-is-model-studio,
➡ HF: https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
➡ Демо: https://modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo
@data_analysis_ml
🔥4👍3
Google Translation AI: масштабное обновление системы перевода
В Vertex AI добавлена поддержка 189 языков, включая кантонский, фиджийский и балийский.
Translation AI интегрирована с Gemini, предоставляя адаптивный перевод через Studio.
Обновленный сервис доказал превосходство в 97% языковых комбинаций над конкурентами.
Uber уже внедрил технологию для коммуникации между водителями и клиентами.
Статистика показывает, что 40% потребителей избегают сайтов не на родном языке.
Полезно для международки. В принципе можно строить автоматизированные линии перевода контента целиком на все языки, если вы работаете на несколько стран или если у вас в стране много новых граждан, говорящих на всех языках, кроме вашего.
#Google #Vertex #Translation
-------
@tsingular
В Vertex AI добавлена поддержка 189 языков, включая кантонский, фиджийский и балийский.
Translation AI интегрирована с Gemini, предоставляя адаптивный перевод через Studio.
Обновленный сервис доказал превосходство в 97% языковых комбинаций над конкурентами.
Uber уже внедрил технологию для коммуникации между водителями и клиентами.
Статистика показывает, что 40% потребителей избегают сайтов не на родном языке.
Полезно для международки. В принципе можно строить автоматизированные линии перевода контента целиком на все языки, если вы работаете на несколько стран или если у вас в стране много новых граждан, говорящих на всех языках, кроме вашего.
#Google #Vertex #Translation
-------
@tsingular
🔥3👀1