This media is not supported in your browser
VIEW IN TELEGRAM
Suno v4 вышла в релиз.
Пропали металлические артефакты.
Лучше генерит музыку, но для текста песен все-таки лучше пока использовать Claude Sonnet 3.5
#Suno #Sonnet #музыка
------
@tsingular
Пропали металлические артефакты.
Лучше генерит музыку, но для текста песен все-таки лучше пока использовать Claude Sonnet 3.5
#Suno #Sonnet #музыка
------
@tsingular
В США с 2000-го года существует United States–China Economic and Security Review Commission. В комиссии 12 членов, сама комиссия подчиняется только Конгрессу и не является частью никакого агентства или департамента. Каждый год до 1-го декабря комиссия публикует отчёт, в котором в том числе даёт рекомендации Конгрессу.
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
https://t.iss.one/seeallochnaya/2039
#AGI #USA #government
———
@tsingular
Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...
«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»
https://t.iss.one/seeallochnaya/2039
#AGI #USA #government
———
@tsingular
👀30🔥10 5
Gemini получил функцию долговременной памяти
Google активировал для Gemini Advanced способность запоминать информацию о пользователях, их интересах, предпочтениях, работе, целях и стремлениях.
Функционал включает специальную страницу управления сохраненными сведениями с возможностью просмотра, редактирования и удаления.
Система автоматически уведомляет об использовании персональной информации в ответах.
Нововведение доступно исключительно на английском языке для подписчиков Google One AI Premium.
Аналогичная функция была представлена в ChatGPT Plus весной 2024 года.
ИИ заведёт личное дело на каждого теперь. 📝🤖
#Google #Gemini #Memory
-------
@tsingular
Google активировал для Gemini Advanced способность запоминать информацию о пользователях, их интересах, предпочтениях, работе, целях и стремлениях.
Функционал включает специальную страницу управления сохраненными сведениями с возможностью просмотра, редактирования и удаления.
Система автоматически уведомляет об использовании персональной информации в ответах.
Нововведение доступно исключительно на английском языке для подписчиков Google One AI Premium.
Аналогичная функция была представлена в ChatGPT Plus весной 2024 года.
ИИ заведёт личное дело на каждого теперь. 📝🤖
#Google #Gemini #Memory
-------
@tsingular
💯4❤2👍2🤨1
Step-2-16k: Китайская LLM, практически равная o1, появилась в таблице лидеров
StepFun представила первую китайскую языковую модель с триллионом параметров.
Step-2-16k заняла 5-е место в LiveBench, обойдя большинство западных аналогов.
Архитектура построена на Mixture of Experts с контекстным окном в 16000 токенов. (удивительно мало для такой огромной модели)
Модель демонстрирует высший балл в категории следования инструкциям (IF Score: 86.57).
Доступна через API и интегрированного ассистента Yuewen.
Китаю буквально пол шага осталось до уровня Sonnet 3.5.
#StepFun #LiveBench #Китай
-------
@tsingular
StepFun представила первую китайскую языковую модель с триллионом параметров.
Step-2-16k заняла 5-е место в LiveBench, обойдя большинство западных аналогов.
Архитектура построена на Mixture of Experts с контекстным окном в 16000 токенов. (удивительно мало для такой огромной модели)
Модель демонстрирует высший балл в категории следования инструкциям (IF Score: 86.57).
Доступна через API и интегрированного ассистента Yuewen.
Китаю буквально пол шага осталось до уровня Sonnet 3.5.
#StepFun #LiveBench #Китай
-------
@tsingular
👍5🔥2⚡1
Новый Каталог ИИ агентов
К вашим услугам 446 агентcких фреймворка.
Из них:
142 комплексных агентских фреймворка
56 - продуктивность
55 - разработка
42 - поддержка пользователей
58 - персональные ассистенты
28 - дата аналитики
20 - управление процессами
19 - создание и генерация контента
12 - цифровые исследователи
Сайт обновляется еженедельно и похоже скоро будет как каталожище HF (там уже 1.1 млн моделей, кстати, если вы давно не заходили)
Пора, похоже, перебороть фобию эту и -таки попробовать что-нибудь в докере.
#Agents #Каталог
———
@tsingular
К вашим услугам 446 агентcких фреймворка.
Из них:
142 комплексных агентских фреймворка
56 - продуктивность
55 - разработка
42 - поддержка пользователей
58 - персональные ассистенты
28 - дата аналитики
20 - управление процессами
19 - создание и генерация контента
12 - цифровые исследователи
Сайт обновляется еженедельно и похоже скоро будет как каталожище HF (там уже 1.1 млн моделей, кстати, если вы давно не заходили)
Пора, похоже, перебороть фобию эту и -таки попробовать что-нибудь в докере.
#Agents #Каталог
———
@tsingular
🔥9❤4👍1
LLaVA-o1: Новая открытая визуальная нейронка с пошаговыми рассуждениями
Вышла визуально-языковая модель LLaVA-o1 в 11 млрд. параметров.
Превосходит Gemini-1.5-pro и GPT-4o-mini в комплексных задачах анализа изображений.
Нейросеть применяет четырёхэтапный подход:
1. описание задачи
2. интерпретация картинки
3. логический анализ
4. формирование вывода.
Файнтюн сделан на базе Llama-3.2-11B-Vision-Instruct на датасете LLaVA-o1-100k с использованием 8 GPU H100.
Демонстрирует особую эффективность в математических и научных задачах.
https://huggingface.co/Xkev/Llama-3.2V-11B-cot
А вот и парсер для сложных PDF документов, кстати.
46 гигов полный размер. в 2х4090 впритык будет.
Отдельно полезно пэйпер почитать, чтобы понять как оно под капотом устроено:
https://arxiv.org/html/2411.10440v1
#LLaVA #ComputerVision #agents #CoT
-------
@tsingular
Вышла визуально-языковая модель LLaVA-o1 в 11 млрд. параметров.
Превосходит Gemini-1.5-pro и GPT-4o-mini в комплексных задачах анализа изображений.
Нейросеть применяет четырёхэтапный подход:
1. описание задачи
2. интерпретация картинки
3. логический анализ
4. формирование вывода.
Файнтюн сделан на базе Llama-3.2-11B-Vision-Instruct на датасете LLaVA-o1-100k с использованием 8 GPU H100.
Демонстрирует особую эффективность в математических и научных задачах.
https://huggingface.co/Xkev/Llama-3.2V-11B-cot
А вот и парсер для сложных PDF документов, кстати.
46 гигов полный размер. в 2х4090 впритык будет.
Отдельно полезно пэйпер почитать, чтобы понять как оно под капотом устроено:
https://arxiv.org/html/2411.10440v1
#LLaVA #ComputerVision #agents #CoT
-------
@tsingular
✍2👍2⚡1
Forwarded from эйай ньюз
Llama 3.1 405B ускорили почти до тысячи токенов в секунду
Cerebras наконец-то нашли достаточное количество своих CS-3, чтобы запустить Llama 405B, применили к ней Speculative Decoding, который использовали для ускорения 70B до 2к токенов, и обскакали SambaNova почти в 6 раз. Стоить это будет $6 input/$12 output за миллион токенов и уже доступно в бете. Всем пользователям дадут доступ в первом квартале 2025.
Столько ждать нужно из-за крайне плохой доступности железа - для того чтобы запустить Llama 405B, нужно 20-30 CS-3. Для сравнения, в Condor Galaxy, суперкомпьютере на чипах Cerebras, всего 64 CS-3. А стоит он больше ста миллионов долларов. Надеюсь, что если им удастся перейти на массовое производство, то стоимость их систем значительно упадёт. Иначе прибыльность такого API сомнительна.
Проблемы с доступностью не только у Cerebras — есть они и у Groq, которые больше трёх месяцев обещают API 405B, но, видимо, чипов просто не хватает (для запуска 405B нужно около четырёх тысяч чипов Groq). А пока что они почти догнали Cerebras на инференсе Llama 70B — 1669 токенов в секунду, при этом обещая, что следующее поколение чипов будет сильно быстрее.
К сожалению, доступ всем юзерам через чат на этот раз не дали. Да и длина контекста пока что всего 8к, но на релизе обещают сделать доступным и 128к. Скорость при таком контексте, правда, проседает, но всё равно больше полутысячи токенов в секунду. Надеюсь, к полноценному релизу R1 они откопают ещё один суперкомпьютер, и будет у нас модель, думающая секунды вместо минут.
@ai_newz
Cerebras наконец-то нашли достаточное количество своих CS-3, чтобы запустить Llama 405B, применили к ней Speculative Decoding, который использовали для ускорения 70B до 2к токенов, и обскакали SambaNova почти в 6 раз. Стоить это будет $6 input/$12 output за миллион токенов и уже доступно в бете. Всем пользователям дадут доступ в первом квартале 2025.
Столько ждать нужно из-за крайне плохой доступности железа - для того чтобы запустить Llama 405B, нужно 20-30 CS-3. Для сравнения, в Condor Galaxy, суперкомпьютере на чипах Cerebras, всего 64 CS-3. А стоит он больше ста миллионов долларов. Надеюсь, что если им удастся перейти на массовое производство, то стоимость их систем значительно упадёт. Иначе прибыльность такого API сомнительна.
Проблемы с доступностью не только у Cerebras — есть они и у Groq, которые больше трёх месяцев обещают API 405B, но, видимо, чипов просто не хватает (для запуска 405B нужно около четырёх тысяч чипов Groq). А пока что они почти догнали Cerebras на инференсе Llama 70B — 1669 токенов в секунду, при этом обещая, что следующее поколение чипов будет сильно быстрее.
К сожалению, доступ всем юзерам через чат на этот раз не дали. Да и длина контекста пока что всего 8к, но на релизе обещают сделать доступным и 128к. Скорость при таком контексте, правда, проседает, но всё равно больше полутысячи токенов в секунду. Надеюсь, к полноценному релизу R1 они откопают ещё один суперкомпьютер, и будет у нас модель, думающая секунды вместо минут.
@ai_newz
👍5
GPT-4o получил обновление 🎉
Тексты стали более творческими и естественными.
Лучше работает с загружаемыми файлами, предоставляя более глубокое понимание и более тщательные ответы.
В api нужно поменять модель на gpt-4o-2024-11-20
Текущая gpt-4o пока ссылается на августовскую версию.
Elo подрос (1365 → 1402)
#OpenAI #GPT-4o
------
@tsingular
Тексты стали более творческими и естественными.
Лучше работает с загружаемыми файлами, предоставляя более глубокое понимание и более тщательные ответы.
В api нужно поменять модель на gpt-4o-2024-11-20
Текущая gpt-4o пока ссылается на августовскую версию.
Elo подрос (1365 → 1402)
#OpenAI #GPT-4o
------
@tsingular
👍1
Forwarded from Анализ данных (Data analysis)
Qwen2.5-Версия Turbo, которая включает:
📚 Поддержка расширенного контекста: Разработчики увеличили длину контекста модели со 128L до 1 М, что составляет примерно 1 миллион английских слов или 1,5 миллиона китайских иероглифов, что эквивалентно 10 крупным романам, 150 часам расшифровки речи или 30 000 строкам кода.
🚀 Более высокая скорость логического вывода: Используя механизмы разреженного внимания, разработчики успешно сократили время обработки контекста 1 млн токенов с 4,9 минут до 68 секунд, достигнув ускорения в 4,3 раза.
✅ Более низкая стоимость: При той же стоимости Qwen2.5-Turbo может обрабатывать в 3,6 раза больше токенов, чем GPT-4o-mini.
Теперь вы можете использовать его через API-сервис <url>.
➡ Alibaba Cloud Model Studio: https://help.aliyun.com/zh/model-studio/getting-started/what-is-model-studio,
➡ HF: https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
➡ Демо: https://modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo
@data_analysis_ml
📚 Поддержка расширенного контекста: Разработчики увеличили длину контекста модели со 128L до 1 М, что составляет примерно 1 миллион английских слов или 1,5 миллиона китайских иероглифов, что эквивалентно 10 крупным романам, 150 часам расшифровки речи или 30 000 строкам кода.
🚀 Более высокая скорость логического вывода: Используя механизмы разреженного внимания, разработчики успешно сократили время обработки контекста 1 млн токенов с 4,9 минут до 68 секунд, достигнув ускорения в 4,3 раза.
✅ Более низкая стоимость: При той же стоимости Qwen2.5-Turbo может обрабатывать в 3,6 раза больше токенов, чем GPT-4o-mini.
Теперь вы можете использовать его через API-сервис <url>.
➡ Alibaba Cloud Model Studio: https://help.aliyun.com/zh/model-studio/getting-started/what-is-model-studio,
➡ HF: https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
➡ Демо: https://modelscope.cn/studios/Qwen/Qwen2.5-Turbo-1M-Demo
@data_analysis_ml
🔥4👍3
Google Translation AI: масштабное обновление системы перевода
В Vertex AI добавлена поддержка 189 языков, включая кантонский, фиджийский и балийский.
Translation AI интегрирована с Gemini, предоставляя адаптивный перевод через Studio.
Обновленный сервис доказал превосходство в 97% языковых комбинаций над конкурентами.
Uber уже внедрил технологию для коммуникации между водителями и клиентами.
Статистика показывает, что 40% потребителей избегают сайтов не на родном языке.
Полезно для международки. В принципе можно строить автоматизированные линии перевода контента целиком на все языки, если вы работаете на несколько стран или если у вас в стране много новых граждан, говорящих на всех языках, кроме вашего.
#Google #Vertex #Translation
-------
@tsingular
В Vertex AI добавлена поддержка 189 языков, включая кантонский, фиджийский и балийский.
Translation AI интегрирована с Gemini, предоставляя адаптивный перевод через Studio.
Обновленный сервис доказал превосходство в 97% языковых комбинаций над конкурентами.
Uber уже внедрил технологию для коммуникации между водителями и клиентами.
Статистика показывает, что 40% потребителей избегают сайтов не на родном языке.
Полезно для международки. В принципе можно строить автоматизированные линии перевода контента целиком на все языки, если вы работаете на несколько стран или если у вас в стране много новых граждан, говорящих на всех языках, кроме вашего.
#Google #Vertex #Translation
-------
@tsingular
🔥3👀1
Media is too big
VIEW IN TELEGRAM
Новый ролик от 3Blue1Brown - легендарного автора обучающих материалов по ИИ
На этот раз очень кратко, - буквально за 7 минут объясняет суть работы LLM.
Подойдёт всем, кто только въезжает в тему.
Подготовил для вас перевод на русский язык, надеюсь будет полезно.
Делитесь с друзьями и знакомыми, кто еще не в теме.
#3blue1brown #LLM #обучение #elevenlabs #переводы
———
@tsingular
На этот раз очень кратко, - буквально за 7 минут объясняет суть работы LLM.
Подойдёт всем, кто только въезжает в тему.
Подготовил для вас перевод на русский язык, надеюсь будет полезно.
Делитесь с друзьями и знакомыми, кто еще не в теме.
#3blue1brown #LLM #обучение #elevenlabs #переводы
———
@tsingular
👍13✍3
Forwarded from Фабрика контента
Media is too big
VIEW IN TELEGRAM
DeepL представили переводчик для онлайн встреч на любые языки в реальном времени.
Совсем скоро языковые барьеры падут, но английский учить всё равно надо ☀️
😎 Фабрика контента.
Совсем скоро языковые барьеры падут, но английский учить всё равно надо ☀️
Please open Telegram to view this post
VIEW IN TELEGRAM
👏4⚡1🔥1
Яндекс запускает конструктор цифровых ассистентов
Российский IT-гигант представил AI assistant API - сервис для создания персонализированных виртуальных помощников.
Разработчики получают доступ к мощным языковым моделям YandexGPT через облачную платформу.
Foundation Models позволяет настраивать характер, роли и поведение цифровых ассистентов.
Функционал включает создание как простых чат-ботов, так и комплексных решений с расширенными возможностями.
ИИ ассистенты в каждый бизнес! Девиз 2025! :) 🤖
#Yandex #Яндекс #AssistantAPI #интеграция
-------
@tsingular
Российский IT-гигант представил AI assistant API - сервис для создания персонализированных виртуальных помощников.
Разработчики получают доступ к мощным языковым моделям YandexGPT через облачную платформу.
Foundation Models позволяет настраивать характер, роли и поведение цифровых ассистентов.
Функционал включает создание как простых чат-ботов, так и комплексных решений с расширенными возможностями.
ИИ ассистенты в каждый бизнес! Девиз 2025! :) 🤖
#Yandex #Яндекс #AssistantAPI #интеграция
-------
@tsingular
🔥8❤🔥2
NVIDIA представила Sana: сверхбыстрый генератор изображений для домашних ПК
NVIDIA Labs выпустила компактный генеративный фреймворк для создания изображений по текстовому описанию с разрешением до 4096×4096 пикселей.
Технология задействует линейный диффузионный трансформер и автоэнкодер со сжатием в 32 раза.
Модели в 2х вариантах: 0.6 млрд параметров и 1.6, - в 20 раз меньше аналогов, при этом работает в 100+ раз быстрее, чем например Flux-12B.
Генерация изображения 1024×1024 занимает менее секунды на обычном ноутбуке с 16GB GPU.
GitHub
Demo
1 кадр в секунду! Фантастика!
#NVIDIA #Sana #text2image
-------
@tsingular
NVIDIA Labs выпустила компактный генеративный фреймворк для создания изображений по текстовому описанию с разрешением до 4096×4096 пикселей.
Технология задействует линейный диффузионный трансформер и автоэнкодер со сжатием в 32 раза.
Модели в 2х вариантах: 0.6 млрд параметров и 1.6, - в 20 раз меньше аналогов, при этом работает в 100+ раз быстрее, чем например Flux-12B.
Генерация изображения 1024×1024 занимает менее секунды на обычном ноутбуке с 16GB GPU.
GitHub
Demo
1 кадр в секунду! Фантастика!
#NVIDIA #Sana #text2image
-------
@tsingular
👍5❤1
GigaChat MAX появился в доступе Сбера для юрлиц.
Работает и через API и в PlayGround ✓проверено.
Самая сильная модель на сегодня.
Единственная у которой есть глазки.👀
https://t.iss.one/official_gigachat/1322
#Сбербанк #GigaChatMax
———
@tsingular
Работает и через API и в PlayGround ✓проверено.
Самая сильная модель на сегодня.
Единственная у которой есть глазки.
https://t.iss.one/official_gigachat/1322
#Сбербанк #GigaChatMax
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
GigaChat
GigaChat MAX стал доступен для компаний 🤖
Бизнес теперь может интегрировать в свои процессы GigaChat MAX — самый мощный искусственный интеллект в России по версии бенчмарка MERA. Модель подходит для решения наиболее сложных задач: от составления технологических…
Бизнес теперь может интегрировать в свои процессы GigaChat MAX — самый мощный искусственный интеллект в России по версии бенчмарка MERA. Модель подходит для решения наиболее сложных задач: от составления технологических…
⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
Готовим RAG системы правильно.
Фиксированный размер обеспечивает равные части по токенам с перекрытием, прост в реализации, но может нарушать смысл.
Семантический подход работает с естественным изложением, повышает точность поиска через косинусное сходство векторов.
Рекурсивное деление сначала разбивает на параграфы, затем дробит крупные сегменты на подструктуры и предложения.
Структурный метод опирается на разделы и подразделы документов, а так же на его опорные элементы и требует четкой организации контента.
LLM-based задействует языковые модели для создания связных частей, ресурсоемок, но семантически точен.
Эффективность каждого метода зависит от типа данных, мощности оборудования и требований к точности.
Отличная шпаргалка от Daily Dose of Data Science 📚
#RAG #chunking #semantics
-------
@tsingular
Фиксированный размер обеспечивает равные части по токенам с перекрытием, прост в реализации, но может нарушать смысл.
Семантический подход работает с естественным изложением, повышает точность поиска через косинусное сходство векторов.
Рекурсивное деление сначала разбивает на параграфы, затем дробит крупные сегменты на подструктуры и предложения.
Структурный метод опирается на разделы и подразделы документов, а так же на его опорные элементы и требует четкой организации контента.
LLM-based задействует языковые модели для создания связных частей, ресурсоемок, но семантически точен.
Эффективность каждого метода зависит от типа данных, мощности оборудования и требований к точности.
Отличная шпаргалка от Daily Dose of Data Science 📚
#RAG #chunking #semantics
-------
@tsingular
👍7⚡2✍2❤1
Anthropic добавили нативную интеграцию Google документов в веб чат.
Достаточно просто кинуть ссылку.
А если еще и проект создать и ссылку на обновляемый скриптами документ сделать, - получается в любой момент можно пообщаться по статусу любого проекта.
#claude #anthropic #google
———
@tsingular
Достаточно просто кинуть ссылку.
А если еще и проект создать и ссылку на обновляемый скриптами документ сделать, - получается в любой момент можно пообщаться по статусу любого проекта.
#claude #anthropic #google
———
@tsingular
❤4👍2✍1
Marco-o1: новая LLM от Alibaba с встроенным механизмом рассуждений
Alibaba представила многоязычную модель Marco-o1, созданную на базе Qwen2-7B-Instruct.
Внедрены Chain-of-Thought и Monte Carlo Tree Search для улучшения логических рассуждений.
Показывает рост точности в тестах MGSM: +6.17% для английского и +5.60% для китайского языков.
Модель доступна в GGUF-форматах от 2 до 32 бит с поддержкой ollama, LM Studio и оптимизацией под CPU/GPU.
Специализируется на точных науках, программировании и комплексном решении открытых задач.
Локально поднимаем o1. Дожили 🤓
ollama run hf.co/bartowski/Marco-o1-GGUF
#Alibaba #MarcoO1 #Китай
-------
@tsingular
Alibaba представила многоязычную модель Marco-o1, созданную на базе Qwen2-7B-Instruct.
Внедрены Chain-of-Thought и Monte Carlo Tree Search для улучшения логических рассуждений.
Показывает рост точности в тестах MGSM: +6.17% для английского и +5.60% для китайского языков.
Модель доступна в GGUF-форматах от 2 до 32 бит с поддержкой ollama, LM Studio и оптимизацией под CPU/GPU.
Специализируется на точных науках, программировании и комплексном решении открытых задач.
Локально поднимаем o1. Дожили 🤓
ollama run hf.co/bartowski/Marco-o1-GGUF
#Alibaba #MarcoO1 #Китай
-------
@tsingular
👍5🆒4⚡3 2