GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3 и SD XL / SD 3
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3
LLaMa-3.1 r
Qwen-2
а также моделей для генерации изображений, таких как Stable Diffusion XL и Stable Diffusion 3.
Скачать сборку GPT4FREE Portable by Neurogen
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3
LLaMa-3.1 r
Qwen-2
а также моделей для генерации изображений, таких как Stable Diffusion XL и Stable Diffusion 3.
Скачать сборку GPT4FREE Portable by Neurogen
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Там Google в рамках ивента MadeByGoogle, показывают Gemini Nano и Gemini Live
Это самая легкая модель из семейства Gemini, которая будет плотно интегрирована в экосистему Android.
Модель мультимодальная, умеет работать с изображениями, видео и аудио.
По факту, Gemini Nano ответ компании Apple с AI функционалом, который был заявлен на презентации iOS 18: языковая модель от Google плотно интегрируется в Android и является AI Ассистентом.
Gemini Live: набор голосом, синтез речи, 10 голосов AI ассистента. По сути, Gemini Live - это ответ на ChatGPT-4o
Обещают, что новые модели будут доступные через пару недель на Google Pixel и ряде других телефонах на базе Android.
#llm #gemini
Это самая легкая модель из семейства Gemini, которая будет плотно интегрирована в экосистему Android.
Модель мультимодальная, умеет работать с изображениями, видео и аудио.
По факту, Gemini Nano ответ компании Apple с AI функционалом, который был заявлен на презентации iOS 18: языковая модель от Google плотно интегрируется в Android и является AI Ассистентом.
Gemini Live: набор голосом, синтез речи, 10 голосов AI ассистента. По сути, Gemini Live - это ответ на ChatGPT-4o
Обещают, что новые модели будут доступные через пару недель на Google Pixel и ряде других телефонах на базе Android.
#llm #gemini
Вышла Grok-2: новая версия языковой модели от Илона Маска.
Grok-2 - значительный шаг вперед по сравнению с предыдущей моделью Grok-1.5, с передовыми возможностями в области чата, программирования и логических рассуждений.
Ранняя версия Grok-2 "sus-column-r" превосходит Claude 3.5 Sonnet и GPT-4-Turbo в таблице лидеров LMSYS.
Grok-2 и Grok-2 mini находятся в стадии бета-тестирования на 𝕏 и будут доступны через корпоративный API.
Grok-2 демонстрирует значительные улучшения в работе с контентом и инструментами, такими как определение недостающей информации и анализ последовательности событий.
Grok-2 и Grok-2 mini достигают уровня производительности, конкурентоспособного с другими передовыми моделями в различных областях, включая научные знания, общие знания и математические задачи.
Также заявлено, что Grok-2 отлично справляется с задачами распознавания изображений, обеспечивая современную производительность в области визуальных математических рассуждений и ответов на вопросы на основе документов.
#ai #llm #groq
Grok-2 - значительный шаг вперед по сравнению с предыдущей моделью Grok-1.5, с передовыми возможностями в области чата, программирования и логических рассуждений.
Ранняя версия Grok-2 "sus-column-r" превосходит Claude 3.5 Sonnet и GPT-4-Turbo в таблице лидеров LMSYS.
Grok-2 и Grok-2 mini находятся в стадии бета-тестирования на 𝕏 и будут доступны через корпоративный API.
Grok-2 демонстрирует значительные улучшения в работе с контентом и инструментами, такими как определение недостающей информации и анализ последовательности событий.
Grok-2 и Grok-2 mini достигают уровня производительности, конкурентоспособного с другими передовыми моделями в различных областях, включая научные знания, общие знания и математические задачи.
Также заявлено, что Grok-2 отлично справляется с задачами распознавания изображений, обеспечивая современную производительность в области визуальных математических рассуждений и ответов на вопросы на основе документов.
#ai #llm #groq
Reflection 70B - дообученная Llama 3.1, обгоняющая все GPT-4o
Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.
Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.
Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.
Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится
#llm #ai #chatgpt
Neurogen - подпишись, тут рассказывают про нейросети
Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.
Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.
Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.
Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится
#llm #ai #chatgpt
Neurogen - подпишись, тут рассказывают про нейросети
Neurogen
DeepSeek-Coder-V2 - open-source модель, которая лучше GPT-4-Turbo в программировании. DeepSeek-Coder-V2 обеспечивает производительность, сравнимую с GPT4-Turbo, в задачах, связанных с кодом, а также она лучше чем Claude, Gemini и все open-source языковые…
Вышла DeepSeek 2.5. Модель стала лучше чем ее Coder версия в работе с кодом, но также и комбинирует возможности обычной (Chat) версии, превосходя и ее.
Про DeepSeek Coder V2 я писал тут:
DeepSeek-Coder-V2 - open-source модель, которая лучше GPT-4-Turbo в программировании.
Модель имеет контекстное окно в 128000 токенов
Модель большая, на 236B параметров, поэтому запустить локально на домашнем ПК будет весьма проблематично.
Тем не менее, есть возможность бесплатной работы через официальный онлайн чат: chat.deepseek.com
Также модель доступна через API со стоимостью 0.14$ за миллион токенов на вход и 0.28$ за миллион токен на выход.
От себя хочу сказать, что давно активно пользуюсь версией DeepSeek Coder V2 в онлайн чате, и на некоторых сценариях модель действительно позволяла получить рабочее решение за меньшее кол-во шагов, чем через GPT-4o.
#llm #ai #deepseek #chatgpt
Neurogen - подпишись, тут рассказывают про нейросети
Про DeepSeek Coder V2 я писал тут:
DeepSeek-Coder-V2 - open-source модель, которая лучше GPT-4-Turbo в программировании.
Модель имеет контекстное окно в 128000 токенов
Модель большая, на 236B параметров, поэтому запустить локально на домашнем ПК будет весьма проблематично.
Тем не менее, есть возможность бесплатной работы через официальный онлайн чат: chat.deepseek.com
Также модель доступна через API со стоимостью 0.14$ за миллион токенов на вход и 0.28$ за миллион токен на выход.
От себя хочу сказать, что давно активно пользуюсь версией DeepSeek Coder V2 в онлайн чате, и на некоторых сценариях модель действительно позволяла получить рабочее решение за меньшее кол-во шагов, чем через GPT-4o.
#llm #ai #deepseek #chatgpt
Neurogen - подпишись, тут рассказывают про нейросети
Neurogen
Тесты GGUF Q2_K_L версии Reflection 70B на личном ПК. Модель работала на последней версии LM Studio - 0.3.2. Первые итоги: Задачки из серии "Тест на GPT-4" - проходит. Русский язык - знает, но порой делает ошибки. Стихи и песни на русском - не пишет.
Please open Telegram to view this post
VIEW IN TELEGRAM
ОpenAI сделали революцию? Представлены новые модели: o1-preview и o1-mini. И это уже не ChatGPT.
Сегодня, 12 сентября, OpenAI выпустили две версии их новой модели o1: o1-preview и o1-mini
Особенность данной модели заключается в том, что перед тем как дать ответ, они думают над ответом, подобно тому, как это делает человек. Также модели обладают контекстным окном в 128 000 токенов и обладают знаниями до Октября 2023 года.
По оценкам компании, данная модель решает задачи по физике, химии и биологии на уровне аспирантов, а также порой и превосходит их в задачах на математику и программирование.
Решая задачи по Международной математической олимпиаде, GPT-4o решал правильно лишь 13% задач. o1 решает 83% задач.
На данный момент o1 находится на ранней стадии своего существования, поэтому не умеет работать с документами, расширениями и не поддерживает мультимодальный ввод.
OpenAI делает акцент, что для ряда обычных задач ChatGPT все еще отличное решение, в то время как o1 - отличное решение для ученых и исследователей.
Модель доступна для платных подписчиков а также и по API, но лишь для тех, кто имеет самый высокий уровень 5 (проще говоря, кто потратил кучу денег на API).
o1-mini является облегченной версией базовой o1-preview, а потому и стоит более дешево. Для подписчиков ChatGPT Plus будет доступно 30 сообщений в неделю для o1-preview и 50 для o1-mini. Такие маленькие лимиты обусловлены тем, что o1 требует намного больше вычислительных ресурсов, чем ChatGPT. Стоимость же через API составляет 15$/1M токенов на вход и 60$/1M токенов на выход для o1-preview, и 3$/1M и 12$/1M для o1-mini.
В будущем OpenAI планируют предоставить доступ к o1-mini для всех бесплатных пользователей.
#ai #chatgpt #o1 #llm
Neurogen - подпишись, тут рассказывают про нейросети
Сегодня, 12 сентября, OpenAI выпустили две версии их новой модели o1: o1-preview и o1-mini
Особенность данной модели заключается в том, что перед тем как дать ответ, они думают над ответом, подобно тому, как это делает человек. Также модели обладают контекстным окном в 128 000 токенов и обладают знаниями до Октября 2023 года.
По оценкам компании, данная модель решает задачи по физике, химии и биологии на уровне аспирантов, а также порой и превосходит их в задачах на математику и программирование.
Решая задачи по Международной математической олимпиаде, GPT-4o решал правильно лишь 13% задач. o1 решает 83% задач.
На данный момент o1 находится на ранней стадии своего существования, поэтому не умеет работать с документами, расширениями и не поддерживает мультимодальный ввод.
OpenAI делает акцент, что для ряда обычных задач ChatGPT все еще отличное решение, в то время как o1 - отличное решение для ученых и исследователей.
Модель доступна для платных подписчиков а также и по API, но лишь для тех, кто имеет самый высокий уровень 5 (проще говоря, кто потратил кучу денег на API).
o1-mini является облегченной версией базовой o1-preview, а потому и стоит более дешево. Для подписчиков ChatGPT Plus будет доступно 30 сообщений в неделю для o1-preview и 50 для o1-mini. Такие маленькие лимиты обусловлены тем, что o1 требует намного больше вычислительных ресурсов, чем ChatGPT. Стоимость же через API составляет 15$/1M токенов на вход и 60$/1M токенов на выход для o1-preview, и 3$/1M и 12$/1M для o1-mini.
В будущем OpenAI планируют предоставить доступ к o1-mini для всех бесплатных пользователей.
#ai #chatgpt #o1 #llm
Neurogen - подпишись, тут рассказывают про нейросети
Forwarded from Machinelearning
Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.
Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.
В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.
Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.
Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).
Список моделей:
В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.
Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.
Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.
Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.
Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.
Список моделей:
Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.
Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.
Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.
Список моделей:
@ai_machinelearning_big_data
#AI #ML #LLM #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Vikhr: Семейство 2B, 8B и 12B LLM, адаптированных под работу с русским языком.
Vikhr-Nemo-12B-Instruct-R-21-09-24: флагманская LLM на 12B параметров, представляющая из себя улучшенную версию mistralai/Mistral-Nemo-Instruct-2407 командой VikhrModels, адаптированную преимущественно для русского и английского языков.
Модель оптимизированна для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторых задачах (например, RAG) может быть не хуже gpt-4o-mini от OpenAI.
Модель уже доступна в квантованных вариантах:
Vikhr-Nemo-12B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 8 Гб оперативной или видеопамяти.
Vikhr-Nemo-12B-Instruct-R-21-09-24-Q6_K-GGUF (Q6_K) - для работы потребуется примерно 10 Гб оперативной или видеопамяти.
Vikhr-Llama3.1-8B-Instruct-R-21-09-24: Vikhr-Llama3.1 - это LLM на 8B параметров представляющая из себя улучшенную версию meta-llama/Meta-Llama-3.1-8B-Instruct командой VikhrModels, адаптированную преимущественно для русского и английского языков.
Vikhr-Llama обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что во многих задачах может быть лучше чем gpt-3.5-turbo от OpenAI.
Модель доступна в квантованных вариантах:
Vikhr-Llama3.1-8B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 5 Гб оперативной или видеопамяти.
Vikhr-Gemma-2B-instruct — это мощная и компактная языковая модель, основанная на базе gemma-2-2b-it и обученная на датасете GrandMaster-PRO-MAX, специально доученная для обработки русского языка.
Для работы с квантованной моделью требуется от 800 МБ (IQ1_M) до 3 Гб (Q8_0) оперативной или видеопамяти.
Скачать квантованные версии модели можно тут:
Vikhr-Gemma-2B-instruct-GGUF
Официальный Telegram проекта: https://t.iss.one/vikhrlabs
#llm #gguf #vikhr
Vikhr-Nemo-12B-Instruct-R-21-09-24: флагманская LLM на 12B параметров, представляющая из себя улучшенную версию mistralai/Mistral-Nemo-Instruct-2407 командой VikhrModels, адаптированную преимущественно для русского и английского языков.
Модель оптимизированна для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторых задачах (например, RAG) может быть не хуже gpt-4o-mini от OpenAI.
Модель уже доступна в квантованных вариантах:
Vikhr-Nemo-12B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 8 Гб оперативной или видеопамяти.
Vikhr-Nemo-12B-Instruct-R-21-09-24-Q6_K-GGUF (Q6_K) - для работы потребуется примерно 10 Гб оперативной или видеопамяти.
Vikhr-Llama3.1-8B-Instruct-R-21-09-24: Vikhr-Llama3.1 - это LLM на 8B параметров представляющая из себя улучшенную версию meta-llama/Meta-Llama-3.1-8B-Instruct командой VikhrModels, адаптированную преимущественно для русского и английского языков.
Vikhr-Llama обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что во многих задачах может быть лучше чем gpt-3.5-turbo от OpenAI.
Модель доступна в квантованных вариантах:
Vikhr-Llama3.1-8B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 5 Гб оперативной или видеопамяти.
Vikhr-Gemma-2B-instruct — это мощная и компактная языковая модель, основанная на базе gemma-2-2b-it и обученная на датасете GrandMaster-PRO-MAX, специально доученная для обработки русского языка.
Для работы с квантованной моделью требуется от 800 МБ (IQ1_M) до 3 Гб (Q8_0) оперативной или видеопамяти.
Скачать квантованные версии модели можно тут:
Vikhr-Gemma-2B-instruct-GGUF
Официальный Telegram проекта: https://t.iss.one/vikhrlabs
#llm #gguf #vikhr
Llama 3.2 - Здравствуй мультимодальность.
Llama 3.2 включает компактные и средние модели Vision LLM (11B и 90B) и облегченные текстовые модели (1B и 3B). Модели на 1B и 3B оптимизированы для использования на мобильных устройствах, и разработаны для задач обобщения текста и выполнения инструкций.
Модели же на 11B и 90B параметров могут принимать на вход изображения и нативно работать с этим типом данных.
Квантованные варианты данных моделей вы можете найти на HuggingFaces
#llm #lama
Llama 3.2 включает компактные и средние модели Vision LLM (11B и 90B) и облегченные текстовые модели (1B и 3B). Модели на 1B и 3B оптимизированы для использования на мобильных устройствах, и разработаны для задач обобщения текста и выполнения инструкций.
Модели же на 11B и 90B параметров могут принимать на вход изображения и нативно работать с этим типом данных.
Квантованные варианты данных моделей вы можете найти на HuggingFaces
#llm #lama
GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3.5 и к моделям генерации изображений, таким как Flux, SD 3, SD XL.
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5
а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.
Что нового в обновлении, по сравнению с прошлой версией:
- Обновлен код до актуального
- Добавлена поддержка новых моделей:
claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux
И ряда других различных моделей.
Скачать сборку GPT4FREE Portable by Neurogen
Запуск программы:
- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5
а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.
Что нового в обновлении, по сравнению с прошлой версией:
- Обновлен код до актуального
- Добавлена поддержка новых моделей:
claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux
И ряда других различных моделей.
Скачать сборку GPT4FREE Portable by Neurogen
Запуск программы:
- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Qwen2.5-Coder - лучше чем GPT-4o для кодинга
Qwen2.5-Coder это целое семейство моделей:
Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B
При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.
Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.
Квантованные GGUF версии для локального запуска уже доступны для загрузки:
Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)
#llm #code #qwen
Qwen2.5-Coder это целое семейство моделей:
Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B
При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.
Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.
Квантованные GGUF версии для локального запуска уже доступны для загрузки:
Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)
#llm #code #qwen
QwQ-32B-Preview : o1-подобная модель из семейства Qwen
Данная модель отличается от базовых моделей Qwen, и является "рассуждающей" моделью.
В целом, по данным тестов, она обходит Qwen2.5-72B, и даже, местами, o1-mini от OpenAI.
Самое главное, что файлы модели уже доступны для загрузки, в том числе, и квантованные варианты.
Протестировать работу онлайн можно тут:
Демо QwQ-32B-preview
Квантованные GGUF версии можно скачать тут:
QwQ-32B-Preview-GGUF
Для работы с моделью с Q4 квантованием, потребуется минимум 20 гигабайт видео или оперативной памяти.
#qwen #o1 #llm
Данная модель отличается от базовых моделей Qwen, и является "рассуждающей" моделью.
В целом, по данным тестов, она обходит Qwen2.5-72B, и даже, местами, o1-mini от OpenAI.
Самое главное, что файлы модели уже доступны для загрузки, в том числе, и квантованные варианты.
Протестировать работу онлайн можно тут:
Демо QwQ-32B-preview
Квантованные GGUF версии можно скачать тут:
QwQ-32B-Preview-GGUF
Для работы с моделью с Q4 квантованием, потребуется минимум 20 гигабайт видео или оперативной памяти.
#qwen #o1 #llm
Главные события в мире ИИ: обновления от OpenAI, X и Meta*
OpenAI представляет ChatGPT Pro
OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью 200 долларов в месяц. Он предназначен для исследователей, инженеров и других профессионалов, которые ежедневно используют продвинутые ИИ-модели. Тариф включает:
неограниченный доступ к самым мощным моделям OpenAI, таким как o1, o1-mini, GPT-4o и Advanced Voice;
эксклюзивный режим o1 Pro Mode, использующий повышенные вычислительные мощности для более глубокого анализа и предоставления высококачественных решений сложных задач.
Экспертные оценки показали, что режим o1 Pro значительно превосходит предыдущие версии моделей в таких областях, как решение математических задач, программирование и анализ юридических данных. Пользователи ChatGPT Pro смогут активировать этот режим, выбрав его в меню моделей и задав запрос в чате.
X делает Grok бесплатным для всех пользователей
Компания X (ранее Twitter) сделала свой AI-чатбот Grok доступным для всех пользователей без необходимости подписки на X Premium. Основные возможности:
10 бесплатных запросов каждые 2 часа;
генерация 10 изображений каждые 2 часа;
возможность анализировать до 3 изображений в день (дополнительный анализ доступен только по подписке).
Это нововведение направлено на популяризацию использования искусственного интеллекта среди широкой аудитории.
Meta выпускает Llama 3.3
Компания Meta объявила о выпуске Llama 3.3 — новой открытой многоязычной модели искусственного интеллекта (LLM). Новая версия включает:
70 миллиардов параметров, что обеспечивает производительность, сравнимую с моделью Llama 3.1 с 405 миллиардами параметров,
при этом снижая затраты на вычисления и ресурсы.
Эти обновления подтверждают стремление крупнейших технологических компаний сделать ИИ более доступным и эффективным, открывая новые горизонты для разработчиков и пользователей по всему миру.
#llm #chatgpt #groq #llama
*Meta - террористическая организация, запрещённая на территории РФ.
OpenAI представляет ChatGPT Pro
OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью 200 долларов в месяц. Он предназначен для исследователей, инженеров и других профессионалов, которые ежедневно используют продвинутые ИИ-модели. Тариф включает:
неограниченный доступ к самым мощным моделям OpenAI, таким как o1, o1-mini, GPT-4o и Advanced Voice;
эксклюзивный режим o1 Pro Mode, использующий повышенные вычислительные мощности для более глубокого анализа и предоставления высококачественных решений сложных задач.
Экспертные оценки показали, что режим o1 Pro значительно превосходит предыдущие версии моделей в таких областях, как решение математических задач, программирование и анализ юридических данных. Пользователи ChatGPT Pro смогут активировать этот режим, выбрав его в меню моделей и задав запрос в чате.
X делает Grok бесплатным для всех пользователей
Компания X (ранее Twitter) сделала свой AI-чатбот Grok доступным для всех пользователей без необходимости подписки на X Premium. Основные возможности:
10 бесплатных запросов каждые 2 часа;
генерация 10 изображений каждые 2 часа;
возможность анализировать до 3 изображений в день (дополнительный анализ доступен только по подписке).
Это нововведение направлено на популяризацию использования искусственного интеллекта среди широкой аудитории.
Meta выпускает Llama 3.3
Компания Meta объявила о выпуске Llama 3.3 — новой открытой многоязычной модели искусственного интеллекта (LLM). Новая версия включает:
70 миллиардов параметров, что обеспечивает производительность, сравнимую с моделью Llama 3.1 с 405 миллиардами параметров,
при этом снижая затраты на вычисления и ресурсы.
Эти обновления подтверждают стремление крупнейших технологических компаний сделать ИИ более доступным и эффективным, открывая новые горизонты для разработчиков и пользователей по всему миру.
#llm #chatgpt #groq #llama
*Meta - террористическая организация, запрещённая на территории РФ.
Gemini 2.0 Flash Thinking Experimental - новая модель-аналог o1 от Google, которая умеет в процесс размышлений.
Модель имеет актуальные знания до августа 2024.
Самое любопытное, что доступ сейчас бесплатный, в Google AI Studio.
Модель поддерживает мультимодальный ввод, бесплатный доступ имеет лимит в 1500 запросов в день, а также контекст в 32 000 токенов.
#gemini #o1 #llm
Модель имеет актуальные знания до августа 2024.
Самое любопытное, что доступ сейчас бесплатный, в Google AI Studio.
Модель поддерживает мультимодальный ввод, бесплатный доступ имеет лимит в 1500 запросов в день, а также контекст в 32 000 токенов.
#gemini #o1 #llm
⚡️ Codestral 25.01: Новый стандарт автодополнения кода в ИИ ⚡️
В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.
### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).
### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.
### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.
### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.
### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*
Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.
Попробовать модель можно тут: https://chat.mistral.ai/chat
#llm #code #ainews
В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.
### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).
### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.
### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.
### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.
### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*
Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.
Попробовать модель можно тут: https://chat.mistral.ai/chat
#llm #code #ainews
Neurogen
DeepSeek-R1: Китайский ответ на o1-модели. Ключевые особенности Улучшенная версия DeepSeek-R1 Несмотря на успехи Zero-версии, в DeepSeek-R1 добавили холодный SFT, чтобы поднять читабельность ответов и устранить бесконечные повторы. В итоге модель удачно…
Deepseek выпустила собственные мобильные приложения.
Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store
В целом, приложение повторяет функционал веб версии чата:
- Веб поиск
- Распознавание текста на изображениях
- Работа с документами
#llm #deepseek
Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store
В целом, приложение повторяет функционал веб версии чата:
- Веб поиск
- Распознавание текста на изображениях
- Работа с документами
#llm #deepseek
Google Play
DeepSeek - AI Assistant - Apps on Google Play
Intelligent AI Assistant
Могучий синий кит Китай ронять Запад бесплатно
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
Партия давать +100 социальный рейтинг за комментарий про силу Синий Китайский Кит над Запад 😺
#ai #llm #ainews
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
#ai #llm #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 OpenAI объединяет все технологии в GPT‑5: что нас ждёт?
💡 OpenAI меняет стратегию — вместо множества специализированных моделей создаётся единая система GPT‑5, чтобы избавиться от запутанного выбора для пользователей. Сэм Альтман объяснил, что цель – «единственный интеллект, который просто работает».
📌 Новая линейка моделей:
• GPT‑4.5 ("Orion")
Это промежуточная версия без технологии «цепочки мыслей». Запуск GPT‑4.5 ожидается уже в ближайшие недели и станет тестом для новых наработок.
• GPT‑5
Унифицированная модель, включающая голосовое управление, обработку изображений, улучшенный поиск и алгоритмы рассуждения. Базовая версия будет бесплатной для всех пользователей, а подписчики Plus и Pro получат расширенные возможности. По большинству источников (Reuters, Business Insider, WSJ и др.) GPT‑5 может появиться в ближайшие месяцы, хотя точные даты пока не объявлены. Некоторые публикации отмечают, что проект уже столкнулся с задержками и высокими затратами.
📌 Как будет организован доступ и монетизация?
💰 Бесплатный доступ:
Все пользователи ChatGPT смогут пользоваться GPT‑5 без ограничений на базовом уровне.
💎 Платные подписки:
• ChatGPT Plus (~$20/мес.) — доступ к более мощной версии GPT‑5, сниженная задержка ответов, приоритет в нагрузке на серверы.
• ChatGPT Pro (~$200/мес) — вероятно, включит доступ к улучшенному голосовому чату, продвинутым инструментам для бизнеса и API без ограничений.
🌍 GPT Store:
OpenAI активно развивает свою экосистему — GPT Store, где разработчики смогут монетизировать кастомные GPT-модели, предлагая их пользователям по подписке или за разовую плату.
📌 Основные плюсы и вызовы:
✅ Преимущества:
– Упрощённый интерфейс и единый API для разработчиков.
– Бесплатный доступ для всех пользователей.
– Возможность зарабатывать на кастомных GPT через GPT Store.
❗️ Проблемы:
– Обучение модели обходится в сотни миллионов долларов.
– Недостаток качественных данных вынуждает создавать синтетические наборы, что замедляет процесс.
– Внутренние перестановки и конкуренция за таланты влияют на сроки разработки.
OpenAI отказывается от разрозненных моделей в пользу единой системы. GPT‑4.5 — запуск в ближайшие недели, а GPT‑5 появится через несколько месяцев. Базовый доступ будет бесплатным, но для продвинутых возможностей потребуется подписка. Новая стратегия упрощает использование ИИ и помогает OpenAI сохранить лидерство на фоне растущей конкуренции.
#chatgpt #gpt-5 #openai #llm
💡 OpenAI меняет стратегию — вместо множества специализированных моделей создаётся единая система GPT‑5, чтобы избавиться от запутанного выбора для пользователей. Сэм Альтман объяснил, что цель – «единственный интеллект, который просто работает».
📌 Новая линейка моделей:
• GPT‑4.5 ("Orion")
Это промежуточная версия без технологии «цепочки мыслей». Запуск GPT‑4.5 ожидается уже в ближайшие недели и станет тестом для новых наработок.
• GPT‑5
Унифицированная модель, включающая голосовое управление, обработку изображений, улучшенный поиск и алгоритмы рассуждения. Базовая версия будет бесплатной для всех пользователей, а подписчики Plus и Pro получат расширенные возможности. По большинству источников (Reuters, Business Insider, WSJ и др.) GPT‑5 может появиться в ближайшие месяцы, хотя точные даты пока не объявлены. Некоторые публикации отмечают, что проект уже столкнулся с задержками и высокими затратами.
📌 Как будет организован доступ и монетизация?
💰 Бесплатный доступ:
Все пользователи ChatGPT смогут пользоваться GPT‑5 без ограничений на базовом уровне.
💎 Платные подписки:
• ChatGPT Plus (~$20/мес.) — доступ к более мощной версии GPT‑5, сниженная задержка ответов, приоритет в нагрузке на серверы.
• ChatGPT Pro (~$200/мес) — вероятно, включит доступ к улучшенному голосовому чату, продвинутым инструментам для бизнеса и API без ограничений.
🌍 GPT Store:
OpenAI активно развивает свою экосистему — GPT Store, где разработчики смогут монетизировать кастомные GPT-модели, предлагая их пользователям по подписке или за разовую плату.
📌 Основные плюсы и вызовы:
✅ Преимущества:
– Упрощённый интерфейс и единый API для разработчиков.
– Бесплатный доступ для всех пользователей.
– Возможность зарабатывать на кастомных GPT через GPT Store.
❗️ Проблемы:
– Обучение модели обходится в сотни миллионов долларов.
– Недостаток качественных данных вынуждает создавать синтетические наборы, что замедляет процесс.
– Внутренние перестановки и конкуренция за таланты влияют на сроки разработки.
OpenAI отказывается от разрозненных моделей в пользу единой системы. GPT‑4.5 — запуск в ближайшие недели, а GPT‑5 появится через несколько месяцев. Базовый доступ будет бесплатным, но для продвинутых возможностей потребуется подписка. Новая стратегия упрощает использование ИИ и помогает OpenAI сохранить лидерство на фоне растущей конкуренции.
#chatgpt #gpt-5 #openai #llm