Neurogen
21.4K subscribers
480 photos
166 videos
17 files
519 links
Популяризатор нейросетей, разработчик-энтузиаст, ментор.

СEO NeuroIMG.ART

По вопросам сотрудничества и рекламы: @roman_neurogen

Портативные сборки: https://boosty.to/neurogen

Live канал: @neurogen_blog
Реестр РКН: №4777528086
Download Telegram
GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3 и SD XL / SD 3

Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:

GPT-4o
GPT-4o-mini
Claude-3
LLaMa-3.1 r
Qwen-2

а также моделей для генерации изображений, таких как Stable Diffusion XL и Stable Diffusion 3.

Скачать сборку GPT4FREE Portable by Neurogen

Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.

#chatgpt #llm #portable

Neurogen - подпишись, тут рассказывают про нейросети
Там Google в рамках ивента MadeByGoogle, показывают Gemini Nano и Gemini Live

Это самая легкая модель из семейства Gemini, которая будет плотно интегрирована в экосистему Android.

Модель мультимодальная, умеет работать с изображениями, видео и аудио.

По факту, Gemini Nano ответ компании Apple с AI функционалом, который был заявлен на презентации iOS 18: языковая модель от Google плотно интегрируется в Android и является AI Ассистентом.

Gemini Live: набор голосом, синтез речи, 10 голосов AI ассистента. По сути, Gemini Live - это ответ на ChatGPT-4o

Обещают, что новые модели будут доступные через пару недель на Google Pixel и ряде других телефонах на базе Android.

#llm #gemini
Вышла Grok-2: новая версия языковой модели от Илона Маска.

Grok-2 - значительный шаг вперед по сравнению с предыдущей моделью Grok-1.5, с передовыми возможностями в области чата, программирования и логических рассуждений. 

Ранняя версия Grok-2 "sus-column-r" превосходит Claude 3.5 Sonnet и GPT-4-Turbo в таблице лидеров LMSYS. 

Grok-2 и Grok-2 mini находятся в стадии бета-тестирования на 𝕏 и будут доступны через корпоративный API. 

Grok-2 демонстрирует значительные улучшения в работе с контентом и инструментами, такими как определение недостающей информации и анализ последовательности событий. 

Grok-2 и Grok-2 mini достигают уровня производительности, конкурентоспособного с другими передовыми моделями в различных областях, включая научные знания, общие знания и математические задачи. 

Также заявлено, что Grok-2 отлично справляется с задачами распознавания изображений, обеспечивая современную производительность в области визуальных математических рассуждений и ответов на вопросы на основе документов. 

#ai #llm #groq
Reflection 70B - дообученная Llama 3.1, обгоняющая все GPT-4o

Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.

Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.

Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.

Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится

#llm #ai #chatgpt

Neurogen - подпишись, тут рассказывают про нейросети
Neurogen
DeepSeek-Coder-V2 - open-source модель, которая лучше GPT-4-Turbo в программировании. DeepSeek-Coder-V2 обеспечивает производительность, сравнимую с GPT4-Turbo, в задачах, связанных с кодом, а также она лучше чем Claude, Gemini и все open-source языковые…
Вышла DeepSeek 2.5. Модель стала лучше чем ее Coder версия в работе с кодом, но также и комбинирует возможности обычной (Chat) версии, превосходя и ее.

Про DeepSeek Coder V2 я писал тут:
DeepSeek-Coder-V2 - open-source модель, которая лучше GPT-4-Turbo в программировании.

Модель имеет контекстное окно в 128000 токенов

Модель большая, на 236B параметров, поэтому запустить локально на домашнем ПК будет весьма проблематично.

Тем не менее, есть возможность бесплатной работы через официальный онлайн чат: chat.deepseek.com

Также модель доступна через API со стоимостью 0.14$ за миллион токенов на вход и 0.28$ за миллион токен на выход.

От себя хочу сказать, что давно активно пользуюсь версией DeepSeek Coder V2 в онлайн чате, и на некоторых сценариях модель действительно позволяла получить рабочее решение за меньшее кол-во шагов, чем через GPT-4o.

#llm #ai #deepseek #chatgpt

Neurogen - подпишись, тут рассказывают про нейросети
ОpenAI сделали революцию? Представлены новые модели: o1-preview и o1-mini. И это уже не ChatGPT.

Сегодня, 12 сентября, OpenAI выпустили две версии их новой модели o1: o1-preview и o1-mini

Особенность данной модели заключается в том, что перед тем как дать ответ, они думают над ответом, подобно тому, как это делает человек. Также модели обладают контекстным окном в 128 000 токенов и обладают знаниями до Октября 2023 года.

По оценкам компании, данная модель решает задачи по физике, химии и биологии на уровне аспирантов, а также порой и превосходит их в задачах на математику и программирование.
Решая задачи по Международной математической олимпиаде, GPT-4o решал правильно лишь 13% задач. o1 решает 83% задач.
На данный момент o1 находится на ранней стадии своего существования, поэтому не умеет работать с документами, расширениями и не поддерживает мультимодальный ввод.

OpenAI делает акцент, что для ряда обычных задач ChatGPT все еще отличное решение, в то время как o1 - отличное решение для ученых и исследователей.

Модель доступна для платных подписчиков а также и по API, но лишь для тех, кто имеет самый высокий уровень 5 (проще говоря, кто потратил кучу денег на API).
o1-mini является облегченной версией базовой o1-preview, а потому и стоит более дешево. Для подписчиков ChatGPT Plus будет доступно 30 сообщений в неделю для o1-preview и 50 для o1-mini. Такие маленькие лимиты обусловлены тем, что o1 требует намного больше вычислительных ресурсов, чем ChatGPT. Стоимость же через API составляет 15$/1M токенов на вход и 60$/1M токенов на выход для o1-preview, и 3$/1M и 12$/1M для o1-mini.
В будущем OpenAI планируют предоставить доступ к o1-mini для всех бесплатных пользователей.

#ai #chatgpt #o1 #llm

Neurogen - подпишись, тут рассказывают про нейросети
Forwarded from Machinelearning
⚡️ Qwen2.5 Family: Релиз Qwen2.5, Qwen2.5-Coder и Qwen2.5-Math.

Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.

Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.

▶️ Qwen2.5

В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.

Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.

Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).

Список моделей:

🟢Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;

🟢Qwen2.5-Instruct: все варианты в форматах GPTQ, AWQ, GGUF.

В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.

▶️ Qwen2.5 Coder

Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.

Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.

Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.

Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.

Список моделей:

🟠Qwen2.5-Coder: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct: 1.5B, 7B;

🟠Qwen2.5-Coder-Instruct в формате GGUF: 1.5B, 7B.


▶️ Qwen2.5 Math

Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.

Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.

Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.

Список моделей:

🟠Qwen2.5-Math: 1.5B, 7B, 72B, RM-72B;

🟠Qwen2.5-Math-Instruct: 1.5B, 7B, 72B.


▶️ Вместе с релизом Qwen2.5, опубликована Qwen2-VL-72B-Instruct и ее квантованные Int8 и Int4 версии в форматах GPTQ, AWQ.


📌Лицензирование:

🟢Apache 2.0 для всех base и instruct моделей, кроме 3B и 72B.
🟠Qwen2.5-3B - Qwen Research License.
🟠Qwen2.5-72B и Qwen2.5-Math-72B - Qwen License.



🟡Страница проекта
🟡Коллекция моделей на HF
🟡Demo Qwen2.5-Instruct-72B
🟡Demo Qwen2.5-Coder-Instruct-7B
🟡Demo Qwen2.5-Math
🟡Сообщество в Discord
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Vikhr: Семейство 2B, 8B и 12B LLM, адаптированных под работу с русским языком.

Vikhr-Nemo-12B-Instruct-R-21-09-24: флагманская LLM на 12B параметров, представляющая из себя улучшенную версию mistralai/Mistral-Nemo-Instruct-2407 командой VikhrModels, адаптированную преимущественно для русского и английского языков.

Модель оптимизированна для различных вариантов использования, включая ризонинг, суммаризацию, код, roleplay, поддержание диалога. Vikhr-Nemo обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что в некоторых задачах (например, RAG) может быть не хуже gpt-4o-mini от OpenAI.

Модель уже доступна в квантованных вариантах:

Vikhr-Nemo-12B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 8 Гб оперативной или видеопамяти.
Vikhr-Nemo-12B-Instruct-R-21-09-24-Q6_K-GGUF (Q6_K) - для работы потребуется примерно 10 Гб оперативной или видеопамяти.

Vikhr-Llama3.1-8B-Instruct-R-21-09-24: Vikhr-Llama3.1 - это LLM на 8B параметров представляющая из себя улучшенную версию meta-llama/Meta-Llama-3.1-8B-Instruct командой VikhrModels, адаптированную преимущественно для русского и английского языков.

Vikhr-Llama обладает возможностью многоязычной генерации, и высокопроизводительными возможностями RAG. Модель иммет лучшие оценки среди прочих на наших инструктивных и RAG бенчарках и, поэтому, мы верим, что во многих задачах может быть лучше чем gpt-3.5-turbo от OpenAI.

Модель доступна в квантованных вариантах:

Vikhr-Llama3.1-8B-Instruct-R-21-09-24-Q4_K_M-GGUF (Q4_K_M) - для работы потребуется примерно 5 Гб оперативной или видеопамяти.

Vikhr-Gemma-2B-instruct — это мощная и компактная языковая модель, основанная на базе gemma-2-2b-it и обученная на датасете GrandMaster-PRO-MAX, специально доученная для обработки русского языка.

Для работы с квантованной моделью требуется от 800 МБ (IQ1_M) до 3 Гб (Q8_0) оперативной или видеопамяти.

Скачать квантованные версии модели можно тут:
Vikhr-Gemma-2B-instruct-GGUF

Официальный Telegram проекта: https://t.iss.one/vikhrlabs

#llm #gguf #vikhr
Llama 3.2 - Здравствуй мультимодальность.

Llama 3.2 включает компактные и средние модели Vision LLM (11B и 90B) и облегченные текстовые модели (1B и 3B). Модели на 1B и 3B оптимизированы для использования на мобильных устройствах, и разработаны для задач обобщения текста и выполнения инструкций.

Модели же на 11B и 90B параметров могут принимать на вход изображения и нативно работать с этим типом данных.

Квантованные варианты данных моделей вы можете найти на HuggingFaces

#llm #lama
GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3.5 и к моделям генерации изображений, таким как Flux, SD 3, SD XL.

Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:

GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5

а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.

Что нового в обновлении, по сравнению с прошлой версией:

- Обновлен код до актуального
- Добавлена поддержка новых моделей:

claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux

И ряда других различных моделей.

Скачать сборку GPT4FREE Portable by Neurogen

Запуск программы:

- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.

Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.

#chatgpt #llm #portable

Neurogen - подпишись, тут рассказывают про нейросети
Qwen2.5-Coder - лучше чем GPT-4o для кодинга

Qwen2.5-Coder это целое семейство моделей:

Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B

При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.

Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.

Квантованные GGUF версии для локального запуска уже доступны для загрузки:

Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)

#llm #code #qwen
Neurogen
DeepFaceLab Universal Optimized Добрались руки до DFL. Обновленная сборка DeepFaceLive уже была, теперь подошла очередь до самого интересного, а именно до сборки для обучения DFL моделей. DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц.…
Протестировать работу Qwen 2.5 Coder онлайн можно тут.

Модель генерирует ответы довольно шустро, кроме того, данная демка поддерживает Artifacts, проще говоря, вы можете посмотреть уже готовое веб приложение или страницу прямо в браузере.

#llm #code #qwen
QwQ-32B-Preview : o1-подобная модель из семейства Qwen

Данная модель отличается от базовых моделей Qwen, и является "рассуждающей" моделью.

В целом, по данным тестов, она обходит Qwen2.5-72B, и даже, местами, o1-mini от OpenAI.

Самое главное, что файлы модели уже доступны для загрузки, в том числе, и квантованные варианты.

Протестировать работу онлайн можно тут:

Демо QwQ-32B-preview

Квантованные GGUF версии можно скачать тут:

QwQ-32B-Preview-GGUF

Для работы с моделью с Q4 квантованием, потребуется минимум 20 гигабайт видео или оперативной памяти.

#qwen #o1 #llm
Главные события в мире ИИ: обновления от OpenAI, X и Meta*

OpenAI представляет ChatGPT Pro
OpenAI анонсировала новый тарифный план ChatGPT Pro стоимостью 200 долларов в месяц. Он предназначен для исследователей, инженеров и других профессионалов, которые ежедневно используют продвинутые ИИ-модели. Тариф включает:

неограниченный доступ к самым мощным моделям OpenAI, таким как o1, o1-mini, GPT-4o и Advanced Voice;
эксклюзивный режим o1 Pro Mode, использующий повышенные вычислительные мощности для более глубокого анализа и предоставления высококачественных решений сложных задач.
Экспертные оценки показали, что режим o1 Pro значительно превосходит предыдущие версии моделей в таких областях, как решение математических задач, программирование и анализ юридических данных. Пользователи ChatGPT Pro смогут активировать этот режим, выбрав его в меню моделей и задав запрос в чате.

X делает Grok бесплатным для всех пользователей
Компания X (ранее Twitter) сделала свой AI-чатбот Grok доступным для всех пользователей без необходимости подписки на X Premium. Основные возможности:

10 бесплатных запросов каждые 2 часа;
генерация 10 изображений каждые 2 часа;
возможность анализировать до 3 изображений в день (дополнительный анализ доступен только по подписке).
Это нововведение направлено на популяризацию использования искусственного интеллекта среди широкой аудитории.

Meta выпускает Llama 3.3
Компания Meta объявила о выпуске Llama 3.3 — новой открытой многоязычной модели искусственного интеллекта (LLM). Новая версия включает:

70 миллиардов параметров, что обеспечивает производительность, сравнимую с моделью Llama 3.1 с 405 миллиардами параметров,
при этом снижая затраты на вычисления и ресурсы.
Эти обновления подтверждают стремление крупнейших технологических компаний сделать ИИ более доступным и эффективным, открывая новые горизонты для разработчиков и пользователей по всему миру.

#llm #chatgpt #groq #llama

*Meta - террористическая организация, запрещённая на территории РФ.
Gemini 2.0 Flash Thinking Experimental - новая модель-аналог o1 от Google, которая умеет в процесс размышлений.

Модель имеет актуальные знания до августа 2024.

Самое любопытное, что доступ сейчас бесплатный, в Google AI Studio.

Модель поддерживает мультимодальный ввод, бесплатный доступ имеет лимит в 1500 запросов в день, а также контекст в 32 000 токенов.

#gemini #o1 #llm
⚡️ Codestral 25.01: Новый стандарт автодополнения кода в ИИ ⚡️

В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.

### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).

### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.

### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.

### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.

### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*

Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.

Попробовать модель можно тут: https://chat.mistral.ai/chat

#llm #code #ainews
Neurogen
DeepSeek-R1: Китайский ответ на o1-модели. Ключевые особенности Улучшенная версия DeepSeek-R1 Несмотря на успехи Zero-версии, в DeepSeek-R1 добавили холодный SFT, чтобы поднять читабельность ответов и устранить бесконечные повторы. В итоге модель удачно…
Deepseek выпустила собственные мобильные приложения.

Приложение DeepSeek - AI Assistant доступно для загрузки в Google Play и App Store

В целом, приложение повторяет функционал веб версии чата:

- Веб поиск
- Распознавание текста на изображениях
- Работа с документами

#llm #deepseek
Могучий синий кит Китай ронять Запад бесплатно

Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.

Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):

1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .

2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .

3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .

4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .

5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .

6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .

7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .

В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .

Партия давать +100 социальный рейтинг за комментарий про силу Синий Китайский Кит над Запад 😺

#ai #llm #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 OpenAI объединяет все технологии в GPT‑5: что нас ждёт?

💡 OpenAI меняет стратегию — вместо множества специализированных моделей создаётся единая система GPT‑5, чтобы избавиться от запутанного выбора для пользователей. Сэм Альтман объяснил, что цель – «единственный интеллект, который просто работает».

📌 Новая линейка моделей:

GPT‑4.5 ("Orion")
Это промежуточная версия без технологии «цепочки мыслей». Запуск GPT‑4.5 ожидается уже в ближайшие недели и станет тестом для новых наработок.

GPT‑5
Унифицированная модель, включающая голосовое управление, обработку изображений, улучшенный поиск и алгоритмы рассуждения. Базовая версия будет бесплатной для всех пользователей, а подписчики Plus и Pro получат расширенные возможности. По большинству источников (Reuters, Business Insider, WSJ и др.) GPT‑5 может появиться в ближайшие месяцы, хотя точные даты пока не объявлены. Некоторые публикации отмечают, что проект уже столкнулся с задержками и высокими затратами.

📌 Как будет организован доступ и монетизация?

💰 Бесплатный доступ:
Все пользователи ChatGPT смогут пользоваться GPT‑5 без ограничений на базовом уровне.

💎 Платные подписки:
ChatGPT Plus (~$20/мес.) — доступ к более мощной версии GPT‑5, сниженная задержка ответов, приоритет в нагрузке на серверы.
ChatGPT Pro (~$200/мес) — вероятно, включит доступ к улучшенному голосовому чату, продвинутым инструментам для бизнеса и API без ограничений.

🌍 GPT Store:
OpenAI активно развивает свою экосистему — GPT Store, где разработчики смогут монетизировать кастомные GPT-модели, предлагая их пользователям по подписке или за разовую плату.

📌 Основные плюсы и вызовы:

Преимущества:
– Упрощённый интерфейс и единый API для разработчиков.
– Бесплатный доступ для всех пользователей.
– Возможность зарабатывать на кастомных GPT через GPT Store.

❗️ Проблемы:
– Обучение модели обходится в сотни миллионов долларов.
– Недостаток качественных данных вынуждает создавать синтетические наборы, что замедляет процесс.
– Внутренние перестановки и конкуренция за таланты влияют на сроки разработки.

OpenAI отказывается от разрозненных моделей в пользу единой системы. GPT‑4.5 — запуск в ближайшие недели, а GPT‑5 появится через несколько месяцев. Базовый доступ будет бесплатным, но для продвинутых возможностей потребуется подписка. Новая стратегия упрощает использование ИИ и помогает OpenAI сохранить лидерство на фоне растущей конкуренции.

#chatgpt #gpt-5 #openai #llm