FSCP
15.4K subscribers
31.6K photos
4.04K videos
873 files
81.3K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Новая модель от Mistral
Mixtral 8x22B-v01 в открытом доступе. Нейронка состоит из 8 экспертов, для анализа в нее можно загружать документы и небольшие книги. Контекстное окно на 64К токенов.

Нейросеть разбирается в математике, поддерживает русским языком (хоть и не официально) цензура отсутствует!

Тестировать тут.
Почитать тут.

Работает из России.
_______
Источник | #neurogen_news
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
👍5
Llama-3-8B-Instruct-Gradient-1048k - LLaMa 3 8B, но с контекстным окном в 1 миллион токенов.

Квантованные GGUF (адаптированные для работы через CPU+RAM) версии можно скачать тут

Также модель доступна в формате MLX-4bit

Похоже, что это кандидат на самую универсальную open source модель на ближайшее время?
_______
Источник | #neurogen_news
🐾 @F_S_C_P

Узнай судьбу картами Таро:
Anna Taro bot
👍3🔥1
Gemma-2-2b - теперь без цензуры

Стала доступна для загрузки файн-тюн версия gemma-2-2b под названием gemma-2-2b-it-abliterated.

Особенность данной версии заключается в снятии цензуры, что позволяет работать с любыми запросами, в том числе с NSFW контентом.

Скачать GGUF версии данной модели можно по ссылке ниже:

huggingface.co

Если вы используете LM Studio, то для поддержки работы с данной моделью обновите программу до последней версии.

#llm #gemma

_______
Источник | #neurogen_news
@F_S_C_P

-------
поддержи канал
-------
👍3
Reflection 70B - дообученная Llama 3.1, обгоняющая все GPT-4o

Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.

Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.

Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.

Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится

#llm #ai #chatgpt

_______
Источник | #neurogen_news
@F_S_C_P

-------
Секретики!
-------
👍6🤮2👎1💩1
This media is not supported in your browser
VIEW IN TELEGRAM
PIKADDITIONS

⁉️Как сделать такое видео:
1. Заходишь на сайт или скачиваешь приложение Pika
2. Заходишь во вкладку "pikadditions"
3. Загружаешь свое видео длительностью более 5 секунд
4. Загружаешь изображение выбранного объекта или персонажа, которого хочешь добавить на видео
5. Пишешь в промпт: Add this to my video. Based on the current actions in the original video, come up with a natural and engaging way to fit the object into the video.
6. Нажимаешь кнопку "Сгенерировать"

Ждешь пока видео сгенерируется и наслаждаешься результатом🎉

_______
Источник | #neurogen_news
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney
👍4
https://t.iss.one/neurogen_news/1138
Kimi 1.5
от Moonshot бесплатный ИИ, который бросает вызов OpenAI и DeepSeek

Kimi AI 1.5 от Moonshot — это новое слово в мире искусственного интеллекта, которое может серьезно потеснить гигантов вроде OpenAI и DeepSeek. И самое интересное: этот мощный инструмент доступен абсолютно бесплатно .

Если вы следите за развитием технологий, то Kimi AI — это именно тот проект, который стоит изучить. Он не только демонстрирует передовые возможности ИИ, но и показывает, как Китай догоняет (и даже опережает) США в гонке технологий.


⚙️Возможности Kimi 1.5:

🟡Гигантское контекстное окно: Kimi AI способен обрабатывать до 200,000 символов за один запрос. Это значит, что он легко переваривает целые книги, кодовые базы или длинные документы.
Пример: загрузите техническую документацию или роман, и Kimi проанализирует его за считанные минуты.
🟡Реальный поиск по веб-страницам: В отличие от многих моделей, которые полагаются на предварительно обученные данные, Kimi AI выполняет актуальный поиск по 1000+ веб-страницам .
Всегда свежая информация: новости, исследования, статьи.
🟡Массовая загрузка файлов: До 50 файлов одновременно : документы, таблицы, изображения. Пример использования: загрузите годовой отчет компании, несколько PDF-файлов и фотографии графиков — Kimi проанализирует всё и выдаст четкие выводы.

📈Сравнение с конкурентами:
🟡Превосходит DeepSeek в рассуждениях и логике.
🟡Уступает в математике , но всё равно показывает высокие результаты.
🟡В топе платформ Codeforces и MathVista — идеально подходит для программистов и аналитиков.

🆓Бесплатный доступ:
🟡В то время как GPT-4o и Gemini требуют подписки, Kimi AI полностью бесплатна.

Согласно последним исследованиям, китайские компании занимают лидирующие позиции в области ИИ, особенно в таких направлениях, как обработка естественного языка (NLP) и компьютерное зрение. Kimi AI демонстрирует, что Китай готов не только конкурировать, но и доминировать на мировом рынке ИИ.

Попробовать - https://kimi.ai/

_______
Источник | #neurogen_news
👍3🥴31
BlenderMCP

Очень интересный аддон, который позволяет связать Claude AI с Blender, за счёт чего claude сможет вашими текстовыми запросами управлять блендером, создавать и редактировать объекты и выполнять код python.

Система состоит из двух основных компонентов:
1. Дополнение Blender ( addon.py) : дополнение Blender, которое создает сокет-сервер в Blender для получения и выполнения команд.
2. MCP Server ( src/blender_mcp/server.py) : сервер Python, реализующий протокол контекста модели и подключающийся к дополнению Blender.

⚙️Функционал:
🟡Двусторонняя связь: подключите Claude AI к Blender через сервер на основе сокетов
🟡Манипуляция объектами: создание, изменение и удаление 3D-объектов в Blender.
🟡Контроль материалов: применение и изменение материалов и цветов.
🟡Проверка сцены: получите подробную информацию о текущей сцене Blender.
🟡Выполнение кода: запуск произвольного кода Python в Blender от Клода

🐱Github - инструкция по установке

_______
Источник | #neurogen_news
🔥2😁2👍1
DeepSeek представила новую технологию обучения reasoning-моделей: Self-Principled Critique Tuning

Что произошло

Китайская исследовательская лаборатория DeepSeek AI, представила революционный метод для улучшения способностей рассуждения в моделях искусственного интеллекта. Новая техника названа Self-Principled Critique Tuning (SPCT), нацелена на создание более универсальных и масштабируемых моделей вознаграждения (reward models).

В чем суть новой технологии

SPCT объединяет два подхода для улучшения процесса "рассуждения" моделей:

1. Генеративное моделирование вознаграждения (GRM) - вместо выдачи простой оценки, модель генерирует текстовые критические замечания, которые затем преобразуются в оценки
2. Самопринципиальная настройка критики (SPCT) - модель учится самостоятельно формулировать принципы оценки и критерии на основе запроса и ответов

Исследователи DeepSeek выявили четыре ключевые проблемы при создании универсальных моделей вознаграждения:

- Гибкость ввода: Модель должна обрабатывать различные типы входных данных и оценивать один или несколько ответов одновременно
- Точность: Необходимо генерировать точные сигналы вознаграждения в разных областях, где критерии сложны, а "правильный ответ" часто недоступен
- Масштабируемость во время вывода: Модель должна выдавать более качественные результаты при выделении большего количества вычислительных ресурсов
- Обучение масштабируемому поведению: Для эффективного масштабирования моделям нужно усваивать поведение, позволяющее улучшать производительность при увеличении вычислений

Как работает SPCT

Технология включает два основных этапа:

1. Отбраковочная тонкая настройка: На этом этапе модель обучается генерировать принципы и критические замечания в правильном формате. Примеры принимаются только если предсказанное вознаграждение соответствует эталону.

2. RL на основе правил: Модель дополнительно настраивается через обучение с подкреплением. Сигналы вознаграждения рассчитываются на основе простых правил точности.

Для решения проблемы масштабируемости во время вывода исследователи запускают модель несколько раз для одного и того же запроса, генерируя разные наборы принципов и критических замечаний. Окончательная оценка определяется голосованием (агрегацией оценок отдельных выполнений).

Дополнительно была введена мета-модель вознаграждения — отдельная, легковесная модель, обученная специально предсказывать, приведет ли принцип/критика, сгенерированные основной моделью, к правильной итоговой оценке. Она фильтрует низкокачественные суждения перед финальным голосованием.

Практическое применение

Исследователи применили SPCT к модели Gemma-2-27B от Google, создав DeepSeek-GRM-27B. Они протестировали её против нескольких сильных базовых моделей вознаграждения и публичных моделей (включая GPT-4o и Nemotron-4-340B-Reward) на нескольких тестах.

Результаты показали, что:
- DeepSeek-GRM-27B превзошла базовые методы, обученные на тех же данных
- При увеличении числа выполнений на этапе вывода производительность DeepSeek-GRM-27B значительно возрастала, превосходя даже гораздо более крупные модели
- Метамодель дополнительно улучшила масштабирование, достигая лучших результатов путем фильтрации суждений

*комментарий к изобретению в посте
Производительность DeepSeek-GRM (обученной с SPCT) продолжает улучшаться с масштабированием времени вывода.


Влияние на будущие модели

Эта технология имеет важное значение для развития моделей рассуждения. Благодаря ей можно создавать более универсальные AI-системы, способные:

- Адаптироваться к динамически меняющимся условиям
- Лучше работать с творческими задачами и заданиями без четких критериев оценки
- Улучшать свою производительность при выделении дополнительных ресурсов

Что дальше


Хотя компания официально не комментировала сроки выпуска R2 (по слухам в мае 2025), новая технология SPCT, вероятно, будет играть важную роль в архитектуре этой модели, потенциально позволяя ей превзойти текущие стандарты в области моделей рассуждения.

_______
Источник | #neurogen_news
Вышел Grok Studio: новый инструмент от xAI для создания документов, кода и игр

Что такое Grok Studio?


Grok Studio — это совместное рабочее пространство с ИИ для создания разных типов контента. Грок позволяет открывать созданный контент в отдельном окне, что значительно улучшает процесс совместной работы. Официальный аккаунт Grok в X (бывший Twitter) описывает новую функцию так:
"Сегодня мы выпускаем первую версию Grok Studio, добавляя выполнение кода и поддержку Google Drive. Grok теперь может генерировать документы, код, отчеты и браузерные игры. Grok Studio откроет ваш контент в отдельном окне, позволяя вам и Grok совместно работать над содержимым."


Ключевые возможности Grok Studio

🟡Разнообразное создание контента

- Генерация документов и отчетов: можно создавать структурированные документы или аналитические отчеты через естественно-языковые инструкции.

- Написание и выполнение кода: поддержка языков программирования, включая Python, C++, JavaScript, TypeScript и bash-скрипты, с возможностью просмотра результатов в реальном времени.

- Разработка браузерных игр: можно создавать простые браузерные игры через промпты, с автоматической генерацией JavaScript-кода и играбельными демо-версиями.

🟡Интеграция с Google Drive
Grok теперь может напрямую работать с файлами в Google Drive, включая документы, таблицы и презентации. Это значительно улучшает рабочий процесс, позволяя пользователям анализировать и модифицировать существующие файлы.

🟡Совместная работа в реальном времени
Предоставляет окно для совместной работы в реальном времени, подобное Google Docs, что делает его идеальным для удаленных команд или образовательных сценариев.

🟡Предварительный просмотр кода
Grok Studio позволяет просматривать HTML-сниппеты и запускать код прямо в браузере, что особенно полезно для быстрого прототипирования и отладки.

Доступность Grok Studio

В отличие от Canvas от ChatGPT, который доступен только платным пользователям, Grok Studio доступен всем пользователям бесплатно. Это значительное преимущество, которое делает инструмент более доступным для широкой аудитории.

Существуют, однако, различия между бесплатным и платным доступом:
- Бесплатные пользователи: имеют доступ к базовым функциям, включая ограниченную генерацию кода и обработку документов.
- Платные пользователи (X Premium+ за $40/месяц или SuperGrok за $30/месяц): получают более высокие квоты генерации, приоритетный доступ и дополнительные функции, такие как DeepSearch и режим Think Mode.

Технологические особенности


Функция предварительного просмотра в реальном времени является одним из ключевых преимуществ Grok Studio. Независимо от того, генерируете ли вы веб-страницу, визуализацию данных или игру, вы можете мгновенно видеть результаты выполнения кода, что значительно сокращает время отладки.

По данным AIbase, эта функция использует преимущества оптимизации обучения с подкреплением Grok-3 и поддержки вычислительного кластера Colossus, делая скорость вывода на 30% быстрее, чем у Grok-2.

Сравнение с конкурентами

Grok — не первый чат-бот, получивший специальное рабочее пространство для работы с проектами:
- OpenAI запустила аналогичную функцию Canvas для ChatGPT в октябре прошлого года
- Anthropic стал одним из первых, кто представил подобный инструмент под названием Artifacts для своего чат-бота Claude

Однако, Grok Studio выделяется своей многофункциональностью и доступностью для всех пользователей без необходимости платной подписки, что является существенным преимуществом перед ChatGPT Canvas.

Перспективы и ограничения

Несмотря на мощный функционал и все преимущество грока, код для сложных игр может требовать ручной оптимизации, и также есть незначительные ограничения.

Компания xAI заявляет, что Grok Studio продолжит развиваться, планируя добавить мультимодальную поддержку (такую как генерация видео), расширенную языковую поддержку и API для корпоративных нужд.

Поробовать можно на официальном сайте https://grok.com/ , через платформу X или через мобильное приложение Grok (IOS , Android)

_______
Источник | #neurogen_news