Новая модель от Mistral
Mixtral 8x22B-v01 в открытом доступе. Нейронка состоит из 8 экспертов, для анализа в нее можно загружать документы и небольшие книги. Контекстное окно на 64К токенов.
Нейросеть разбирается в математике, поддерживает русским языком (хоть и не официально) цензура отсутствует!
Тестировать тут.
Почитать тут.
Работает из России.
_______
Источник | #neurogen_news
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Mixtral 8x22B-v01 в открытом доступе. Нейронка состоит из 8 экспертов, для анализа в нее можно загружать документы и небольшие книги. Контекстное окно на 64К токенов.
Нейросеть разбирается в математике, поддерживает русским языком (хоть и не официально) цензура отсутствует!
Тестировать тут.
Почитать тут.
Работает из России.
_______
Источник | #neurogen_news
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
mistral.ai
Cheaper, Better, Faster, Stronger
Continuing to push the frontier of AI and making it accessible to all.
Llama-3-8B-Instruct-Gradient-1048k - LLaMa 3 8B, но с контекстным окном в 1 миллион токенов.
Квантованные GGUF (адаптированные для работы через CPU+RAM) версии можно скачать тут
Также модель доступна в формате MLX-4bit
Похоже, что это кандидат на самую универсальную open source модель на ближайшее время?
_______
Источник | #neurogen_news
🐾 @F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Квантованные GGUF (адаптированные для работы через CPU+RAM) версии можно скачать тут
Также модель доступна в формате MLX-4bit
Похоже, что это кандидат на самую универсальную open source модель на ближайшее время?
_______
Источник | #neurogen_news
🐾 @F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
huggingface.co
gradientai/Llama-3-8B-Instruct-Gradient-1048k · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Gemma-2-2b - теперь без цензуры
Стала доступна для загрузки файн-тюн версия gemma-2-2b под названием gemma-2-2b-it-abliterated.
Особенность данной версии заключается в снятии цензуры, что позволяет работать с любыми запросами, в том числе с NSFW контентом.
Скачать GGUF версии данной модели можно по ссылке ниже:
huggingface.co
Если вы используете LM Studio, то для поддержки работы с данной моделью обновите программу до последней версии.
#llm #gemma
_______
Источник | #neurogen_news
@F_S_C_P
-------
поддержи канал
-------
Стала доступна для загрузки файн-тюн версия gemma-2-2b под названием gemma-2-2b-it-abliterated.
Особенность данной версии заключается в снятии цензуры, что позволяет работать с любыми запросами, в том числе с NSFW контентом.
Скачать GGUF версии данной модели можно по ссылке ниже:
huggingface.co
Если вы используете LM Studio, то для поддержки работы с данной моделью обновите программу до последней версии.
#llm #gemma
_______
Источник | #neurogen_news
@F_S_C_P
-------
поддержи канал
-------
huggingface.co
bartowski/gemma-2-2b-it-abliterated-GGUF · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Reflection 70B - дообученная Llama 3.1, обгоняющая все GPT-4o
Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.
Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.
Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.
Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится
#llm #ai #chatgpt
_______
Источник | #neurogen_news
@F_S_C_P
-------
Секретики!
-------
Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.
Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.
Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.
Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится
#llm #ai #chatgpt
_______
Источник | #neurogen_news
@F_S_C_P
-------
Секретики!
-------