FSCP
18.3K subscribers
30.1K photos
3.44K videos
859 files
77K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Новая модель от Mistral
Mixtral 8x22B-v01 в открытом доступе. Нейронка состоит из 8 экспертов, для анализа в нее можно загружать документы и небольшие книги. Контекстное окно на 64К токенов.

Нейросеть разбирается в математике, поддерживает русским языком (хоть и не официально) цензура отсутствует!

Тестировать тут.
Почитать тут.

Работает из России.
_______
Источник | #neurogen_news
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Llama-3-8B-Instruct-Gradient-1048k - LLaMa 3 8B, но с контекстным окном в 1 миллион токенов.

Квантованные GGUF (адаптированные для работы через CPU+RAM) версии можно скачать тут

Также модель доступна в формате MLX-4bit

Похоже, что это кандидат на самую универсальную open source модель на ближайшее время?
_______
Источник | #neurogen_news
🐾 @F_S_C_P

Узнай судьбу картами Таро:
Anna Taro bot
Gemma-2-2b - теперь без цензуры

Стала доступна для загрузки файн-тюн версия gemma-2-2b под названием gemma-2-2b-it-abliterated.

Особенность данной версии заключается в снятии цензуры, что позволяет работать с любыми запросами, в том числе с NSFW контентом.

Скачать GGUF версии данной модели можно по ссылке ниже:

huggingface.co

Если вы используете LM Studio, то для поддержки работы с данной моделью обновите программу до последней версии.

#llm #gemma

_______
Источник | #neurogen_news
@F_S_C_P

-------
поддержи канал
-------
Reflection 70B - дообученная Llama 3.1, обгоняющая все GPT-4o

Модель была дообучена на синтетических данных (созданных другой нейросетью) и по бенчмаркам обходит GPT-4o, а в скором времени обещают выпуск модели на 405B параметров.

Особенность модели - она проверяет сама себя и исправляет, перед тем как дать финальный ответ. Из-за этого время генерации ответа увеличивается, но и улучшается качество ответа.

Модель доступна в для загрузки, но даже квантованная до 4-bit GGUF версия требует 42.5 Гигабайта видео или оперативной памяти, а версия квантованная до 2-bit - 29.4 Gb.

Тем не менее, протестировать ее можно тут: Reflection 70B Playground, но из-за большой нагрузки сайт периодически ложится

#llm #ai #chatgpt

_______
Источник | #neurogen_news
@F_S_C_P

-------
Секретики!
-------