Forwarded from Machinelearning
Shape of Motion представляет динамическую сцену как набор 3D-гауссианов, перемещающихся и вращающихся во времени.
Движение каждого элемента сцены параметризуется как линейная комбинация компактного набора базисных движений SE(3), что дает возможность разделить сцену на группы, движущиеся как жесткие тела.
Преодоление неоднозначности реконструкции достигается с помощью низкоразмерных структур 3D-движения через базисы SE(3) и комплексный набор априорных данных, на основе монокулярных карты глубины и долгосрочных 2D-треков.
Процесс финального построения 3D-сцены основан на комбинации статических и динамических гауссианов, с учетом прогноза реконструкции для цвета, глубины и масок и синтезированной согласованности этих соответствий во времени.
На тренировочном наборе данных (Iphone dataset, набор видео размером ~ 300GB) были построены более 40 тысяч динамических и более 100 тысяч статических гауссианов, 20 базисов SE(3).
Время обучения на 1хGPU A100 с использованием оптимизатора Adam разрешением 960x720 составило чуть более 2-х часов при скорости рендеринга 40 кадров в секунду.
По результатам тестов в процессе обучения, Shape of Motion показал хорошие результаты по качеству и консистентности построения сцен.
Однако, метод все еще требует оптимизации для каждой конкретной сцены и не может обрабатывать значительные изменения ракурса камеры. Также установлена критическая зависимость от точных параметров камеры и пользовательского ввода для создания маски движущихся объектов.
# Install via conda
conda create -n som python=3.10
conda activate som
# pip install
pip install -r requirements.txt
pip install git+https://github.com/nerfstudio-project/gsplat.git
python run_training.py --work-dir <OUTPUT_DIR> --data:<DATA> --data.seq-name <DATASEQ_NAME>
👉Препроцессинговая обработка (построение карт глубины, маскирование объектов, 2D трекинг и оценка камеры) выполняется сторонними библиотеками. Внимательно ознакомьтесь с документацией
👉Лицензирование: MIT
▪Страница проекта
▪Arxiv
▪Датасет на GDrive
▪Github [ Stars: 365 | Issues: 2 | Forks: 18]
@ai_machinelearning_big_data
#AI #4D #ShapeOfMotion #ML
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3❤2
🔥 Проект "ML System Design: 450 Примеров для Изучения" представляет собой обширную базу, содержащую описания систем машинного обучения более чем от 100 компаний, включая таких гигантов, как Netflix и Slack.
ы можете исследовать базу данных, применяя фильтры по отраслям или направлениям машинного обучения, чтобы найти нужные примеры.
▪️Проверка качества сгенерированного ИИ материала;
▪️Netflix: классификация контента;
▪️Google: исправление грамматических ошибок
▪️ Полная база
@machinelearning_ru
ы можете исследовать базу данных, применяя фильтры по отраслям или направлениям машинного обучения, чтобы найти нужные примеры.
▪️Проверка качества сгенерированного ИИ материала;
▪️Netflix: классификация контента;
▪️Google: исправление грамматических ошибок
▪️ Полная база
@machinelearning_ru
🔥3
Forwarded from Machinelearning
Lite-Oute-1: семейство компактных base и instruct моделей
Oute AI представила в открытом доступе модели на 300М, 150M и 65М параметров в base и instruct вариантах и в GGUF-формате. Список релиза:
🟠 Lite-Oute-1-300M Base
🟠 Lite-Oute-1-300M-Instruct
🟠 Lite-Oute-1-300M Base GGUF
🟠 Lite-Oute-1-300M-Instruct GGUF
🟠 Lite-Mistral-150M-v2-Instruct
🟠 Lite-Mistral-150M-v2-Instruct GGUF
🟠 Lite-Oute-1-65M Base
🟠 Lite-Oute-1-65M-Instruct
🟠 Lite-Oute-1-65M Base GGUF
🟠 Lite-Oute-1-65M-Instruct GGUF
Lite-Oute-1-300M: "старшая" модель семейства на архитектуре Mistral с 300М параметров и контекстом в 4096 токенов. Эта модель специально разработана в качестве отправной точки для тонкой настройки при выполнении различных задач. Она обеспечивает баланс между компактными размерами и возможностями.
Некоторые оценки 0-shot: MMLU - 24.87, Winogrande- 53.35, OpenBookQA - 30.80
Lite-Oute-1-300M Base GGUF: диапазон квантования от FP16 (600 МВ) до Q2_K (176 MB), всего 15 вариаций.
Lite-Oute-1-300M-Instruct: instruct-версия 300М Base с теми же параметрами. Модель использует шаблон ChatML.
Некоторые оценки 0-shot: MMLU - 24.00, Winogrande- 53.75, OpenBookQA - 32.20
Lite-Oute-1-300M-Instruct GGUF: диапазон квантования от FP16 (600 МВ) до Q2_K(176 MB), всего 15 вариаций.
Модель использует шаблон ChatML
Lite-Mistral-150M-v2-Instruct: модель на основе архитектуры Mistral, включающая около 157М параметров. Основной целью создания этой модели была разработка компактной и эффективной модели, способной работать на широком спектре устройств, сохраняя при этом разумный уровень функциональности и согласованности для своего небольшого размера. Модель была обучена на ~ 8 миллиардах токенов.
Некоторые оценки 0-shot: MMLU - 25.28, Winogrande- 51.78, OpenBookQA - 28.40
⚠️ Модель чувствительна к используемому шаблону чата, уточните его на странице модели на HF.
Lite-Mistral-150M-v2-Instruct GGUF: диапазон квантования от FP16 (314 МВ) до Q2_K (68.5 MB), всего 15 вариаций.
⚠️ Модель чувствительна к используемому шаблону чата, уточните его на странице модели на HF.
Lite-Oute-1-65M Base: экспериментальная ультракомпактная базовая модель, построенная на архитектуре LLaMA и содержащая около 65М параметров.
Эта модель предназначена в качестве отправной точки для тонкой настройки под узкоспециальные задачи. Из-за своего чрезвычайно малого размера эта модель имеет базовые возможности генерации текста, но испытывает трудности с инструкциями или поддержанием связности тем.
Некоторые оценки 0-shot: MMLU - 23.05, Winogrande- 51.70, OpenBookQA - 27.60
Lite-Oute-1-65M Base GGUF: диапазон квантования от FP16 (131 МВ) до Q2_K (31.5 MB), всего 15 вариаций.
Lite-Oute-1-65M-Instruct: instruct-версия 65М Base с теми же параметрами.
Некоторые оценки 0-shot: MMLU - 23.45, Winogrande- 50.04, OpenBookQA - 28.60.
Модель использует шаблон ChatML.
Lite-Oute-1-65M-Instruct GGUF: диапазон квантования от FP16 (131 МВ) до Q2_K(31.5 MB), всего 15 вариаций.
Модель использует шаблон ChatML
🟡 Страница проекта
🟡 Все модели на HF
@ai_machinelearning_big_data
#AI #TinyLM #ML #OuteAI #GGUF
Oute AI представила в открытом доступе модели на 300М, 150M и 65М параметров в base и instruct вариантах и в GGUF-формате. Список релиза:
Lite-Oute-1-300M: "старшая" модель семейства на архитектуре Mistral с 300М параметров и контекстом в 4096 токенов. Эта модель специально разработана в качестве отправной точки для тонкой настройки при выполнении различных задач. Она обеспечивает баланс между компактными размерами и возможностями.
Некоторые оценки 0-shot: MMLU - 24.87, Winogrande- 53.35, OpenBookQA - 30.80
Lite-Oute-1-300M Base GGUF: диапазон квантования от FP16 (600 МВ) до Q2_K (176 MB), всего 15 вариаций.
Lite-Oute-1-300M-Instruct: instruct-версия 300М Base с теми же параметрами. Модель использует шаблон ChatML.
Некоторые оценки 0-shot: MMLU - 24.00, Winogrande- 53.75, OpenBookQA - 32.20
Lite-Oute-1-300M-Instruct GGUF: диапазон квантования от FP16 (600 МВ) до Q2_K(176 MB), всего 15 вариаций.
Модель использует шаблон ChatML
Lite-Mistral-150M-v2-Instruct: модель на основе архитектуры Mistral, включающая около 157М параметров. Основной целью создания этой модели была разработка компактной и эффективной модели, способной работать на широком спектре устройств, сохраняя при этом разумный уровень функциональности и согласованности для своего небольшого размера. Модель была обучена на ~ 8 миллиардах токенов.
Некоторые оценки 0-shot: MMLU - 25.28, Winogrande- 51.78, OpenBookQA - 28.40
⚠️ Модель чувствительна к используемому шаблону чата, уточните его на странице модели на HF.
Lite-Mistral-150M-v2-Instruct GGUF: диапазон квантования от FP16 (314 МВ) до Q2_K (68.5 MB), всего 15 вариаций.
⚠️ Модель чувствительна к используемому шаблону чата, уточните его на странице модели на HF.
Lite-Oute-1-65M Base: экспериментальная ультракомпактная базовая модель, построенная на архитектуре LLaMA и содержащая около 65М параметров.
Эта модель предназначена в качестве отправной точки для тонкой настройки под узкоспециальные задачи. Из-за своего чрезвычайно малого размера эта модель имеет базовые возможности генерации текста, но испытывает трудности с инструкциями или поддержанием связности тем.
Некоторые оценки 0-shot: MMLU - 23.05, Winogrande- 51.70, OpenBookQA - 27.60
Lite-Oute-1-65M Base GGUF: диапазон квантования от FP16 (131 МВ) до Q2_K (31.5 MB), всего 15 вариаций.
Lite-Oute-1-65M-Instruct: instruct-версия 65М Base с теми же параметрами.
Некоторые оценки 0-shot: MMLU - 23.45, Winogrande- 50.04, OpenBookQA - 28.60.
Модель использует шаблон ChatML.
Lite-Oute-1-65M-Instruct GGUF: диапазон квантования от FP16 (131 МВ) до Q2_K(31.5 MB), всего 15 вариаций.
Модель использует шаблон ChatML
@ai_machinelearning_big_data
#AI #TinyLM #ML #OuteAI #GGUF
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥2
Forwarded from Machinelearning
Zamba2-2.7B - это гибридная модель, состоящая из блоков пространства состояний (state-space) и трансформеров. Она сохраняет качество инференса модели 3-4В плотности, требуя при этом вычислительных ресурсов на уровне модели плотностью 1-2B.
Такие характеристики были получены за счет использования блоков Mamba2, чередования блоков внимания в схеме "А-В-А-В" и применения LoRA projector для каждого общего MLP-блока.
Zamba2-2.7B использует токенизатор Mistral v0.1 и была предварительно обучена на 3T токенов текста и кода, полученных из открытых источников, включая датасет Zyda.
По завершению обучения, модель была подвергнута дополнительной фазе агрессивного снижения скорости обучения на смеси из 100B высококачественных токенов.
Согласно заверению создателей, Zamba2-2.7B достигает лучших результатов среди моделей аналогичного масштаба, таких как Gemma2-2.7B, StableLM-3B, OpenELM-3B и Phi2-2.7B.
⚠️ Внимание:
Эксплуатация модели доступна с использованием Zyphra's fork of transformers или с помощью кода из репозитория разработчиков модели.
# Сlone and install
git clone https://github.com/Zyphra/Zamba2.git
cd Zamba2
pip install -e
# Install core mamba dependencies
pip install -U mamba-ssm causal-conv1d
# Inference
from mamba_model import MambaModel
from mamba_config import MambaConfig
import torch
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Zyphra/Zamba2-2.7B")
input_text = 'A funny prompt would be '
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")["input_ids"].transpose(0,1)
model = MambaModel.from_pretrained(model_name = "Zyphra/Zamba2-2.7B").cuda().half()
tokens_to_generate = 20
model.eval()
with torch.no_grad():
for _ in range(tokens_to_generate):
out = model(input_ids)
out_last = out[:, -1]
idx = torch.argmax(out_last)[None, None]
input_ids = torch.cat((input_ids, idx), dim=0)
input_ids = input_ids.transpose(0, 1)[0]
print(repr(tokenizer.decode(input_ids.cpu().numpy().tolist())))
@ai_machinelearning_big_data
#AI #ML #SLM #Mamba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 YandexART освоил реставрацию архивных видеоматериалов
Модель научили избегать генерацию несуществующих деталей и сохранять историческую достоверность. Это было достигнуто благодаря поэтапному обучению на материалах низкого качества.
Нейросеть способна добавлять фактуру и недостающие детали на размытые и нечеткие кадры, восстанавливая такие элементы, как кирпичная кладка на стенах, узоры на одежде и детали автомобилей. Кроме того, технология позволяет увеличивать разрешение и резкость изображения.
Технология может найти применение в работе с историческими видеоархивами, открывая новые возможности для исследователей, архивистов и специалистов по обработке видео.
@machinelearning_ru
Модель научили избегать генерацию несуществующих деталей и сохранять историческую достоверность. Это было достигнуто благодаря поэтапному обучению на материалах низкого качества.
Нейросеть способна добавлять фактуру и недостающие детали на размытые и нечеткие кадры, восстанавливая такие элементы, как кирпичная кладка на стенах, узоры на одежде и детали автомобилей. Кроме того, технология позволяет увеличивать разрешение и резкость изображения.
Технология может найти применение в работе с историческими видеоархивами, открывая новые возможности для исследователей, архивистов и специалистов по обработке видео.
@machinelearning_ru
❤8👍4🔥1
Wow, World-Class AI For Free, For Everyone!
https://www.youtube.com/watch?v=gBXBRffpAew
@machinelearning_ru
https://www.youtube.com/watch?v=gBXBRffpAew
@machinelearning_ru
YouTube
Wow, World-Class AI For Free, For Everyone!
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambdalabs.com/paper
📝 The paper "The Llama 3 Herd of Models" is available here:
https://ai.meta.com/blog/meta-llama-3-1/
https://ai.meta.com/research/publications/the-llama-3-herd-of-models/…
📝 The paper "The Llama 3 Herd of Models" is available here:
https://ai.meta.com/blog/meta-llama-3-1/
https://ai.meta.com/research/publications/the-llama-3-herd-of-models/…
👍4❤2🔥2
🧠 Подробный гайд, о том, как использовать SAM 2 для сегментации видео
https://blog.roboflow.com/sam-2-video-segmentation/
@machinelearning_ru
https://blog.roboflow.com/sam-2-video-segmentation/
@machinelearning_ru
🔥6👍3❤2
OpenAI’s New AI: Being Smart Is Overrated!
https://www.youtube.com/watch?v=qt-B2cg0pCM
@machinelearning_ru
https://www.youtube.com/watch?v=qt-B2cg0pCM
@machinelearning_ru
YouTube
OpenAI’s New AI: Being Smart Is Overrated!
❤️ Check out Weights & Biases and sign up for a free demo here: https://wandb.me/papersllm
📝 The paper "Prover-Verifier Games improve legibility of LLM outputs" is available here:
https://openai.com/index/prover-verifier-games-improve-legibility/
📝My neural…
📝 The paper "Prover-Verifier Games improve legibility of LLM outputs" is available here:
https://openai.com/index/prover-verifier-games-improve-legibility/
📝My neural…
👍6❤2🔥2
🚨Tora: Ориентированный на траекторию диффузионный преобразователь для генерации видео
В этой статье представлен Tora, первый ориентированный на траекторию DiT-фреймворк, который одновременно объединяет текстовые, визуальные и траекторийные условия для генерации видео
🌟𝐏𝐫𝐨𝐣: https://ali-videoai.github.io/tora_video/
🚀𝐀𝐛𝐬: https://arxiv.org/abs/2407.21705
@machinelearning_ru
В этой статье представлен Tora, первый ориентированный на траекторию DiT-фреймворк, который одновременно объединяет текстовые, визуальные и траекторийные условия для генерации видео
🌟𝐏𝐫𝐨𝐣: https://ali-videoai.github.io/tora_video/
🚀𝐀𝐛𝐬: https://arxiv.org/abs/2407.21705
@machinelearning_ru
🔥5❤3👍2
Sora: Инновационный фреймворк для генерации звука на основе текстовых описаний
Представляем Sora, новаторский фреймворк для генерации звуковых файлов на основе текстовых описаний. Sora использует передовые алгоритмы машинного обучения для преобразования текстовых запросов в реалистичные звуки и аудиофрагменты.
Основные особенности Sora:
Интерпретация текстовых описаний: Sora анализирует текстовые описания и преобразует их в звуковые файлы, что открывает новые возможности для создания аудиоконтента.
Высокое качество звука: Фреймворк обеспечивает высокое качество и реалистичность генерируемых звуков, что делает его идеальным для использования в различных приложениях, от игр до медиапроектов.
Гибкость и настройка: Sora позволяет настраивать параметры генерации звука для достижения нужного результата, предоставляя полный контроль над процессом.
Пример использования Sora:
🖥 GitHub
@machinelearning_ru
Представляем Sora, новаторский фреймворк для генерации звуковых файлов на основе текстовых описаний. Sora использует передовые алгоритмы машинного обучения для преобразования текстовых запросов в реалистичные звуки и аудиофрагменты.
Основные особенности Sora:
Интерпретация текстовых описаний: Sora анализирует текстовые описания и преобразует их в звуковые файлы, что открывает новые возможности для создания аудиоконтента.
Высокое качество звука: Фреймворк обеспечивает высокое качество и реалистичность генерируемых звуков, что делает его идеальным для использования в различных приложениях, от игр до медиапроектов.
Гибкость и настройка: Sora позволяет настраивать параметры генерации звука для достижения нужного результата, предоставляя полный контроль над процессом.
Пример использования Sora:
from sora import SoundGenerator
# Создание экземпляра генератора звука
generator = SoundGenerator()
# Генерация звука на основе текстового описания
sound = generator.generate("шум дождя на фоне городских улиц")
# Сохранение сгенерированного звука
sound.save("rainy_city.mp3")
🖥 GitHub
@machinelearning_ru
👍7👎3❤2🔥2
OpenAI’s DALL-E 3-Like AI For Free, Forever!
https://www.youtube.com/watch?v=-7crpGKEA2g
@machinelearning_ru
https://www.youtube.com/watch?v=-7crpGKEA2g
@machinelearning_ru
YouTube
OpenAI’s DALL-E 3-Like AI For Free, Forever!
❤️ Check out Weights & Biases and sign up for a free demo here: https://wandb.me/papersllm
Flux is available here:
https://blackforestlabs.ai/
Try it:
1. https://fal.ai/models/fal-ai/flux-pro
2. https://replicate.com/black-forest-labs/flux-pro
Run it yourself…
Flux is available here:
https://blackforestlabs.ai/
Try it:
1. https://fal.ai/models/fal-ai/flux-pro
2. https://replicate.com/black-forest-labs/flux-pro
Run it yourself…
👍2❤1
Это репозиторий для Llama 3.1 - то же самое, что nanoGPT для GPT-2. то есть это минимальная реализация архитектуры Llama 3.1 без зависимостей, и ее можно очень просто обучать, настраивать и выводить. Это можно сравнить с официальным выпуском кода от Metal и реализацией huggingface, которые содержат более сложные зависимости и намного больше кода (например, fair).
В настоящее время код основан на базовой модели 8B в Llama 3.1.
WIP., активно разрабатываемый, не готовый к прайм-тайму.
https://github.com/karpathy/nano-llama31/tree/master
@machinelearning_ru
В настоящее время код основан на базовой модели 8B в Llama 3.1.
WIP., активно разрабатываемый, не готовый к прайм-тайму.
https://github.com/karpathy/nano-llama31/tree/master
@machinelearning_ru
👍8❤4🔥3
⚽️ Гайд по созданию CV системы по отслеживанию мяча
https://blog.roboflow.com/tracking-ball-sports-computer-vision/
@machinelearning_ru
https://blog.roboflow.com/tracking-ball-sports-computer-vision/
@machinelearning_ru
👍6❤2🔥2🤬1
🔥 Если вам нужен рабочий пример скрипта для измерения перформанса вашего железа, это отличный вариант.
Этот скрипт поддерживает:
- NVIDIA: V100, A100, H100, ...
- AMD: MI 250, MI300X, ...
- Intel Gaudi2+
https://github.com/stas00/ml-engineering/blob/master/compute/accelerator/benchmarks/mamf-finder.py
@machinelearning_ru
Этот скрипт поддерживает:
- NVIDIA: V100, A100, H100, ...
- AMD: MI 250, MI300X, ...
- Intel Gaudi2+
https://github.com/stas00/ml-engineering/blob/master/compute/accelerator/benchmarks/mamf-finder.py
@machinelearning_ru
👍9❤3🔥1
Forwarded from Machinelearning
Новостной дайджест
✔️ Jimeng AI: сервис от ByteDance для генерации видео запущен на матрикового Китае.
ByteDance запустила сервис для генерации видео на основе искусственного интеллекта под названием Jimeng AI, намереваясь конкурировать с Sora от OpenAI и аналогичными продуктами .
Разработанное Faceu Technology, которая является частью бизнеса ByteDance Jianying, известного по приложению CapCut, Jimeng AI доступно в Apple App Store для китайских пользователей.
Программное обеспечение позволяет пользователям создавать видео и изображения на основе текстовых подсказок. Jimeng AI предлагает планы подписки, начинающиеся от 69 юаней в месяц (примерно 10 USD). О планах вывода сервиса на международный рынок сведений нет.
news18.com
✔️ LG представляет первую в Южной Корее AI-модель с открытым исходным кодом.
LG AI Research представила Exaone 3.0, LLM третьего поколения этой серии.
Exaone 3.0 достигла высших мировых рейтингов в бенчмарках реальных сценариев использования, кодированию и математике, превзойдя Llama 3.1 от Meta и Gemma 2 от Google.
Модель двуязычна, способна понимать как корейский, так и английский языки и обучена на более чем 60 миллионах параметрах из различных специализированных областей. LG AI Research планирует расширить это до более чем 100 миллионов параметров концу 2024 года.
Облегченная версия Exaone 3.0 выпускается как модель с открытым исходным кодом для поддержки исследований и разработок в экосистеме искусственного интеллекта. LG также планирует интегрировать Exaone 3.0 в свои продукты и услуги и изучает возможности глобального партнерства для расширения его применения в реальных отраслях.
asianews.network
✔️ Mistral AI запустила файнтюн моделей, раннюю версию Agents и SDK для разработки приложений генеративного ИИ.
Файнтюн моделей Mistral Large 2 и Codestral (base prompting, few-shot prompting, обучение на своих датасетах) добавлен в платформе La Plateforme.
Альфа-версия «Агентов» позволяют создавать роли и рабочие процессы с помощью простых инструкций и примеров для использования в Le Chat или через API.
SDK MistralAi 1.0, поддерживает Python и Typescript.
Все новинки Mistal доступны только пользователям с платной подпиской в интерфейсе La Plateforme на сайте Mistral.
mistral.ai
@ai_machinelearning_big_data
#news #ai #ml
ByteDance запустила сервис для генерации видео на основе искусственного интеллекта под названием Jimeng AI, намереваясь конкурировать с Sora от OpenAI и аналогичными продуктами .
Разработанное Faceu Technology, которая является частью бизнеса ByteDance Jianying, известного по приложению CapCut, Jimeng AI доступно в Apple App Store для китайских пользователей.
Программное обеспечение позволяет пользователям создавать видео и изображения на основе текстовых подсказок. Jimeng AI предлагает планы подписки, начинающиеся от 69 юаней в месяц (примерно 10 USD). О планах вывода сервиса на международный рынок сведений нет.
news18.com
LG AI Research представила Exaone 3.0, LLM третьего поколения этой серии.
Exaone 3.0 достигла высших мировых рейтингов в бенчмарках реальных сценариев использования, кодированию и математике, превзойдя Llama 3.1 от Meta и Gemma 2 от Google.
Модель двуязычна, способна понимать как корейский, так и английский языки и обучена на более чем 60 миллионах параметрах из различных специализированных областей. LG AI Research планирует расширить это до более чем 100 миллионов параметров концу 2024 года.
Облегченная версия Exaone 3.0 выпускается как модель с открытым исходным кодом для поддержки исследований и разработок в экосистеме искусственного интеллекта. LG также планирует интегрировать Exaone 3.0 в свои продукты и услуги и изучает возможности глобального партнерства для расширения его применения в реальных отраслях.
asianews.network
Файнтюн моделей Mistral Large 2 и Codestral (base prompting, few-shot prompting, обучение на своих датасетах) добавлен в платформе La Plateforme.
Альфа-версия «Агентов» позволяют создавать роли и рабочие процессы с помощью простых инструкций и примеров для использования в Le Chat или через API.
SDK MistralAi 1.0, поддерживает Python и Typescript.
Все новинки Mistal доступны только пользователям с платной подпиской в интерфейсе La Plateforme на сайте Mistral.
mistral.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1