⚡️ Крутейший сервис, который поможет понять, как устроены нейросети —
Нашёл отличную вещь, которая поможет разобраться в устройстве нейросетей — Interactive Tools.
Это библиотека интерактивных визуализаций, демонстрирующих, как работают такие нейросети, как ChatGPT, Midjourney и другие.
Например, Transformer Explainer наглядно объясняет, как ChatGPT выбирает следующее слово в тексте (подсказка: это как T9, но на максималках) и почему иногда выдаётся не самое вероятное слово.
📌 Interactive Tools
@machinelearning_interview
Нашёл отличную вещь, которая поможет разобраться в устройстве нейросетей — Interactive Tools.
Это библиотека интерактивных визуализаций, демонстрирующих, как работают такие нейросети, как ChatGPT, Midjourney и другие.
Например, Transformer Explainer наглядно объясняет, как ChatGPT выбирает следующее слово в тексте (подсказка: это как T9, но на максималках) и почему иногда выдаётся не самое вероятное слово.
📌 Interactive Tools
@machinelearning_interview
Среди эти проектов:
— раскрашивание чёрно-белых изображений с помощью CV
— реализация простого чат-бота
— распознавание пола и возраста
— прогнозирование временных рядов
Самое то, чтобы закрепить понимание ML-алгоритмов на практике
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Здесь можно найти ответы на многие свои вопросы по ML и Deep Learning;
тут на примерах объясняются самые важные концепции: от построения своей нейросети и перечисления необходимых фреймворков до сравнения разных архитектур и настройки гиперпараметров
Можно использовать как один из материалов для подготовки к собеседованию
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Здесь описывается много чисто практических вещей, с которыми сталкивается ML-специлист, внедряющий модель в продакшен.
Приводится много примеров хороших практик, которые помогут строить масштабируемые и надёжные ML-системы
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Держите отличный учебник/туториал по продвинутым темам Python.
Здесь освещается большое количество разных тем, вот некоторые:
— ООП: классы, магические методы, атрибуты
— декораторы
— загрузка и предобработка датасета
— кросс-валидация
— построение разных графиков
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Компания DeepSeek создала модель, которая состоит из 236 миллиардов параметров. При этом на каждый токен активно используется 27 миллиардов. NLP-специалисты разобрали статью с подробным описанием модели DeepSeek-V2.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🤗 Hugging Face выпустили пошаговый гайд по созданию и обучению своей личной робо-руки.
Компания Hugging Face опубликовала подробную инструкцию по созданию и обучению роботизированной руки.
В ней подробно рассказывается, где приобрести необходимые компоненты, как настроить нейронную сеть, а также приведены лекции, иллюстрирующие процесс сборки.
Крутой бесплатный курс - рекомендуем)
@machinelearning_interview
Компания Hugging Face опубликовала подробную инструкцию по созданию и обучению роботизированной руки.
В ней подробно рассказывается, где приобрести необходимые компоненты, как настроить нейронную сеть, а также приведены лекции, иллюстрирующие процесс сборки.
Крутой бесплатный курс - рекомендуем)
@machinelearning_interview
Читаем статью о том, как виртуального ассистента Яндекса Алису научили понимать и выражать голосом различные эмоции. Также Алиса может постепенно менять оттенки эмоций в рамках одного диалога с пользователем. Технология доступна в новой колонке Станции Лайт 2. Разработчики рассказали, как создавали подходящую для новых возможностей модель синтеза речи.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
NVIDIA и Mistral AI представили модель Mistral-NeMo-Minitron 8B, одну из наиболее точных открытых моделей в своем классе для генерации текста.
Mistral-NeMo-Minitron-8B-Base получена в результате обрезки (pruning) и дистилляции Mistral-NeMo 12B. В процессе создания была урезана размерность эмбеддинга и промежуточная размерность MLP (с 14336 до 11520).
Комбинация применяемых методов позволила оставить количество attention heads и слоев неизменным.
После обрезки было продолжено обучение с дистилляцией, используя корпус данных от Nemotron-4 15B размером 380 миллиардов токенов для получения окончательной модели, что примерно в 40 раз меньше, чем необходимо для тренировки модели такой же плотности с нуля.
Корпус обучения (набор данных) по структуре точно такой же, как в недавно представленной другой модели, собранной по такой же методике обрезки и дистилляции.
Дата актуальности корпуса обучения - июнь 2023 года.
При создании Mistral-NeMo-Minitron 8B использованы техники Grouped-Query Attention (GQA) и Rotary Position Embeddings (RoPE).
Архитектурные характеристики:
Поддержка Mistral-NeMo-Minitron-8B-Base в Hugging Face Transformers будет реализована в ближайшем обновлении.
Для инференса модели выполните рекомендованные разработчиками инструкции или запустите модель в NeMo v.24.05
Есть неофициальные квантованные (imatrix) GGUF - версии модели в 8 разрядностях, от 1-bit (2. 12 Gb) до 16-bit (16.08 Gb).
@ai_machinelearning_big_data
#AI #NVIDIA #LLM #ML #Minitron
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM