⚡️ Крутейший сервис, который поможет понять, как устроены нейросети —
Нашёл отличную вещь, которая поможет разобраться в устройстве нейросетей — Interactive Tools.
Это библиотека интерактивных визуализаций, демонстрирующих, как работают такие нейросети, как ChatGPT, Midjourney и другие.
Например, Transformer Explainer наглядно объясняет, как ChatGPT выбирает следующее слово в тексте (подсказка: это как T9, но на максималках) и почему иногда выдаётся не самое вероятное слово.
📌 Interactive Tools
@machinelearning_interview
Нашёл отличную вещь, которая поможет разобраться в устройстве нейросетей — Interactive Tools.
Это библиотека интерактивных визуализаций, демонстрирующих, как работают такие нейросети, как ChatGPT, Midjourney и другие.
Например, Transformer Explainer наглядно объясняет, как ChatGPT выбирает следующее слово в тексте (подсказка: это как T9, но на максималках) и почему иногда выдаётся не самое вероятное слово.
📌 Interactive Tools
@machinelearning_interview
👍10🔥4❤3
Среди эти проектов:
— раскрашивание чёрно-белых изображений с помощью CV
— реализация простого чат-бота
— распознавание пола и возраста
— прогнозирование временных рядов
Самое то, чтобы закрепить понимание ML-алгоритмов на практике
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥4❤2
Здесь можно найти ответы на многие свои вопросы по ML и Deep Learning;
тут на примерах объясняются самые важные концепции: от построения своей нейросети и перечисления необходимых фреймворков до сравнения разных архитектур и настройки гиперпараметров
Можно использовать как один из материалов для подготовки к собеседованию
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤4🔥3🖕1
Здесь описывается много чисто практических вещей, с которыми сталкивается ML-специлист, внедряющий модель в продакшен.
Приводится много примеров хороших практик, которые помогут строить масштабируемые и надёжные ML-системы
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍5🔥3⚡1
Держите отличный учебник/туториал по продвинутым темам Python.
Здесь освещается большое количество разных тем, вот некоторые:
— ООП: классы, магические методы, атрибуты
— декораторы
— загрузка и предобработка датасета
— кросс-валидация
— построение разных графиков
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30👍5🥰1
Компания DeepSeek создала модель, которая состоит из 236 миллиардов параметров. При этом на каждый токен активно используется 27 миллиардов. NLP-специалисты разобрали статью с подробным описанием модели DeepSeek-V2.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🤗 Hugging Face выпустили пошаговый гайд по созданию и обучению своей личной робо-руки.
Компания Hugging Face опубликовала подробную инструкцию по созданию и обучению роботизированной руки.
В ней подробно рассказывается, где приобрести необходимые компоненты, как настроить нейронную сеть, а также приведены лекции, иллюстрирующие процесс сборки.
Крутой бесплатный курс - рекомендуем)
@machinelearning_interview
Компания Hugging Face опубликовала подробную инструкцию по созданию и обучению роботизированной руки.
В ней подробно рассказывается, где приобрести необходимые компоненты, как настроить нейронную сеть, а также приведены лекции, иллюстрирующие процесс сборки.
Крутой бесплатный курс - рекомендуем)
@machinelearning_interview
❤10👍4🔥3
Читаем статью о том, как виртуального ассистента Яндекса Алису научили понимать и выражать голосом различные эмоции. Также Алиса может постепенно менять оттенки эмоций в рамках одного диалога с пользователем. Технология доступна в новой колонке Станции Лайт 2. Разработчики рассказали, как создавали подходящую для новых возможностей модель синтеза речи.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍3🔥3
Forwarded from Machinelearning
NVIDIA и Mistral AI представили модель Mistral-NeMo-Minitron 8B, одну из наиболее точных открытых моделей в своем классе для генерации текста.
Mistral-NeMo-Minitron-8B-Base получена в результате обрезки (pruning) и дистилляции Mistral-NeMo 12B. В процессе создания была урезана размерность эмбеддинга и промежуточная размерность MLP (с 14336 до 11520).
Комбинация применяемых методов позволила оставить количество attention heads и слоев неизменным.
После обрезки было продолжено обучение с дистилляцией, используя корпус данных от Nemotron-4 15B размером 380 миллиардов токенов для получения окончательной модели, что примерно в 40 раз меньше, чем необходимо для тренировки модели такой же плотности с нуля.
Корпус обучения (набор данных) по структуре точно такой же, как в недавно представленной другой модели, собранной по такой же методике обрезки и дистилляции.
Дата актуальности корпуса обучения - июнь 2023 года.
При создании Mistral-NeMo-Minitron 8B использованы техники Grouped-Query Attention (GQA) и Rotary Position Embeddings (RoPE).
Архитектурные характеристики:
Поддержка Mistral-NeMo-Minitron-8B-Base в Hugging Face Transformers будет реализована в ближайшем обновлении.
Для инференса модели выполните рекомендованные разработчиками инструкции или запустите модель в NeMo v.24.05
Есть неофициальные квантованные (imatrix) GGUF - версии модели в 8 разрядностях, от 1-bit (2. 12 Gb) до 16-bit (16.08 Gb).
@ai_machinelearning_big_data
#AI #NVIDIA #LLM #ML #Minitron
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍5❤4