🔝 "Шесть способов отладки моделей машинного обучения" от weights_biases, статья в которой расматриваются методы отладки моделей.
• Читать
Погрузитесь глубже в эту тему с помощью бесплатного курса "Оценка и отладка генеративных моделей ИИ с помощью W&B".
@machinelearning_interview
• Читать
Погрузитесь глубже в эту тему с помощью бесплатного курса "Оценка и отладка генеративных моделей ИИ с помощью W&B".
@machinelearning_interview
This media is not supported in your browser
VIEW IN TELEGRAM
Введение в модель эмбединга "Матрешка" 🪆.
Узнайте, как эти модели способны создавать эмбедингы различной размерности, как они могут ускорить выполнение таких задач, как поиск информации, и как вы можете обучить свои собственные модели ! 👇
🔗 https://hf.co/blog/matryoshka
@machinelearning_interview
Узнайте, как эти модели способны создавать эмбедингы различной размерности, как они могут ускорить выполнение таких задач, как поиск информации, и как вы можете обучить свои собственные модели ! 👇
🔗 https://hf.co/blog/matryoshka
@machinelearning_interview
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 NVIDIA AI Foundation Models
Вы можете тестировать модели с открытым исходным кодом, используя NVIDIAAI.
Взаимодействуйте с новейшими современными API моделей ИИ, оптимизированными на базе ускоренных вычислений NVIDIA, прямо из браузера.
https://catalog.ngc.nvidia.com/ai-foundation-models
ai_machinelearning_big_data
Вы можете тестировать модели с открытым исходным кодом, используя NVIDIAAI.
Взаимодействуйте с новейшими современными API моделей ИИ, оптимизированными на базе ускоренных вычислений NVIDIA, прямо из браузера.
Gemma 7B, Llama 2 70B, Kosmos-2, Mixtral 8x7B Instruct, Stable Diffusion X
L и многое другое 🥳 https://catalog.ngc.nvidia.com/ai-foundation-models
ai_machinelearning_big_data
📌 Tech-Interview : Important Topics and Techniques
В этом репозитории собрано все, что нужно, чтобы подготовиться к техническим собеседованиям, а также самые важные советы и методики подготовки к собесу.
▪Github
@machinelearning_interview
В этом репозитории собрано все, что нужно, чтобы подготовиться к техническим собеседованиям, а также самые важные советы и методики подготовки к собесу.
▪Github
@machinelearning_interview
⚡️ Новая архитектура без трансформеров DeepCN , превосходит все возможные трансформеры в анализе временных рядов.
Репозиторий, показывающий, почему трансформеры не работают в прогнозировании временных рядов, демонстрирующий лучшие модели SOTA без трансформеров '
▪Github
#прогнозирование
@machinelearning_interview
Репозиторий, показывающий, почему трансформеры не работают в прогнозировании временных рядов, демонстрирующий лучшие модели SOTA без трансформеров '
Transformers Are What You Don't Need
' -> ▪Github
#прогнозирование
@machinelearning_interview
🎙Создание локально работающего голосового помощника
В этой статье я расскажу о том, как создать помощника, который позволит вокально взаимодействовать с LLM с открытым исходным кодом. Все компоненты будут работать локально на вашем компьютере.
Архитектура
Архитектура включает три отдельных компонента:
🔵 сервис обнаружения “пробуждающего” слова, активирующего голосового помощника (wake-word detection service);
🔵 сервис голосового помощника (voice assistant service);
🔵 чат-сервис (chat service).
📌 Продолжение
@machinelearning_interview
В этой статье я расскажу о том, как создать помощника, который позволит вокально взаимодействовать с LLM с открытым исходным кодом. Все компоненты будут работать локально на вашем компьютере.
Архитектура
Архитектура включает три отдельных компонента:
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
GitLab Duo Chat может:
.gitlab-ci.yml
для тестирования и сборки приложения Ruby on Rails с конвейером CI/CD GitLab».🔗 Duo Chat
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
— Сигмоида
Нелинейна по своей природе, поэтому комбинация таких функций производит тоже нелинейную функцию. Так что она хорошо подходит для комбинации слоёв. Чаще всего применяется в задачах бинарной классификации, где нужно предсказать вероятность принадлежности к одному из 2 классов.
— Tanh
Гиперболический тангенс — это скорректированная сигмоидная функция. Стоит отметить, что градиент тангенциальной функции больше, чем у сигмоиды; она растёт быстрее. Активное используется в рекуррентных сетях, вероятностных моделях и т.д.
— ReLU
Имеет низкую вычислительную сложность, устойчива к переобучению. Область допустимых значений ReLu —
[0, inf)
, то есть активация может "взорваться" от больших значений. Широко применяется в глубоких нейронных сетях благодаря простоте и отсутствию затухающего градиента — Leaky ReLU
Модификация ReLU, призвана решить проблему "умирающей ReLU". Используется в нейронных сетях для введения нелинейности в выходные данные каждого нейрона.
#junior
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Шпаргалка для алгособеса 2 — графовые и строковые алгоритмы
📌 Читать дальше
📌Часть 1: алгоритмическая сложность, структуры данных, методы сортировки и Дейкстра
@machinelearning_interview
📌 Читать дальше
📌Часть 1: алгоритмическая сложность, структуры данных, методы сортировки и Дейкстра
@machinelearning_interview
Вот подробнее о некоторых из них:
Годная статья — "Зоопарк архитектур нейронных сетей"
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Топ репозиториев для развития ваших навыков разработчика.
- Полное руководство по работе с данными: https://github.com/DataEngineer-io/data-engineer-handbook
- Руководство "Путь к Senior разработчику : https://github.com/jordan-cutler/path-to-senior-engineer-handbook
- Лучшие ресурсы по системному проектированию : https://github.com/systemdesign42/system-design
- Более 100 ресурсов, чтобы стать продвинутым разработчиком: https://github.com/gregorojstersek/resources-to-become-a-great-engineering-leader
@machinelearning_interview
- Полное руководство по работе с данными: https://github.com/DataEngineer-io/data-engineer-handbook
- Руководство "Путь к Senior разработчику : https://github.com/jordan-cutler/path-to-senior-engineer-handbook
- Лучшие ресурсы по системному проектированию : https://github.com/systemdesign42/system-design
- Более 100 ресурсов, чтобы стать продвинутым разработчиком: https://github.com/gregorojstersek/resources-to-become-a-great-engineering-leader
@machinelearning_interview
В него попали самые заметные разработки в сфере GenAI по ключевым категориям, в том числе две нейросети от Яндекса: текстовая YandexGPT и мультимодальная YandexART.
Яндекс отмечен как одна из 11 компаний со всего мира, разрабатывающих более одного типа генеративных AI-моделей. В этот же список попали Open AI, Google, Microsoft, Meta, Tencent и другие.
Странами-лидерами по количеству активных компаний GenAI стали США, Китай, Аргентина, Великобритания, Израиль, Южная Африка.
▪️Читать
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ищете идеи для создания реальных ML-проектов? 💡
Создание системы ML, которая предсказывает невыплату кредитам.
Полный код👷🏾♀️👷↓
https://www.kaggle.com/code/faressayah/lending-club-loan-defaulters-prediction/notebook
@machinelearning_interview
Создание системы ML, которая предсказывает невыплату кредитам.
Полный код👷🏾♀️👷↓
https://www.kaggle.com/code/faressayah/lending-club-loan-defaulters-prediction/notebook
@machinelearning_interview
🔥 Microsoft выпустил отличные курсы по искусственному интеллекту
Сохраняй!
12 бесплатных уроков Github!
Научитесь создавать приложения с использованием нейронных сетей!
Среди уроков есть изучение и сравнение разных языковых моделей (LLMs), основы промт-инжиниринга и создание приложений с ИИ.
@machinelearning_interview
Сохраняй!
12 бесплатных уроков Github!
Научитесь создавать приложения с использованием нейронных сетей!
Среди уроков есть изучение и сравнение разных языковых моделей (LLMs), основы промт-инжиниринга и создание приложений с ИИ.
@machinelearning_interview
Библиотека датасетов Hugging Face не только предоставляет доступ к более чем 70 тыс. общедоступных наборов данных, но и предлагает очень удобные конвейеры подготовки данных для пользовательских наборов.
Renumics Spotlight позволяет создавать интерактивные визуализации ваши данных. Поскольку Spotlight понимает семантику данных в наборах данных Hugging Face, вы можете начать работу всего с нескольких строк кода:
import datasets
from renumics import spotlight
ds = datasets.load_dataset('speech_commands', 'v0.01', split='validation')
spotlight.show(ds)
📌 Читать дальше
📌 Github
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
• PCA может быть реализован с использованием различных методов, включая вычисление собственных векторов и собственных значений ковариационной матрицы данных и сингулярное разложение матрицы данных.
• PCA имеет преимущества, такие как понижение размерности с сохранением большого количества информации и ускорение обучения моделей.
• Однако PCA также имеет недостатки, включая потерю части информации в данных и отсутствие смыслового значения главных компонент.
• Существуют альтернативы PCA, такие как LLE, t-SNE, UMAP и autoencoders, которые могут быть предпочтительными в определенных ситуациях и типах данных.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Статья от ML-разработчика Яндекса о том, что такое квантизация нейросетевых моделей, зачем она нужна и как с ней работать.
Квантизация — это процесс преобразования значений из представления с большим объёмом информации в более компактное представление. Она позволяет повысить эффективность модели, сэкономить ресурсы и улучшить пользовательский опыт. О методах, типах данных и сложностях, с которыми встречаются ML-инженеры, можно прочитать в статье.
▪️ Хабр
@machinelearning_interview
Квантизация — это процесс преобразования значений из представления с большим объёмом информации в более компактное представление. Она позволяет повысить эффективность модели, сэкономить ресурсы и улучшить пользовательский опыт. О методах, типах данных и сложностях, с которыми встречаются ML-инженеры, можно прочитать в статье.
▪️ Хабр
@machinelearning_interview
🔥 Вот обновленная таблица теоретического сравнения TFLOPS, включающая только что анонсированные B100 и B200:
https://github.com/stas00/ml-engineering/tree/master/compute/accelerator#tflops-comparison-table
@machinelearning_interview
https://github.com/stas00/ml-engineering/tree/master/compute/accelerator#tflops-comparison-table
@machinelearning_interview
GitHub
ml-engineering/compute/accelerator at master · stas00/ml-engineering
Machine Learning Engineering Open Book. Contribute to stas00/ml-engineering development by creating an account on GitHub.
Держите годную шпаргалку по работе с библиотекой Pandas, тут описано самое основное, что может понадобиться в работе:
Пользуйтесь)
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 GaLore is a new Memory Efficient Fine-tuning Technique
GaLore - это новый метод файнтюнинга, позволяющий эффективно использовать память, для “полной настройки” моделей с миллиардами параметров, таких как Llama 2 7B на графических процессорах. В отличие от LoRa, GaLore сокращает объем памяти, проецируя состояния оптимизатора и градиенты в более низкое измерение. 🤯
🚀 Обучает модели до 7 миллиардов параметров на графических процессорах, таких как NVIDIA RTX 4090
💾 До 82,5% сокращается объем памяти для хранения состояний оптимизатора
🔺 Может комбинироваться с 8-разрядными оптимизаторами для максимальной эффективности памяти
🥇 Превосходит LoRa на GLUE и предварительную подготовку Llama на C4
🤗 Интегрирован в Hugging Face Transformers с galore_adamw или galore_adamw_8bit
Статья: https://huggingface.co/papers/2403.03507
Блог с примерами: https://huggingface.co/blog/galore
@machinelearning_interview
GaLore - это новый метод файнтюнинга, позволяющий эффективно использовать память, для “полной настройки” моделей с миллиардами параметров, таких как Llama 2 7B на графических процессорах. В отличие от LoRa, GaLore сокращает объем памяти, проецируя состояния оптимизатора и градиенты в более низкое измерение. 🤯
🚀 Обучает модели до 7 миллиардов параметров на графических процессорах, таких как NVIDIA RTX 4090
💾 До 82,5% сокращается объем памяти для хранения состояний оптимизатора
🔺 Может комбинироваться с 8-разрядными оптимизаторами для максимальной эффективности памяти
🥇 Превосходит LoRa на GLUE и предварительную подготовку Llama на C4
🤗 Интегрирован в Hugging Face Transformers с galore_adamw или galore_adamw_8bit
Статья: https://huggingface.co/papers/2403.03507
Блог с примерами: https://huggingface.co/blog/galore
@machinelearning_interview