📌 Tech-Interview : Important Topics and Techniques
В этом репозитории собрано все, что нужно, чтобы подготовиться к техническим собеседованиям, а также самые важные советы и методики подготовки к собесу.
▪Github
@machinelearning_interview
В этом репозитории собрано все, что нужно, чтобы подготовиться к техническим собеседованиям, а также самые важные советы и методики подготовки к собесу.
▪Github
@machinelearning_interview
👍8❤3👎1🔥1
⚡️ Новая архитектура без трансформеров DeepCN , превосходит все возможные трансформеры в анализе временных рядов.
Репозиторий, показывающий, почему трансформеры не работают в прогнозировании временных рядов, демонстрирующий лучшие модели SOTA без трансформеров '
▪Github
#прогнозирование
@machinelearning_interview
Репозиторий, показывающий, почему трансформеры не работают в прогнозировании временных рядов, демонстрирующий лучшие модели SOTA без трансформеров '
Transformers Are What You Don't Need
' -> ▪Github
#прогнозирование
@machinelearning_interview
🔥11❤3👍3
🎙Создание локально работающего голосового помощника
В этой статье я расскажу о том, как создать помощника, который позволит вокально взаимодействовать с LLM с открытым исходным кодом. Все компоненты будут работать локально на вашем компьютере.
Архитектура
Архитектура включает три отдельных компонента:
🔵 сервис обнаружения “пробуждающего” слова, активирующего голосового помощника (wake-word detection service);
🔵 сервис голосового помощника (voice assistant service);
🔵 чат-сервис (chat service).
📌 Продолжение
@machinelearning_interview
В этой статье я расскажу о том, как создать помощника, который позволит вокально взаимодействовать с LLM с открытым исходным кодом. Все компоненты будут работать локально на вашем компьютере.
Архитектура
Архитектура включает три отдельных компонента:
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🔥3
GitLab Duo Chat может:
.gitlab-ci.yml
для тестирования и сборки приложения Ruby on Rails с конвейером CI/CD GitLab».🔗 Duo Chat
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥2
— Сигмоида
Нелинейна по своей природе, поэтому комбинация таких функций производит тоже нелинейную функцию. Так что она хорошо подходит для комбинации слоёв. Чаще всего применяется в задачах бинарной классификации, где нужно предсказать вероятность принадлежности к одному из 2 классов.
— Tanh
Гиперболический тангенс — это скорректированная сигмоидная функция. Стоит отметить, что градиент тангенциальной функции больше, чем у сигмоиды; она растёт быстрее. Активное используется в рекуррентных сетях, вероятностных моделях и т.д.
— ReLU
Имеет низкую вычислительную сложность, устойчива к переобучению. Область допустимых значений ReLu —
[0, inf)
, то есть активация может "взорваться" от больших значений. Широко применяется в глубоких нейронных сетях благодаря простоте и отсутствию затухающего градиента — Leaky ReLU
Модификация ReLU, призвана решить проблему "умирающей ReLU". Используется в нейронных сетях для введения нелинейности в выходные данные каждого нейрона.
#junior
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31❤4🔥4
⚡️ Шпаргалка для алгособеса 2 — графовые и строковые алгоритмы
📌 Читать дальше
📌Часть 1: алгоритмическая сложность, структуры данных, методы сортировки и Дейкстра
@machinelearning_interview
📌 Читать дальше
📌Часть 1: алгоритмическая сложность, структуры данных, методы сортировки и Дейкстра
@machinelearning_interview
👍18🔥5❤1
Вот подробнее о некоторых из них:
Годная статья — "Зоопарк архитектур нейронных сетей"
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤6🔥6🤨4🤣2
⚡️ Топ репозиториев для развития ваших навыков разработчика.
- Полное руководство по работе с данными: https://github.com/DataEngineer-io/data-engineer-handbook
- Руководство "Путь к Senior разработчику : https://github.com/jordan-cutler/path-to-senior-engineer-handbook
- Лучшие ресурсы по системному проектированию : https://github.com/systemdesign42/system-design
- Более 100 ресурсов, чтобы стать продвинутым разработчиком: https://github.com/gregorojstersek/resources-to-become-a-great-engineering-leader
@machinelearning_interview
- Полное руководство по работе с данными: https://github.com/DataEngineer-io/data-engineer-handbook
- Руководство "Путь к Senior разработчику : https://github.com/jordan-cutler/path-to-senior-engineer-handbook
- Лучшие ресурсы по системному проектированию : https://github.com/systemdesign42/system-design
- Более 100 ресурсов, чтобы стать продвинутым разработчиком: https://github.com/gregorojstersek/resources-to-become-a-great-engineering-leader
@machinelearning_interview
👍6❤5🔥2❤🔥1
В него попали самые заметные разработки в сфере GenAI по ключевым категориям, в том числе две нейросети от Яндекса: текстовая YandexGPT и мультимодальная YandexART.
Яндекс отмечен как одна из 11 компаний со всего мира, разрабатывающих более одного типа генеративных AI-моделей. В этот же список попали Open AI, Google, Microsoft, Meta, Tencent и другие.
Странами-лидерами по количеству активных компаний GenAI стали США, Китай, Аргентина, Великобритания, Израиль, Южная Африка.
▪️Читать
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ищете идеи для создания реальных ML-проектов? 💡
Создание системы ML, которая предсказывает невыплату кредитам.
Полный код👷🏾♀️👷↓
https://www.kaggle.com/code/faressayah/lending-club-loan-defaulters-prediction/notebook
@machinelearning_interview
Создание системы ML, которая предсказывает невыплату кредитам.
Полный код👷🏾♀️👷↓
https://www.kaggle.com/code/faressayah/lending-club-loan-defaulters-prediction/notebook
@machinelearning_interview
🔥16🥰2❤1
🔥 Microsoft выпустил отличные курсы по искусственному интеллекту
Сохраняй!
12 бесплатных уроков Github!
Научитесь создавать приложения с использованием нейронных сетей!
Среди уроков есть изучение и сравнение разных языковых моделей (LLMs), основы промт-инжиниринга и создание приложений с ИИ.
@machinelearning_interview
Сохраняй!
12 бесплатных уроков Github!
Научитесь создавать приложения с использованием нейронных сетей!
Среди уроков есть изучение и сравнение разных языковых моделей (LLMs), основы промт-инжиниринга и создание приложений с ИИ.
@machinelearning_interview
👍12🔥5❤4
Библиотека датасетов Hugging Face не только предоставляет доступ к более чем 70 тыс. общедоступных наборов данных, но и предлагает очень удобные конвейеры подготовки данных для пользовательских наборов.
Renumics Spotlight позволяет создавать интерактивные визуализации ваши данных. Поскольку Spotlight понимает семантику данных в наборах данных Hugging Face, вы можете начать работу всего с нескольких строк кода:
import datasets
from renumics import spotlight
ds = datasets.load_dataset('speech_commands', 'v0.01', split='validation')
spotlight.show(ds)
📌 Читать дальше
📌 Github
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥3👍1
• PCA может быть реализован с использованием различных методов, включая вычисление собственных векторов и собственных значений ковариационной матрицы данных и сингулярное разложение матрицы данных.
• PCA имеет преимущества, такие как понижение размерности с сохранением большого количества информации и ускорение обучения моделей.
• Однако PCA также имеет недостатки, включая потерю части информации в данных и отсутствие смыслового значения главных компонент.
• Существуют альтернативы PCA, такие как LLE, t-SNE, UMAP и autoencoders, которые могут быть предпочтительными в определенных ситуациях и типах данных.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤1🔥1
⚡️ Статья от ML-разработчика Яндекса о том, что такое квантизация нейросетевых моделей, зачем она нужна и как с ней работать.
Квантизация — это процесс преобразования значений из представления с большим объёмом информации в более компактное представление. Она позволяет повысить эффективность модели, сэкономить ресурсы и улучшить пользовательский опыт. О методах, типах данных и сложностях, с которыми встречаются ML-инженеры, можно прочитать в статье.
▪️ Хабр
@machinelearning_interview
Квантизация — это процесс преобразования значений из представления с большим объёмом информации в более компактное представление. Она позволяет повысить эффективность модели, сэкономить ресурсы и улучшить пользовательский опыт. О методах, типах данных и сложностях, с которыми встречаются ML-инженеры, можно прочитать в статье.
▪️ Хабр
@machinelearning_interview
👍9❤4🔥3
🔥 Вот обновленная таблица теоретического сравнения TFLOPS, включающая только что анонсированные B100 и B200:
https://github.com/stas00/ml-engineering/tree/master/compute/accelerator#tflops-comparison-table
@machinelearning_interview
https://github.com/stas00/ml-engineering/tree/master/compute/accelerator#tflops-comparison-table
@machinelearning_interview
GitHub
ml-engineering/compute/accelerator at master · stas00/ml-engineering
Machine Learning Engineering Open Book. Contribute to stas00/ml-engineering development by creating an account on GitHub.
👍5🔥3❤1
Держите годную шпаргалку по работе с библиотекой Pandas, тут описано самое основное, что может понадобиться в работе:
Пользуйтесь)
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤11🔥5💘2
🔥 GaLore is a new Memory Efficient Fine-tuning Technique
GaLore - это новый метод файнтюнинга, позволяющий эффективно использовать память, для “полной настройки” моделей с миллиардами параметров, таких как Llama 2 7B на графических процессорах. В отличие от LoRa, GaLore сокращает объем памяти, проецируя состояния оптимизатора и градиенты в более низкое измерение. 🤯
🚀 Обучает модели до 7 миллиардов параметров на графических процессорах, таких как NVIDIA RTX 4090
💾 До 82,5% сокращается объем памяти для хранения состояний оптимизатора
🔺 Может комбинироваться с 8-разрядными оптимизаторами для максимальной эффективности памяти
🥇 Превосходит LoRa на GLUE и предварительную подготовку Llama на C4
🤗 Интегрирован в Hugging Face Transformers с galore_adamw или galore_adamw_8bit
Статья: https://huggingface.co/papers/2403.03507
Блог с примерами: https://huggingface.co/blog/galore
@machinelearning_interview
GaLore - это новый метод файнтюнинга, позволяющий эффективно использовать память, для “полной настройки” моделей с миллиардами параметров, таких как Llama 2 7B на графических процессорах. В отличие от LoRa, GaLore сокращает объем памяти, проецируя состояния оптимизатора и градиенты в более низкое измерение. 🤯
🚀 Обучает модели до 7 миллиардов параметров на графических процессорах, таких как NVIDIA RTX 4090
💾 До 82,5% сокращается объем памяти для хранения состояний оптимизатора
🔺 Может комбинироваться с 8-разрядными оптимизаторами для максимальной эффективности памяти
🥇 Превосходит LoRa на GLUE и предварительную подготовку Llama на C4
🤗 Интегрирован в Hugging Face Transformers с galore_adamw или galore_adamw_8bit
Статья: https://huggingface.co/papers/2403.03507
Блог с примерами: https://huggingface.co/blog/galore
@machinelearning_interview
👍10🔥3❤2
В Data Science нужно хорошо ориентироваться в статистике и теории вероятностей. Как у вас с этим?
Хотите взорвать себе мозг?
Не проблема, сейчас всё будет
Вы выбрали любую дверь.
Ведущий открывает другую дверь (не вашу), за которой приза нет (ведущий знает об этом).
Дальше вы можете либо не менять свою дверь, либо выбрать другую дверь.
Изменится ли вероятность победы, если поменять дверь?
Подумайте очень хорошо;
Когда мы выбираем дверь в самом начале, вероятность выиграть 1/3 — очевидно, потому что из приз только за 1 из 3 дверей.
После того, как ведущий открывает дверь, где приза нет, приз может быть либо за нашей выбранной дверью, либо за другой.
2 двери: наша и оставшаяся, приз может быть за любой из них. Вроде с равной вероятностью 1/3.
Или нет?
Для большей уверенности можно смоделировать это в Python
Что?!
Это реально контринтуитивно, но численный эксперимент на Python это подтверждает.
Вообще, можете написать своё решение, чтобы 100% удостовериться
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥6❤1
🎉 Deep Learning Paper Implementations
Коллекция простых пошаговых гайдов по реализации нейронных сетей на PyTorch и связанных с ними алгоритмов, документированных с пояснениями и примечаниями.
🔗 https://github.com/labmlai/annotated_deep_learning_paper_implementations
@machinelearning_interview
Коллекция простых пошаговых гайдов по реализации нейронных сетей на PyTorch и связанных с ними алгоритмов, документированных с пояснениями и примечаниями.
🔗 https://github.com/labmlai/annotated_deep_learning_paper_implementations
@machinelearning_interview
👍20🔥8❤3🤩2