🦙 Llama3-from-scratch
Очень подробный гайд по созданию LLaMa-3 с нуля!
Крутой репозиторий, в котором реализована llama 3 с нуля - умножение матриц с помощью multiple heads, позиционное кодирование (способ кодирования позиции слова внутри эмбеддинга), реализация механизма внимания и все остальное, здесь тщательно описано и объяснено.
Отличный репо для обучения, 3 к звезд за сутки⭐️
▪Github
@machinelearning_interview
Очень подробный гайд по созданию LLaMa-3 с нуля!
Крутой репозиторий, в котором реализована llama 3 с нуля - умножение матриц с помощью multiple heads, позиционное кодирование (способ кодирования позиции слова внутри эмбеддинга), реализация механизма внимания и все остальное, здесь тщательно описано и объяснено.
Отличный репо для обучения, 3 к звезд за сутки⭐️
▪Github
@machinelearning_interview
Здесь собраны все основные темы Machine Learning;
этот чек-лист поможет вспомнить, какие темы ещё остались неизученными.
На прикреплённых сообщениях только часть тем, их гораздо больше
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
https://www.youtube.com/watch?v=W7ZCXcxQxV8
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Здесь собраны полезные схемы и шпаргалки, например, классификация алгоритмов ML, или как выбрать модель ML, исходя из задачи
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот некоторые из этих вопросов:
— Как работает сверточная нейронная сеть (CNN)?
— Опиши разницу между обучением с подкреплением на основе модели и без модели
— Расскажи про механизм внимания в Deep Learning
— Можешь вкратце объяснить концепцию байесовской оптимизации?
— Что представляет собой концепция состязательного обучения в глубоком обучении?
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Вот некоторые из вопросов:
— Опиши архитектуру типичной свёрточной нейронной сети (CNN)
— Почему сигмоиду не рекомендуется использовать в качестве функции активации в скрытом слое нейронной сети?
— Расскажи про исчезающий градиент в RNN
— Для чего нужна пакетная нормализация?
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM