Бесплатная книга по байесовскому анализу данных
Одна из лучших книг по байесовскому анализу данных доступна бесплатно и охватывает такие ключевые основы, как вероятность и вывод, одно- и многопараметрические модели, а также иерархические модели. Это отличный ресурс, позволяющий перейти от основ к более сложным нюансам
https://stat.columbia.edu/~gelman/book/
Одна из лучших книг по байесовскому анализу данных доступна бесплатно и охватывает такие ключевые основы, как вероятность и вывод, одно- и многопараметрические модели, а также иерархические модели. Это отличный ресурс, позволяющий перейти от основ к более сложным нюансам
https://stat.columbia.edu/~gelman/book/
Создание приложений LLM: четкое пошаговое руководство
Комплексные шаги по созданию собственных приложений LLM: от первоначальной идеи до экспериментов, оценки и производства
https://towardsdatascience.com/building-llm-apps-a-clear-step-by-step-guide-1fe1e6ef60fd
Комплексные шаги по созданию собственных приложений LLM: от первоначальной идеи до экспериментов, оценки и производства
https://towardsdatascience.com/building-llm-apps-a-clear-step-by-step-guide-1fe1e6ef60fd
Medium
Building LLM Apps: A Clear Step-By-Step Guide
Comprehensive Steps for Building LLM-Native Apps: From Initial Idea to Experimentation, Evaluation, and Productization
Масштабируемое языковое моделирование без MatMul
Наши эксперименты показывают, что предлагаемые нами модели без MatMul достигают производительности на уровне современных трансформаторов, которым требуется гораздо больше памяти во время вывода в масштабе как минимум до 2,7B параметров.
https://github.com/ridgerchu/matmulfreellm
Наши эксперименты показывают, что предлагаемые нами модели без MatMul достигают производительности на уровне современных трансформаторов, которым требуется гораздо больше памяти во время вывода в масштабе как минимум до 2,7B параметров.
https://github.com/ridgerchu/matmulfreellm
GitHub
GitHub - ridgerchu/matmulfreellm: Implementation for MatMul-free LM.
Implementation for MatMul-free LM. Contribute to ridgerchu/matmulfreellm development by creating an account on GitHub.
Практическое руководство по масштабированию обучения модели машинного обучения
https://blog.dailydoseofds.com/p/a-practical-guide-to-scaling-ml-model
https://blog.dailydoseofds.com/p/a-practical-guide-to-scaling-ml-model
Dailydoseofds
A Practical Guide to Scaling ML Model Training
GPUs - GPU Clusters - Distributed Training.
Warp — это среда Python для написания высокопроизводительного кода моделирования и графики.
https://github.com/NVIDIA/warp
https://github.com/NVIDIA/warp
GitHub
GitHub - NVIDIA/warp: A Python framework for accelerated simulation, data generation and spatial computing.
A Python framework for accelerated simulation, data generation and spatial computing. - NVIDIA/warp
Модель авторегрессии превосходит диффузию: лама для создания масштабируемых изображений
Мы представляем LlamaGen, новое семейство моделей генерации изображений, которые применяют оригинальную парадигму «предсказания следующего токена» больших языковых моделей к области визуальной генерации.
https://github.com/foundationvision/llamagen
Мы представляем LlamaGen, новое семейство моделей генерации изображений, которые применяют оригинальную парадигму «предсказания следующего токена» больших языковых моделей к области визуальной генерации.
https://github.com/foundationvision/llamagen
🧵 Блокнот Jupyter на базе искусственного интеллекта, созданный с использованием React. 🧵
Блокнот Python на базе искусственного интеллекта, встроенный в React: создавайте и редактируйте ячейки кода, автоматически исправляйте ошибки и общайтесь с вашим кодом. Самое приятное то, что Thread работает локально и его можно бесплатно использовать с вашим собственным ключом API…
https://github.com/squaredtechnologies/thread
Блокнот Python на базе искусственного интеллекта, встроенный в React: создавайте и редактируйте ячейки кода, автоматически исправляйте ошибки и общайтесь с вашим кодом. Самое приятное то, что Thread работает локально и его можно бесплатно использовать с вашим собственным ключом API…
https://github.com/squaredtechnologies/thread
GitHub
GitHub - alishobeiri/thread: AI-powered Jupyter Notebook — use local AI to generate and edit code cells, automatically fix errors…
AI-powered Jupyter Notebook — use local AI to generate and edit code cells, automatically fix errors, and chat with your data - alishobeiri/thread
🔥3👍1
Воспроизводим GPT-2 (124М) с нуля. В этом видео показан весь процесс
https://www.youtube.com/watch?v=l8pRSuU81PU
https://www.youtube.com/watch?v=l8pRSuU81PU
YouTube
Let's reproduce GPT-2 (124M)
We reproduce the GPT-2 (124M) from scratch. This video covers the whole process: First we build the GPT-2 network, then we optimize its training to be really fast, then we set up the training run following the GPT-2 and GPT-3 paper and their hyperparameters…
Написание быстрых строковых функций для NumPy 2.0
https://labs.quansight.org/blog/numpy-string-ufuncs
https://labs.quansight.org/blog/numpy-string-ufuncs
labs.quansight.org
Writing fast string ufuncs for NumPy 2.0
The journey of writing string ufuncs and creating the np.strings namespace for NumPy 2.0
Эмпирическое исследование использования энергии и производительности библиотек Python для анализа данных Pandas и Polars [PDF]
Мы стремимся оценить энергопотребление Pandas, широко используемой библиотеки манипулирования данными Python, и Polars, библиотеки на основе Rust, известной своей производительность. Целью исследования является предоставление аналитикам данных информации путем определения сценариев, в которых одна библиотека превосходит другую с точки зрения энергопотребления, а также изучения возможных корреляций между показателями энергопотребления и производительности… https://www.ivanomalavolta.com/files/papers/EASE_2024.pdf
Справочник по генеративному искусственному интеллекту: план учебных ресурсов
https://genai-handbook.github.io/
Мы стремимся оценить энергопотребление Pandas, широко используемой библиотеки манипулирования данными Python, и Polars, библиотеки на основе Rust, известной своей производительность. Целью исследования является предоставление аналитикам данных информации путем определения сценариев, в которых одна библиотека превосходит другую с точки зрения энергопотребления, а также изучения возможных корреляций между показателями энергопотребления и производительности… https://www.ivanomalavolta.com/files/papers/EASE_2024.pdf
Справочник по генеративному искусственному интеллекту: план учебных ресурсов
https://genai-handbook.github.io/
Уроки, извлеченные из масштабирования до многотерабайтных наборов данных.
Этот пост предназначен для того, чтобы познакомить вас с некоторыми уроками, которые я усвоил при работе с многотерабайтными наборами данных…
https://v2thegreat.com/2024/06/19/lessons-learned-from-scaling-to-multi-terabyte-datasets/
Этот пост предназначен для того, чтобы познакомить вас с некоторыми уроками, которые я усвоил при работе с многотерабайтными наборами данных…
https://v2thegreat.com/2024/06/19/lessons-learned-from-scaling-to-multi-terabyte-datasets/
Build Great Things
Lessons Learned from Scaling to Multi-Terabyte Datasets
This post is meant to guide you through some of the lessons I’ve learned while working with multi-terabyte datasets. The lessons shared are focused on what someone may face as the size of the…
Развертывание моделей машинного обучения: пошаговое руководство
Давайте рассмотрим процесс развертывания моделей в производстве.
https://www.kdnuggets.com/deploying-machine-learning-models-a-step-by-step-tutorial
Давайте рассмотрим процесс развертывания моделей в производстве.
https://www.kdnuggets.com/deploying-machine-learning-models-a-step-by-step-tutorial
KDnuggets
Deploying Machine Learning Models: A Step-by-Step Tutorial - KDnuggets
Let us explore the process of deploying models in production.
Хотите изучить квантование в модели большого языка?
Простое руководство, которое научит вас интуитивному квантованию с помощью простого математического вывода и кодирования в PyTorch.
https://pub.towardsai.net/want-to-learn-quantization-in-the-large-language-model-57f062d2ec17
Простое руководство, которое научит вас интуитивному квантованию с помощью простого математического вывода и кодирования в PyTorch.
https://pub.towardsai.net/want-to-learn-quantization-in-the-large-language-model-57f062d2ec17
Medium
Want to Learn Quantization in The Large Language Model?
A simple guide to teach you intuition about quantization with simple mathematical derivation and coding in PyTorch.
Я тебя с вертухи сломаю, если ещё раз заговоришь об ИИ
Последние инновации в сфере ИИ, наиболее примечательными из которых стали проекты наподобие GPT-4, очевидно, могут иметь далеко идущие последствия для общества: от утопического избавления от монотонного труда до антиутопического ущерба для работы художников в капиталистическом обществе, а также до экзистенциальных угроз самому человечеству.
Лично я получил формальное образование дата-саентиста, даже выиграв в высококонкурентном конкурсе по машинному обучению в одном из лучших университетов Австралии и написав магистерскую, для которой создал в MATLAB с нуля собственные библиотеки. Я не гений в этой сфере, но, очевидно, лучше большинства конкурентов, то есть практиков вроде меня; я не могу, сидя в пещере, создавать собственные библиотеки на C, но умею читать учебники, реализовывать готовые решения на языках высокого уровня и использовать библиотеки, написанные элитными организациями.
Поэтому с глубочайшим сожалением должен объявить, что следующий человек, который начнёт говорить мне о реализации ИИ, получит от меня сеанс живительных процедур над позвоночником; иными словами, я сломаю ему нафиг шею. Мне очень-очень жаль. https://habr.com/ru/articles/823584/
Последние инновации в сфере ИИ, наиболее примечательными из которых стали проекты наподобие GPT-4, очевидно, могут иметь далеко идущие последствия для общества: от утопического избавления от монотонного труда до антиутопического ущерба для работы художников в капиталистическом обществе, а также до экзистенциальных угроз самому человечеству.
Лично я получил формальное образование дата-саентиста, даже выиграв в высококонкурентном конкурсе по машинному обучению в одном из лучших университетов Австралии и написав магистерскую, для которой создал в MATLAB с нуля собственные библиотеки. Я не гений в этой сфере, но, очевидно, лучше большинства конкурентов, то есть практиков вроде меня; я не могу, сидя в пещере, создавать собственные библиотеки на C, но умею читать учебники, реализовывать готовые решения на языках высокого уровня и использовать библиотеки, написанные элитными организациями.
Поэтому с глубочайшим сожалением должен объявить, что следующий человек, который начнёт говорить мне о реализации ИИ, получит от меня сеанс живительных процедур над позвоночником; иными словами, я сломаю ему нафиг шею. Мне очень-очень жаль. https://habr.com/ru/articles/823584/
Хабр
Я тебя с вертухи сломаю, если ещё раз заговоришь об ИИ
Последние инновации в сфере ИИ, наиболее примечательными из которых стали проекты наподобие GPT-4, очевидно, могут иметь далеко идущие последствия для общества: от утопического избавления от...
🎯Ищете работу в ИТ? Присоединяйтесь к нашему тг-каналу EKLEFT JOB и будьте в курсе лучших вакансий!
В нашем канале вы найдете:
- Эксклюзивные вакансии в ТОП компаниях из производственной, банковской и сферы ритейла
- Свежие вакансии, срок каждой не более 1-2 дней
Откликаясь на вакансию, вы попадаете сразу к нашему рекрутеру, который сразу расскажет подробности вакансии.
Подпишитесь на канал и начните карьеру в ведущих ИТ-компаниях уже сегодня.
Ваше будущее в ИТ начинается здесь!
В нашем канале вы найдете:
- Эксклюзивные вакансии в ТОП компаниях из производственной, банковской и сферы ритейла
- Свежие вакансии, срок каждой не более 1-2 дней
Откликаясь на вакансию, вы попадаете сразу к нашему рекрутеру, который сразу расскажет подробности вакансии.
Подпишитесь на канал и начните карьеру в ведущих ИТ-компаниях уже сегодня.
Ваше будущее в ИТ начинается здесь!
👍1
Эта работа представляет Depth Anything V2. Он значительно превосходит V1 по детализации и надежности. По сравнению с моделями на основе SD, он имеет более высокую скорость вывода, меньшее количество параметров и более высокую точность глубины.
https://github.com/DepthAnything/Depth-Anything-V2
https://github.com/DepthAnything/Depth-Anything-V2
GitHub
GitHub - DepthAnything/Depth-Anything-V2: [NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth…
[NeurIPS 2024] Depth Anything V2. A More Capable Foundation Model for Monocular Depth Estimation - DepthAnything/Depth-Anything-V2
Оптимизация машинного обучения с помощью Optuna
Как точно настроить каждый алгоритм машинного обучения в Python. Полное руководство по оптимизации машинного обучения с помощью Optuna для достижения отличных характеристик моделей.
https://towardsdatascience.com/machine-learning-optimization-with-optuna-57593d700e52
Как точно настроить каждый алгоритм машинного обучения в Python. Полное руководство по оптимизации машинного обучения с помощью Optuna для достижения отличных характеристик моделей.
https://towardsdatascience.com/machine-learning-optimization-with-optuna-57593d700e52
Unique3D: высококачественное и эффективное создание 3D-сетки из одного изображения
https://github.com/AiuniAI/Unique3D
https://github.com/AiuniAI/Unique3D
GitHub
GitHub - AiuniAI/Unique3D: [NeurIPS 2024] Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image
[NeurIPS 2024] Unique3D: High-Quality and Efficient 3D Mesh Generation from a Single Image - AiuniAI/Unique3D
Короткие размышления об инженерии ИИ и «проваленных проектах ИИ»
Традиционная инженерия ML была очень сложной. Она все еще очень сложная. Я думаю, что одной из самых сложных задач в традиционном жизненном цикле ML является подготовка данных… Сегодня прототипирование приложений ИИ происходит быстрее, чем когда-либо, и гораздо больше людей могут создавать приложения ИИ. Можно утверждать, что LLM предложили (несколько обманчивую) возможность упростить подготовку данных — полностью обойдя ее… Генеративный ИИ и LLM немного интереснее в том смысле, что у большинства людей нет никакой формы систематической оценки перед отправкой
https://www.sh-reya.com/blog/ai-engineering-short/
Традиционная инженерия ML была очень сложной. Она все еще очень сложная. Я думаю, что одной из самых сложных задач в традиционном жизненном цикле ML является подготовка данных… Сегодня прототипирование приложений ИИ происходит быстрее, чем когда-либо, и гораздо больше людей могут создавать приложения ИИ. Можно утверждать, что LLM предложили (несколько обманчивую) возможность упростить подготовку данных — полностью обойдя ее… Генеративный ИИ и LLM немного интереснее в том смысле, что у большинства людей нет никакой формы систематической оценки перед отправкой
https://www.sh-reya.com/blog/ai-engineering-short/
Sh-Reya
Short Musings on AI Engineering and "Failed AI Projects"
Наслаждайтесь волшебством моделей Diffusion!
DiffSynth Studio — это движок Diffusion. Мы реструктурировали архитектуры, включая Text Encoder, UNet, VAE и другие, сохранив совместимость с моделями сообщества открытого исходного кода и одновременно повысив вычислительную производительность. Мы предоставляем много интересных функций. Наслаждайтесь волшебством моделей Diffusion!
https://github.com/modelscope/DiffSynth-Studio
DiffSynth Studio — это движок Diffusion. Мы реструктурировали архитектуры, включая Text Encoder, UNet, VAE и другие, сохранив совместимость с моделями сообщества открытого исходного кода и одновременно повысив вычислительную производительность. Мы предоставляем много интересных функций. Наслаждайтесь волшебством моделей Diffusion!
https://github.com/modelscope/DiffSynth-Studio
GitHub
GitHub - modelscope/DiffSynth-Studio: Enjoy the magic of Diffusion models!
Enjoy the magic of Diffusion models! Contribute to modelscope/DiffSynth-Studio development by creating an account on GitHub.
Яндекс разработал и опубликовал библиотеку YaFSDP — собственное решение для ускорения обучения больших языковых моделей.
При обучении LLM возникает проблема сложности вычислений и коммуникаций GPU в кластере. Большие расчёты должны синхронизироваться на разных видеокартах, а для этого сами устройства должны обмениваться информацией, чтобы не считать два раза одно и то же. Если GPU делают это неэффективно, то они теряют до 30% недоутилизированной мощности.
Библиотека YaFSDP позволяет ускорить обучение больших языковых моделей до 25%. С её помощью можно тратить меньше времени на обучение и расходовать меньше ресурсов графических процессоров (GPU). Подробнее о том, как менялись подходы к оптимизации ресурсов можно прочитать в статье на «Хабре».
Реклама. ООО "ЯНДЕКС". ИНН 7736207543.
При обучении LLM возникает проблема сложности вычислений и коммуникаций GPU в кластере. Большие расчёты должны синхронизироваться на разных видеокартах, а для этого сами устройства должны обмениваться информацией, чтобы не считать два раза одно и то же. Если GPU делают это неэффективно, то они теряют до 30% недоутилизированной мощности.
Библиотека YaFSDP позволяет ускорить обучение больших языковых моделей до 25%. С её помощью можно тратить меньше времени на обучение и расходовать меньше ресурсов графических процессоров (GPU). Подробнее о том, как менялись подходы к оптимизации ресурсов можно прочитать в статье на «Хабре».
Реклама. ООО "ЯНДЕКС". ИНН 7736207543.
❤1