Мы запускаем Keras Core, новую библиотеку, которая объединяет Keras API с JAX и PyTorch в дополнение к TensorFlow. Это позволяет вам писать компоненты глубокого обучения для разных платформ и извлекать выгоду из лучшего, что может предложить каждая платформа. Подробнее: https://keras.io/keras_core/announcement/
Удивительные графические примечания к книге Гилберта Стрэнга «Линейная алгебра для всех». Я не могу себе представить усилия, затраченные на их создание. Визуальные пояснения могут помочь нам понять концепции намного проще, особенно в таких областях, как машинное обучение и математика. https://github.com/kenjihiranabe/The-Art-of-Linear-Algebra
👍7
Kandinsky 2.2 — новый шаг в направлении фотореализма.
2023 год можно смело называть годом бурного развития генеративного искусственного интеллекта. Это касается не только привычной нам модальности изображений (Kandinsky 2.1, Stable Diffusion XL, IF, Шедеврум и др.), но и текстовой (ChatGPT, LLaMA, Falcon и др.), и даже модальности видео (GEN-2, CogVideo и др.). При этом ни в одном из направлений выделить объективного лидера почти невозможно — все команды стараются равномерно двигаться вперёд и повышать качество синтеза. Текстовые чат‑боты научились взаимодействовать с внешними системами посредством плагинов, синтез изображений вышел на уровень фотореалистичных генераций, длина генерируемых видео постепенно увеличивается с сохранением сюжетной связности между кадрами. И такой прогресс обусловлен уже не только наращиванием вычислительных мощностей, но и большим числом неординарных архитектурных решений, которые позволяют добиваться лучшего качества.
С момента выхода Kandinsky 2.1 (4 апреля 2023 года) прошло чуть больше трёх месяцев, и вот сегодня мы анонсируем новую версию модели в линейке 2.X. И если архитектурно модель не претерпела кардинальных изменений, то в части расширения функционала получила существенное развитие. В первую очередь, мы сделали упор на повышение качества генераций и их разрешении, а также новых возможностях синтеза изображений.
Читать далее https://habr.com/ru/companies/sberbank/articles/747446/
2023 год можно смело называть годом бурного развития генеративного искусственного интеллекта. Это касается не только привычной нам модальности изображений (Kandinsky 2.1, Stable Diffusion XL, IF, Шедеврум и др.), но и текстовой (ChatGPT, LLaMA, Falcon и др.), и даже модальности видео (GEN-2, CogVideo и др.). При этом ни в одном из направлений выделить объективного лидера почти невозможно — все команды стараются равномерно двигаться вперёд и повышать качество синтеза. Текстовые чат‑боты научились взаимодействовать с внешними системами посредством плагинов, синтез изображений вышел на уровень фотореалистичных генераций, длина генерируемых видео постепенно увеличивается с сохранением сюжетной связности между кадрами. И такой прогресс обусловлен уже не только наращиванием вычислительных мощностей, но и большим числом неординарных архитектурных решений, которые позволяют добиваться лучшего качества.
С момента выхода Kandinsky 2.1 (4 апреля 2023 года) прошло чуть больше трёх месяцев, и вот сегодня мы анонсируем новую версию модели в линейке 2.X. И если архитектурно модель не претерпела кардинальных изменений, то в части расширения функционала получила существенное развитие. В первую очередь, мы сделали упор на повышение качества генераций и их разрешении, а также новых возможностях синтеза изображений.
Читать далее https://habr.com/ru/companies/sberbank/articles/747446/
Хабр
Kandinsky 2.2 — новый шаг в направлении фотореализма
«Кот-астронавт ныряет в море, полное милых рыб, элегантный, высокая детализация, плавный, резкий фокус, красивый, полное тело, кинематографический, 8k» by Kandinsky 2.2 2023 год можно смело...
LangChain + Streamlit🔥+ Llama 🦙: перенос диалогового ИИ на ваш локальный компьютер 🤯
Интеграция LLM с открытым исходным кодом и LangChain для бесплатных генеративных ответов на вопросы (ключ API не требуется)
https://ai.plainenglish.io/%EF%B8%8F-langchain-streamlit-llama-bringing-conversational-ai-to-your-local-machine-a1736252b172
Интеграция LLM с открытым исходным кодом и LangChain для бесплатных генеративных ответов на вопросы (ключ API не требуется)
https://ai.plainenglish.io/%EF%B8%8F-langchain-streamlit-llama-bringing-conversational-ai-to-your-local-machine-a1736252b172
Medium
🦜️ LangChain + Streamlit🔥+ Llama 🦙: Bringing Conversational AI to Your Local Machine 🤯
Integrating Open Source LLMs and LangChain for Free Generative Question Answering (No API Key required)
Библиотека графиков с открытым исходным кодом для статистических данных
Lets-Plot — это библиотека для построения статистических данных на Python. https://lets-plot.org/
Lets-Plot — это библиотека для построения статистических данных на Python. https://lets-plot.org/
Это отличное руководство по настройке среды разработки Python с помощью VScode и Docker. Он начинается с раздела, в котором объясняются преимущества каждого инструмента и то, как они хорошо работают вместе. Оттуда это простое пошаговое руководство по настройке всего.
https://github.com/RamiKrispin/vscode-python?utm_campaign
https://github.com/RamiKrispin/vscode-python?utm_campaign
GitHub
GitHub - RamiKrispin/vscode-python: A Tutorial for Setting Python Development Environment with VScode and Docker
A Tutorial for Setting Python Development Environment with VScode and Docker - RamiKrispin/vscode-python
Llama 2: с открытым исходным кодом, бесплатно для исследований и коммерческого использования.
Мы раскрываем мощь этих больших языковых моделей. Наша последняя версия Llama — Llama 2 — теперь доступна для отдельных лиц, создателей, исследователей и компаний, чтобы они могли экспериментировать, внедрять инновации и масштабировать свои идеи ответственно. https://ai.meta.com/resources/models-and-libraries/llama/
Мы раскрываем мощь этих больших языковых моделей. Наша последняя версия Llama — Llama 2 — теперь доступна для отдельных лиц, создателей, исследователей и компаний, чтобы они могли экспериментировать, внедрять инновации и масштабировать свои идеи ответственно. https://ai.meta.com/resources/models-and-libraries/llama/
Meta Llama
Meta Llama 2
Llama 2 was pretrained on publicly available online data sources. The fine-tuned model, Llama Chat, leverages publicly available instruction datasets and over 1 million human annotations.
🚀Стартапы
Microsoft и Meta расширяют партнерство в области ИИ с помощью Llama 2 в Azure и Windows (4 минуты чтения)
Meta и Microsoft объявили о поддержке Llama 2, семейства больших языковых моделей, в Azure и Windows, что знаменует его первый коммерческий релиз. Партнерство позволяет разработчикам создавать, настраивать и развертывать модели на базе Llama 2 в Azure, а также оптимизировать их для локального использования в Windows. https://blogs.microsoft.com/blog/2023/07/18/microsoft-and-meta-expand-their-ai-partnership-with-llama-2-on-azure-and-windows/
По сообщениям, Google предлагает новостным редакциям новый инструмент искусственного интеллекта (2 минуты чтения)
Google тестирует Genesis - инструмент искусственного интеллекта, предназначенный для помощи журналистам в создании новостных статей. Несмотря на эти нововведения, сохраняется опасение дезинформации и предвзятости в случае отсутствия точного надзора за такими инструментами. https://www.cnet.com/tech/computing/google-reportedly-pitching-new-ai-tool-to-newsrooms/
🧠Исследования & Инновации
Последние исследования компании DeepMind (2 минуты чтения)
Исследователи Google DeepMind представят на ICML в этом году более 80 новых докладов, включая демонстрацию AlphaFold, достижения в области науки о синтезе и новые модели, такие как PaLM-E для робототехники и Phenaki для генерации видео из текста. https://www.deepmind.com/blog/google-deepmind-research-at-icml-2023
Умножение матриц только с помощью сложения (21 минута чтения)
Умножение матриц занимает большую часть времени, затрачиваемого во многих алгоритмах машинного обучения. Таким образом, все больший интерес вызывают чипы-ускорители, которые выполняют умножение матриц быстрее, чем обычные процессоры или даже графические процессоры. В этой статье мы демонстрируем метод выполнения матричного умножения без схемы скалярного умножителя. https://arxiv.org/abs/2307.01415
👨💻Инженерия & Ресурсы
Библиотека AX learn от Apple (GitHub Repo)
Еще одна библиотека глубокого обучения, на этот раз от Apple, построенная поверх Jax. Примечательно, что он поддерживает параллелизм на основе компилятора для крупномасштабного обучения, чего нет в ряде других популярных фреймворков. https://github.com/apple/axlearn
Ollama (GitHub Repo)
Запуск и упаковка больших языковых моделей на macOS. https://github.com/jmorganca/ollama
RAGstack (GitHub Repo)
Развертывание частной альтернативы ChatGPT, размещенной в вашем VPC. Подключите его к базе знаний организации и используйте в качестве корпоративного оракула. Поддерживает LLM с открытым исходным кодом, такие как Llama 2, Falcon и GPT4All. https://github.com/psychic-api/rag-stack
🎁 Разное
Улучшение финансовых запросов с помощью openBB и LlamaIndex (4 минуты чтения)
Вместо того чтобы использовать векторное хранилище для прямого индексирования данных, можно использовать метаданные и существующий язык запросов для значительного повышения качества извлекаемых данных. https://openbb.co/blog/breaking-barriers-with-openbb-and-llamaIndex
Rust или Mojo для будущего искусственного интеллекта (8 минут чтения)
В этом блоге рассказывается о переделке тысячи строк C++ в функции opencv в несколько строк Mojo. https://mojodojo.dev/blog/2023-07-17-rust-or-mojo-ai.html
Строительные блоки генеративного ИИ (34 минуты чтения)
Хорошая, высокоуровневая дискуссия о ключевых компонентах, возникающих тенденциях и игроках индустрии, работающих в области генеративного ИИ. Здесь много информации о базовых моделях, вычислениях, фреймворках, оркестровке, тонкой настройке, синтетических данных и многом другом! https://shriftman.substack.com/p/the-building-blocks-of-generative
Microsoft и Meta расширяют партнерство в области ИИ с помощью Llama 2 в Azure и Windows (4 минуты чтения)
Meta и Microsoft объявили о поддержке Llama 2, семейства больших языковых моделей, в Azure и Windows, что знаменует его первый коммерческий релиз. Партнерство позволяет разработчикам создавать, настраивать и развертывать модели на базе Llama 2 в Azure, а также оптимизировать их для локального использования в Windows. https://blogs.microsoft.com/blog/2023/07/18/microsoft-and-meta-expand-their-ai-partnership-with-llama-2-on-azure-and-windows/
По сообщениям, Google предлагает новостным редакциям новый инструмент искусственного интеллекта (2 минуты чтения)
Google тестирует Genesis - инструмент искусственного интеллекта, предназначенный для помощи журналистам в создании новостных статей. Несмотря на эти нововведения, сохраняется опасение дезинформации и предвзятости в случае отсутствия точного надзора за такими инструментами. https://www.cnet.com/tech/computing/google-reportedly-pitching-new-ai-tool-to-newsrooms/
🧠Исследования & Инновации
Последние исследования компании DeepMind (2 минуты чтения)
Исследователи Google DeepMind представят на ICML в этом году более 80 новых докладов, включая демонстрацию AlphaFold, достижения в области науки о синтезе и новые модели, такие как PaLM-E для робототехники и Phenaki для генерации видео из текста. https://www.deepmind.com/blog/google-deepmind-research-at-icml-2023
Умножение матриц только с помощью сложения (21 минута чтения)
Умножение матриц занимает большую часть времени, затрачиваемого во многих алгоритмах машинного обучения. Таким образом, все больший интерес вызывают чипы-ускорители, которые выполняют умножение матриц быстрее, чем обычные процессоры или даже графические процессоры. В этой статье мы демонстрируем метод выполнения матричного умножения без схемы скалярного умножителя. https://arxiv.org/abs/2307.01415
👨💻Инженерия & Ресурсы
Библиотека AX learn от Apple (GitHub Repo)
Еще одна библиотека глубокого обучения, на этот раз от Apple, построенная поверх Jax. Примечательно, что он поддерживает параллелизм на основе компилятора для крупномасштабного обучения, чего нет в ряде других популярных фреймворков. https://github.com/apple/axlearn
Ollama (GitHub Repo)
Запуск и упаковка больших языковых моделей на macOS. https://github.com/jmorganca/ollama
RAGstack (GitHub Repo)
Развертывание частной альтернативы ChatGPT, размещенной в вашем VPC. Подключите его к базе знаний организации и используйте в качестве корпоративного оракула. Поддерживает LLM с открытым исходным кодом, такие как Llama 2, Falcon и GPT4All. https://github.com/psychic-api/rag-stack
🎁 Разное
Улучшение финансовых запросов с помощью openBB и LlamaIndex (4 минуты чтения)
Вместо того чтобы использовать векторное хранилище для прямого индексирования данных, можно использовать метаданные и существующий язык запросов для значительного повышения качества извлекаемых данных. https://openbb.co/blog/breaking-barriers-with-openbb-and-llamaIndex
Rust или Mojo для будущего искусственного интеллекта (8 минут чтения)
В этом блоге рассказывается о переделке тысячи строк C++ в функции opencv в несколько строк Mojo. https://mojodojo.dev/blog/2023-07-17-rust-or-mojo-ai.html
Строительные блоки генеративного ИИ (34 минуты чтения)
Хорошая, высокоуровневая дискуссия о ключевых компонентах, возникающих тенденциях и игроках индустрии, работающих в области генеративного ИИ. Здесь много информации о базовых моделях, вычислениях, фреймворках, оркестровке, тонкой настройке, синтетических данных и многом другом! https://shriftman.substack.com/p/the-building-blocks-of-generative
The Official Microsoft Blog
Microsoft and Meta expand their AI partnership with Llama 2 on Azure and Windows
In recent months, the remarkable strides made in AI innovation have ignited a wave of transformative possibilities, captivating our collective imagination with the promise of reshaping industries and the way we work. Today, at Microsoft Inspire, Meta and…
Учим ламу говорить на руском.
Тут я рассказывал как можно использовать магию низкорангового разложения (Low Rank Adaption) матриц для того что бы легко дообучать большие текстовые модели. Сейчас же я напишу свою реализацию LoRA используя PyTorch, переведу весь датасет alpaca-cleaned (на котором училась альпака - языковая модель родом из стенфорда) на русский язык, используя взломаный яндекс переводчик, и наконец "скормлю" его языковой модели, что бы она наконец смогла понимать русский язык.
Советую ознакомится с кратким теоретическим описанием происходящего (хотя вроде как такие просьбы не работют()
Читать далееhttps://habr.com/ru/articles/749864/
Тут я рассказывал как можно использовать магию низкорангового разложения (Low Rank Adaption) матриц для того что бы легко дообучать большие текстовые модели. Сейчас же я напишу свою реализацию LoRA используя PyTorch, переведу весь датасет alpaca-cleaned (на котором училась альпака - языковая модель родом из стенфорда) на русский язык, используя взломаный яндекс переводчик, и наконец "скормлю" его языковой модели, что бы она наконец смогла понимать русский язык.
Советую ознакомится с кратким теоретическим описанием происходящего (хотя вроде как такие просьбы не работют()
Читать далееhttps://habr.com/ru/articles/749864/
Хабр
Учим ламу говорить на руcском
Фотография сгенерирована с использованием LoRA-плагина stable-diffusion для генерации реалистичных человеческих лиц Тут я рассказывал как можно использовать магию низкорангового разложения ( Lo w...
Глубокое обучение прогнозирует смертность от всех причин на основе однократной и последовательной визуализации состава тела
Комбинация визуализации состава тела и метаданных (например, возраст, пол, сила хвата, скорость ходьбы и т. д.) позволила получить наилучшие прогнозы смертности на 10 лет. https://towardsdatascience.com/final-dxa-nation-f0309d718980
Комбинация визуализации состава тела и метаданных (например, возраст, пол, сила хвата, скорость ходьбы и т. д.) позволила получить наилучшие прогнозы смертности на 10 лет. https://towardsdatascience.com/final-dxa-nation-f0309d718980
Medium
Final DXA-nation
AI can see the end! Deep learning predicts all-cause mortality from single and sequential body composition imaging
Локальный запуск Llama 2 на CPU Inference для вопросов и ответов по документу
Четко объясненное руководство по запуску квантованных приложений LLM с открытым исходным кодом на процессорах с использованием Llama 2, C Transformers, GGML и LangChain.
https://towardsdatascience.com/running-llama-2-on-cpu-inference-for-document-q-a-3d636037a3d8
Четко объясненное руководство по запуску квантованных приложений LLM с открытым исходным кодом на процессорах с использованием Llama 2, C Transformers, GGML и LangChain.
https://towardsdatascience.com/running-llama-2-on-cpu-inference-for-document-q-a-3d636037a3d8
В обширной сфере машинного обучения две выдающиеся техники добились значительных успехов в преобразовании того, как мы генерируем новые данные и анализируем визуальный контент: генеративно-состязательные сети (GAN) и сверточные нейронные сети (CNN). Присоединяйтесь к нам в этом путешествии, пока мы погружаемся в увлекательный мир GAN и CNN, понимаем их уникальные возможности и изучаем новаторские приложения, которые они позволяют использовать.
https://medium.com/@rajveersanghavi167/exploring-gans-and-cnns-unleashing-creativity-and-analyzing-visual-world-introduction-in-the-9da56b84518d
https://medium.com/@rajveersanghavi167/exploring-gans-and-cnns-unleashing-creativity-and-analyzing-visual-world-introduction-in-the-9da56b84518d
Medium
Exploring GANs and CNNs: Unleashing Creativity and Analyzing Visual World Introduction: In the…
Title: Exploring GANs and CNNs: Unleashing Creativity and Analyzing Visual World Introduction: In the vast realm of machine learning, two extraordinary techniques have made significant strides in…
Звериные алгоритмы: какими представителями животного мира вдохновлялись исследователи для создания алгоритмов.
По мере развития технологий в мире появляется все больше различных технологических алгоритмов. Часть из названы в честь ученых, имеющих отношение к их разработке, другая часть имеет простые (или не очень простые) «сухие» названия или же забавные наименования, например, коктейльная сортировка (Cocktail shaker sort), в русском языке называемая просто — «сортировка перемешиванием». Сегодня поговорим про алгоритмы, названные в честь различных представителей животного мира.
Читать далее https://habr.com/ru/companies/rshb/articles/749930/
По мере развития технологий в мире появляется все больше различных технологических алгоритмов. Часть из названы в честь ученых, имеющих отношение к их разработке, другая часть имеет простые (или не очень простые) «сухие» названия или же забавные наименования, например, коктейльная сортировка (Cocktail shaker sort), в русском языке называемая просто — «сортировка перемешиванием». Сегодня поговорим про алгоритмы, названные в честь различных представителей животного мира.
Читать далее https://habr.com/ru/companies/rshb/articles/749930/
Хабр
Звериные алгоритмы: какими представителями животного мира вдохновлялись исследователи для создания алгоритмов
По мере развития технологий в мире появляется все больше различных технологических алгоритмов. Часть из названы в честь ученых, имеющих отношение к их разработке, другая часть...
266-страничный БЕСПЛАТНЫЙ PDF-файл — вероятности и статистика , руководство, используемое для подготовки студентов первого курса #математики в Кембриджском университете: https://leibnizmathema.files.wordpress.com/2020/08/cambridge-international-as-a-level-mathematics-probability-statistics-1-coursebook-cambridge-assessment-international-education-by-dean-chalmers-julian-gilbey-leibniz-math.org-1-1.pdf
Бесплатные сертификационные курсы от MIT University
1. Introduction to Computational Thinking and Data Science https://edx.org/course/introduction-to-computational-thinking-and-data-4
2. Introduction to Computer Science and Programming Using Python https://edx.org/course/introduction-to-computer-science-and-programming-7
3. Machine Learning with Python: from Linear Models to Deep Learning https://edx.org/course/machine-learning-with-python-from-linear-models-to
4. Data Analysis: Statistical Modeling and Computation in Applications https://edx.org/course/statistics-computation-and-applications
5. Cybersecurity for Critical Urban Infrastructure https://edx.org/course/cybersecurity-clinic
6. Startup Success: How to Launch a Technology Company in 6 Steps https://edx.org/course/startup-success-how-to-launch-a-technology-company
7. Software Construction https://ocw.mit.edu/courses/6-005-software-construction-spring-2016/
8. Becoming an Entrepreneur https://edx.org/course/becoming-an-entrepreneur
9. Structure And Interpretation Of Computer Programs https://ocw.mit.edu/courses/6-001-structure-and-interpretation-of-computer-programs-spring-2005/
1. Introduction to Computational Thinking and Data Science https://edx.org/course/introduction-to-computational-thinking-and-data-4
2. Introduction to Computer Science and Programming Using Python https://edx.org/course/introduction-to-computer-science-and-programming-7
3. Machine Learning with Python: from Linear Models to Deep Learning https://edx.org/course/machine-learning-with-python-from-linear-models-to
4. Data Analysis: Statistical Modeling and Computation in Applications https://edx.org/course/statistics-computation-and-applications
5. Cybersecurity for Critical Urban Infrastructure https://edx.org/course/cybersecurity-clinic
6. Startup Success: How to Launch a Technology Company in 6 Steps https://edx.org/course/startup-success-how-to-launch-a-technology-company
7. Software Construction https://ocw.mit.edu/courses/6-005-software-construction-spring-2016/
8. Becoming an Entrepreneur https://edx.org/course/becoming-an-entrepreneur
9. Structure And Interpretation Of Computer Programs https://ocw.mit.edu/courses/6-001-structure-and-interpretation-of-computer-programs-spring-2005/
edX
MITx: Introduction to Computational Thinking and Data Science | edX
6.00.2x is an introduction to using computation to understand real-world phenomena.
ECGAN новая система для решения сложной задачи семантического синтеза изображений.
https://github.com/ha0tang/ecgan
📕 Paper: https://arxiv.org/abs/2307.12084v1
https://github.com/ha0tang/ecgan
📕 Paper: https://arxiv.org/abs/2307.12084v1
[Перевод] Качественный набор данных от Microsoft для обучения компактных, но мощных языковых моделей, генерирующих код.
Обучение больших нейронных сетей — это искусство. В сфере ИИ уже давно известны следующие два факта. Во-первых — высококачественные учебные данные оказывают значительное влияние на улучшение результатов работы больших моделей. Во-вторых — применение таких данных способно бросить вызов законам масштабирования, имеющим отношение к размерам моделей и данных.
Исследовательская команда Microsoft, вдохновлённая этими идеями, провела эксперимент, отчёт о котором — Textbooks Are All You Need — можно найти на arXiv.org. В рамках эксперимента была создана большая языковая модель для генерирования кода, названная phi-1. Обучение этой модели проводилось с использованием специально подготовленного набора данных, качество которого сопоставимо с учебниками по программированию. В результате модель phi-1, при том, что в ней используется всего 1,3 миллиарда параметров, показала результаты, превосходящие то, на что способны самые совершенные большие языковые модели.
Исследование направлено на обучение языковых моделей для генерирования кода. Оно ориентировано на демонстрацию того, что в высококачественных данных есть сила, способная изменить текущую ситуацию, когда улучшение возможностей моделей напрямую связано с увеличением их размеров.
Читать далее https://habr.com/ru/companies/wunderfund/articles/749314/
Обучение больших нейронных сетей — это искусство. В сфере ИИ уже давно известны следующие два факта. Во-первых — высококачественные учебные данные оказывают значительное влияние на улучшение результатов работы больших моделей. Во-вторых — применение таких данных способно бросить вызов законам масштабирования, имеющим отношение к размерам моделей и данных.
Исследовательская команда Microsoft, вдохновлённая этими идеями, провела эксперимент, отчёт о котором — Textbooks Are All You Need — можно найти на arXiv.org. В рамках эксперимента была создана большая языковая модель для генерирования кода, названная phi-1. Обучение этой модели проводилось с использованием специально подготовленного набора данных, качество которого сопоставимо с учебниками по программированию. В результате модель phi-1, при том, что в ней используется всего 1,3 миллиарда параметров, показала результаты, превосходящие то, на что способны самые совершенные большие языковые модели.
Исследование направлено на обучение языковых моделей для генерирования кода. Оно ориентировано на демонстрацию того, что в высококачественных данных есть сила, способная изменить текущую ситуацию, когда улучшение возможностей моделей напрямую связано с увеличением их размеров.
Читать далее https://habr.com/ru/companies/wunderfund/articles/749314/
Хабр
Качественный набор данных от Microsoft для обучения компактных, но мощных языковых моделей, генерирующих код
Обучение больших нейронных сетей — это искусство. В сфере ИИ уже давно известны следующие два факта. Во-первых — высококачественные учебные данные оказывают значительное влияние на улучшение...
👍4
Какие графические процессоры выбрать для глубокого обучения: мой опыт и советы по использованию графических процессоров в глубоком обучении
https://timdettmers.com/2023/01/30/which-gpu-for-deep-learning/
https://timdettmers.com/2023/01/30/which-gpu-for-deep-learning/
Tim Dettmers
The Best GPUs for Deep Learning in 2023 — An In-depth Analysis
Here, I provide an in-depth analysis of GPUs for deep learning/machine learning and explain what is the best GPU for your use-case and budget.
🐍📚Начало работы с векторными базами данных в Python
В последнее время в моде векторные базы данных, особенно с учетом популярности LLM. Что выбрать? Вот отличный обзор девяти популярных опций для Python, включая сильные стороны каждой из них, примеры кода и полезные ссылки.
https://code.dblock.org/2023/06/16/getting-started-with-vector-dbs-in-python.html
В последнее время в моде векторные базы данных, особенно с учетом популярности LLM. Что выбрать? Вот отличный обзор девяти популярных опций для Python, включая сильные стороны каждой из них, примеры кода и полезные ссылки.
https://code.dblock.org/2023/06/16/getting-started-with-vector-dbs-in-python.html
code.dblock.org | tech blog
Getting started with Vector DBs in Python
Vector databases are all the rage today.