Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
18.8K subscribers
2.24K photos
111 videos
64 files
4.64K links
Все самое полезное для дата сайентиста в одном канале.

По рекламе: @proglib_adv

Курс по ML: https://clc.to/4hNluQ

Для обратной связи: @proglibrary_feeedback_bot

РКН: https://gosuslugi.ru/snet/67a5b03124c8ba6dcaa121c9
Download Telegram
👀 DeepSeek R1: разбираемся с фактами

🔸 Ходят слухи, что обучение DeepSeek стоило ~$6M, но это маловероятно. Только базовая модель без RL обошлась в $5.5M, а ведь были ещё дополнительные прогоны обучения и полное обучение R1.

🔸 DeepSeek — не стартап на коленке. Их поддерживает High-Flyer, крупный китайский хедж-фонд, а команда состоит из олимпиадников по математике и физике. Они работают на 50,000+ GPU, что говорит о масштабе.

🔸 DeepSeek R1 — это 671B параметров, для работы требуется 16×H100. Это один из самых мощных опенсорсных ИИ.

🔸 Есть и «облегчённые» версии, например, 1.5B, но это не настоящий R1, а лишь дообученные Qwen/Llama.

📌 Если используете хостинговую версию DeepSeek, внимательно изучите ToS (условия предоставления услуг). Они могут использовать ваши данные для обучения будущих моделей.
👍5🥱21
Ответ: Верно.

Метод bagging (Bootstrap Aggregating) предполагает случайный выбор K объектов из исходного обучающего набора с заменой, где K равно размеру исходного набора данных.

Это означает, что одни экземпляры могут встречаться несколько раз, а другие могут не попасть в выборку вовсе.

Такой подход позволяет создать несколько различных обучающих подмножеств, что снижает дисперсию модели и повышает её устойчивость.
👍3
🔥 Вышел PyTorch 2.6

🔷 Появился параметр torch.compiler.set_stance — теперь можно управлять поведением torch.compile. Например, включить «жадный» режим, чтобы код выполнялся без лишней компиляции.

🔷 AOTInductor (компилятор для ускорения моделей) получил новые фичи. Теперь в нём есть «минификатор», который помогает находить ошибки в моделях, создавая минимальный код, воспроизводящий проблему.

🔷 Также добавили режим ABI — это значит, что при обновлениях PyTorch ничего гарантировано не сломается.

🔷 Теперь torch.compile совместим с Python 3.13.

Полный список изменений здесь 👉 https://clc.to/OcCJwA
👍81🎉1
🏆 Лучшие библиотеки для Machine Learning на Python

Этот список — настоящий топ open-source проектов по ML, который обновляется каждую неделю.

📊 920 лучших библиотек с общим числом 4.8M звёзд на GitHub!
📂 34 категории, от классического ML до дип-обучения.
📈 Высокий рейтинг проектов на основе качества, данных из GitHub и пакетных менеджеров.

📌 Репозиторий: https://clc.to/brfm8g
5👍2🥰1
Менеджер данных: как новая роль изменила подход к работе с ML

В статье разберём
🔹 Кто такой менеджер данных и какие у него задачи.
🔹 Как эта роль помогает ML-инженерам.
🔹 В каких случаях компании стоит задуматься о найме.
🔹 Как найти подходящего кандидата.

Подробнее по ссылке: https://clc.to/teOZ8w
1🔥1
🔥 Hugging Face курс по практическому изучению агентов

На курсе обещают:

🔹 Теорию — разберут, что такое агенты, какие они бывают и как обучить LLM взаимодействовать с окружающей средой.

🔹 Практику — научат создавать агентов для реальных задач: от автоматизации SQL-запросов до генерации кода и анализа документов.

Запись открыта для всех — зарегистрироваться можно здесь.
👍51
Полный Roadmap по Machine Learning

Если хотите освоить Machine Learning, вот дорожная карта с основными этапами!
😢13👍11😁71🌚1
👍 Кодирование Хаффмана для сжатия данных без потерь

В эпоху быстрорастущих объемов данных эффективные методы сжатия стали необходимостью. Кодирование Хаффмана — это мощный алгоритм жадного сжатия без потерь, широко используемый в различных приложениях.

📌 Детальная статья с реализацией алгоритма
👍81
🔢 Основы квантизации весов

Квантизация весов — это процесс преобразования высокоточных весов нейросети (обычно 32-битных чисел с плавающей запятой) в низкоточные представления (чаще всего 8-битные целые числа).

Это позволяет значительно уменьшить размер модели и снизить потребление памяти, сохраняя при этом высокую производительность.
Главная сложность — сохранить точность модели, несмотря на снижение разрядности чисел.

Более подробно в статье: https://clc.to/-rZwSA
👍62👏2
Привет! Мы собираем данные о том, какие методы биохакинга действительно помогают разрабам улучшить качество жизни и повысить продуктивность.

Поделитесь своим опытом — это поможет другим сделать осознанный выбор в мире биохакинга.
4