Big Data AI
16.8K subscribers
820 photos
98 videos
19 files
824 links
@haarrp - админ

Вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейроннным сетям

@data_analysis_ml - анализ данных

@ai_machinelearning_big_data

@itchannels_telegram - важное для программиста

РКН: clck.ru/3Fmqxe
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
📱 Inpaint-iOS

Бесплатное приложение для рисования с открытым исходным кодом на базе coreml для iPhone / iPad / MacBook с процессором M.

https://github.com/wudijimao/Inpaint-iOS

@bigdatai
5👍2👎1🔥1
⚡️ Awesome LLM Interpretability

Список полезных инструментов, работ, статей и блогов, посвященных большии языковыи моделям (LLM).

Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥1
⚡️ TACO (Topics in Algorithmic COde generation dataset) - это набор данных, ориентированный на алгоритмическую генерацию кода и предназначенный для создания более сложного обучающего набора данных и ,бенчмарка оценки для области моделей генерации кода.

Набор данных состоит из конкурсных задач по программированию, которые являются довольно сложными и приближенными к реальным сценариям программирования. В нем особое внимание уделяется улучшению или оценке способностей модели к пониманию и рассуждению в практических сценариях применения, а не просто реализации предопределенных функций.

Github
HF
Paper

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍4
Прокачай свой скилл!🧠

🧑‍💻Бывший специалист Яндекса - эксперт в области аналитики и машинного обучения, создал каналы о жизни Data Science, где разбирает сложные концепции простым языком.

- Без занудства, научитесь автоматизировать и оптимизировать процессы
- Сможете прокачать свои навыки до уровня, когда работодатели будут бороться за вас
- Перестанете сомневаться в своей компетенции

Подписывайся, здесь нет места нудным теориям — только живые кейсы, интересные проекты и честные советы.
💩3👍2👎1
👉 Машинное обучение - станьте экспертом бесплатно!

Полное руководство, позволяющее учиться и развиваться в области машинного обучения без какого-либо опыта в этой области и быть в курсе последних новостей и методик!

🔗 https://github.com/louisfb01/start-machine-learning

@bigdatai
5🔥2👍1
⚡️Как технологии увеличивают скорость городов и экономят наше время?

Снижение процессорного времени с помощью оптимизации становится всё более важной задачей. На главной конференции для разработчиков YaTalks специалисты из Яндекса рассказали, как создавали собственную модификацию «перфа». Благодаря ней можно зайти на любую машину из облака, посмотреть на любой бинар и его статистику.

Такая оптимизация экономит время пользователей каждый день в сервисах вроде суммаризации видео, Алисы или Яндекс Клавиатуры. Когда команда разработки каждой из них вносит изменения, буст получают сразу все сервисы, которые применяют технологию.

Всё это — далеко не предел. Смотрите записи выступлений с YaTalks 2023 и узнайте, на что ещё способна компьютерная инженерия и технологии искусственного интеллекта.
4👍2🔥1
🦜🔗 Исчерпывающее руководство по реализации моделей HuggingFace с помощью Langchain

Только что опубликована статья о различных способах использования Open Source Large Language Models от HuggingFace с помощью Langchain

Реализация и объяснение кода:
https://analyticsvidhya.com/blog/2023/12/implement-huggingface-models-using-langchain/

@bigdatai
10👍2🔥2
👉 Machine Learning Glossary

Краткие визуальные объяснения концепций машинного обучения с диаграммами, примерами кода и ссылками на ресурсы для получения дополнительной информации.

🔗 https://github.com/bfortuner/ml-glossary

@bigdatai
9👍3🔥1
🤖 Нужно ли оптимизировать программный код для ИИ: аргументы за и против

Если бы JavaScript (или любой другой язык) разрабатывался в первую очередь для использования искусственным интеллектом, а не человеком-разработчиком, он существенно отличался бы от привычного нам языка. Вот основные отличия, которые мы могли бы наблюдать.

1. Сокращение синтаксического сахара. Языки, удобные для человека, содержат синтаксический сахар, чтобы сделать код более читабельным для разработчиков. Для ИИ в этом нет необходимости. Язык, скорее всего, был бы более упрощенным и использовал бы минимальный набор примитивов, необходимых для выражения вычислений (объяснение этого приводится ниже).

2. Отсутствие комментариев и документации. В отличие от человека, ИИ не нуждается в комментариях и документации. Единственным источником истины для него является сам код. ИИ способен понять назначение и действие любого фрагмента кода без внешних аннотаций.

3. Более высокие уровни абстракции. ИИ может работать с гораздо более высокими уровнями абстракции, чем человек. Вместо подробных пошаговых инструкций, оптимизированный для ИИ код мог бы включать в себя более сложные операции, заданные на высоком уровне, а ИИ заполнил бы детали более низкого уровня.

4. Математическая точность. Язык мог бы быть более тесно связанным с математическим формализмом. Это облегчило бы формальную верификацию и обоснование кода, которые ИИ способен выполнять более эффективно, чем человек.

5. Включение внешних баз знаний. Оптимизированный для ИИ язык мог бы напрямую ссылаться на внешние базы знаний или базы данных, позволяя ИИ при необходимости использовать контекст.

6. Оптимизация для параллелизма. ИИ может справиться с параллелизмом и многопоточным выполнением с гораздо меньшими усилиями, чем человек. Язык, скорее всего, изначально поддерживал бы высокопараллельные операции без удобных для разработчика абстракций, используемых в настоящее время.

7. Расширенное управление памятью. Возможно, отпала бы необходимость в привычных парадигмах управления памятью, таких как сборка мусора. Вместо этого, ИИ мог бы освоить передовые алгоритмы, предсказывающие характер использования памяти и оптимизирующие его соответствующим образом.

8. Менее модульный код. Хотя модульность часто оказывается полезной для понимания и сопровождения, ИИ мог бы предпочесть генерировать и управлять более монолитными структурами кода, оптимизируя его для выполнения, а не для чтения.

9. Генерация кода. Язык мог бы иметь встроенные функции для генерации больших объемов кода на основе высокоуровневых характеристик, абстрагируясь от повторяющегося или шаблонного кода, который обычно пишут разработчики.

10. Самостоятельная модификация кода. ИИ мог бы создавать и управлять кодом, который сам изменяется в процессе выполнения, что обычно считается сложной задачей, приводящей к ошибкам разработчиков-людей.

11. Глубокая интеграция с аппаратным обеспечением. Язык мог бы быть глубоко связан с аппаратным обеспечением, что позволило бы ИИ выполнять микрооптимизацию на основе знаний о состоянии оборудования в реальном времени.

Что такое синтаксический сахар?

📌 Читать

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113🔥2🤩2🗿1
👀 От новичка до профессионала: Ваше руководство 2024 года, чтобы стать инженером по компьютерному зрению

https://uproger.com/ot-novichka-do-professionala-vashe-rukovodstvo-2024-goda-chtoby-stat-inzhenerom-po-kompyuternomu-zre

@bigdatai
👍73🔥2
В этом репозитории есть все необходимое для того, чтобы стать экспертом в области #TimeSeries Analysis, который содердит 20+ проектов:

Github

@bigdatai
👍112🔥2
🚝 Датасеты с железными дорогами

Github

@bigdatai
👍10🔥32
🖥 Complete-Advanced-SQL-Series

Этот репозиторий содержит все, что вам нужно, чтобы прокачать свои навыки работы с #SQL.

Более 100 упражнений и примеров по SQL.

Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113🥰1
⚡️ Awesome-Unsupervised-Object-Localization

Awesome cписок работ по неконтролируемой локализации объектов на 2D-изображениях.

Github

@bigdatai
👍62🔥1
Хотите адаптировать LLM под свои данные и сферу деятельности? 🤔

Свежий пост от Pytorch о том, как доработать модель с 7B параметрами на обычном GPU (NVIDIA T4 16GB) с помощью LoRA и инструментов из экосистемы PyTorch и Hugging Face.

🔎 https://pytorch.org/blog/finetune-llms

@bigdatai
👍82🔥2
🔥 Новый выпуск базы данных эмбедингов txtai-wikipedia теперь доступен на Hugging Face Hub!

Датасет Википедии: https://huggingface.co/datasets/NeuML/wikipedia-20240101
Скрипт для работы с датасетом: https://huggingface.co/datasets/NeuML/wikipedia

@bigdatai
👍101🔥1
Этот репозиторий содержит 50+ проектов, охватывающих Data #Analytics, #DataScience, #DataEngineering, #MLOps и #MachineLearning.

https://github.com/Coder-World04/Data-and-ML-Projects-

@bigdatai
7👍4🔥3🦄1
🪐 Как и почему нейронные сети по-разному обучаются на естественных и медицинских изображениях?

Github: github.com/mazurowski-lab/intrinsic-properties
Paper: https://arxiv.org/abs/2401.08865

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64🔥2
Только что выложили в открытый доступ два инструмента, которые для обработки масштабных данных и обучения масштабных моделей:
- datatrove - все для обработки данных в веб-масштабе: дедупликация, фильтрация, токенизация - https://github.com/huggingface/datatrove

- nanotron - все, что связано с 3D-параллелизмом: легкое и быстрое обучение LLM - https://github.com/huggingface/nanotron

@bigdatai
7👍6🔥1
TensorDict - это класс, похожий на словарь, который наследует свойства тензоров, такие как индексация, операции с формами, приведение к устройству или связь точка-точка в распределенных системах.

Github

@bigdatai
6🔥2
🎮 Linux 12 практический советов

https://habr.com/ru/articles/788570/

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71🔥1