@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥1
Forwarded from Machinelearning
Набор данных LAION-DISCO-12M состоит из 12 млн ссылок на общедоступные треки YouTube с метаданными. Он собран для поддержки фундаментальных исследований в области машинного обучения, созданию базовых моделей обработки звука, извлечения музыкальной информации, анализа наборов данных аудио и обучение рекомендательных систем и приложений.
Метод создания LAION-DISCO-12M основан на рекурсивном поиске исполнителей на платформе YouTube Music. Начиная с начального списка исполнителей топ-чартов разных стран, новые артисты обнаруживались путем анализа раздела "Похожие исполнители".
Для каждого исполнителя извлекались метаданные: имя, количество подписчиков и список всех песен и музыкальных клипов. Каждая песня или музыкальный клип были связаны с URL-адресом YouTube.
Размер датасета составляет 250 516 исполнителей и 12 648 485 треков.
Поля метаданных:
@ai_machinelearning_big_data
#AI #ML #LAION #Audio #Dataset
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2
Новая открытая версия от Apple - AIMv2 - крупномасштабные визуальные кодеры 🔥
> > Превосходит CLIP и SigLIP по основным показателям мультимодального понимания
> Превосходит DINOv2 по обнаружению объектов
> Высокая эффективность распознавания с помощью AIMv2-3B, достигающая 89,5% на ImageNet
> Интегрированные трансформаторы (пользовательский код)
▪HF: https://huggingface.co/collections/apple/aimv2-6720fe1558d94c7805f7688c
▪Paper: https://huggingface.co/papers/2411.14402
@bigdatai
> > Превосходит CLIP и SigLIP по основным показателям мультимодального понимания
> Превосходит DINOv2 по обнаружению объектов
> Высокая эффективность распознавания с помощью AIMv2-3B, достигающая 89,5% на ImageNet
> Интегрированные трансформаторы (пользовательский код)
▪HF: https://huggingface.co/collections/apple/aimv2-6720fe1558d94c7805f7688c
▪Paper: https://huggingface.co/papers/2411.14402
@bigdatai
👍3❤1👎1🔥1💩1🤡1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3👌2🥰1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥2👌1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤3😍3👌2
Forwarded from Machinelearning
SmolTalk - это синтетический датасет, разработанный HuggingFace для обучения SmolTalk: новый синтетический набор данных для обучения больших языковых моделей LLM с учителем. Он состоит из 2 млн. строк и был использован для создания семейства моделей SmolLM2-Instruct. SmolTalk включает в себя как новые, так и существующие наборы данных.
Новые наборы данных:
Существующие общедоступные наборы данных:
SmolTalk сравнили недавно выпущенным набором данных Orca AgentInstruct 1M, обучив SmolLM2 на обоих наборах данных с использованием одинаковой конфигурации обучения.
Результаты показали, что SmolTalk показал значительные улучшения в производительности модели, особенно в задачах математики, программирования и следованию системным промптам. Наблюдались также значительные улучшения в масштабе 7B при обучении Mistral-7B на SmolTalk, особенно по показателям IFEval, BBH, GS8Mk и MATH.
from datasets import load_dataset
ds = load_dataset("HuggingFaceTB/smoltalk", "all", split="train")
# to load the train split of a specific subset such as smol-magpie-ultra, you can do
ds = load_dataset("HuggingFaceTB/smoltalk", "smol-magpie-ultra", split="train")
@ai_machinelearning_big_data
#AI #ML #LLM #HuggingFace #Dataset
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥2
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2👌2
🔥Интересная дискуссия на reddit о 4-битном квантовании без потерь для Qwen2.5 от Intel AutoRound!
🎯Полный текст: https://reddit.com/r/LocalLLaMA/comments/1h0aev6/lossless_4bit_quantization_for_large_models_are/?rdt=60370
@bigdatai
🎯Полный текст: https://reddit.com/r/LocalLLaMA/comments/1h0aev6/lossless_4bit_quantization_for_large_models_are/?rdt=60370
@bigdatai
Reddit
From the LocalLLaMA community on Reddit: Lossless 4-bit quantization for large models, are we there?
Explore this post and more from the LocalLLaMA community
❤4👍2🔥2
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ERPoT: Эффективное и надежное отслеживание движения мобильных роботов на основе легких и компактных полигональных карт
https://github.com/ghm0819/ERPoT
@bigdatai
https://github.com/ghm0819/ERPoT
@bigdatai
👎2💩2🤡2❤1👍1🔥1
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
АНАЛИЗ Данных: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/golang_interview
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
АНАЛИЗ Данных: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/golang_interview
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
👍2❤1🔥1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4👌2👎1🥰1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4👌3✍1🍌1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤4🥰2👍1👌1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4🔥1😁1👌1
🪐 Multimodal Universe: Свежий датасет 100 ТБ научных астрономических данных
Мультимодальный набор данных Universe - это крупномасштабная коллекция мультимодальных астрономических данных, включая изображения, спектры и кривые блеска, предназначеный для проведения исследований в области астрономии и астрофизики.
Github: https://github.com/MultimodalUniverse/MultimodalUniverse
Colab: https://colab.research.google.com/github/MultimodalUniverse/MultimodalUniverse/blob/main/notebooks/getting_started.ipynb
HF: huggingface.co/MultimodalUniverse
@bigdatai
Мультимодальный набор данных Universe - это крупномасштабная коллекция мультимодальных астрономических данных, включая изображения, спектры и кривые блеска, предназначеный для проведения исследований в области астрономии и астрофизики.
python
from datasets import load_dataset
dset = load_dataset('MultimodalUniverse/plasticc',
split='train', streaming=True)
example = next(iter(dset))
Github: https://github.com/MultimodalUniverse/MultimodalUniverse
Colab: https://colab.research.google.com/github/MultimodalUniverse/MultimodalUniverse/blob/main/notebooks/getting_started.ipynb
HF: huggingface.co/MultimodalUniverse
@bigdatai
❤6👍4🔥2👎1🤡1
Forwarded from Machinelearning
PaliGemma 2 - обновление open-sorce VLM PaliGemma, основанное на семействе LLM Gemma 2. Семейство сочетает в себе кодировщик изображений SigLIP-So400m с спектром моделей Gemma 2, от 2B до 27B параметров. Модели PaliGemma 2 обучались в 3 этапа на трех разрешениях (224px², 448px² и 896px²).
PaliGemma 2 демонстрирует впечатляющие результаты в распознавании музыкальных нот, молекулярных структур и медицинских изображений. Модели справляются с распознаванием табличной структуры и созданием отчетов по рентгенограммам.
В задачах генерации длинных, детализированных аннотаций к изображениям PaliGemma 2 превосходит многие популярные VLM, несмотря на то, что она обучалась на значительно меньших наборах данных.
Для развертывания на устройствах без GPU могут использоваться квартованные версии PaliGemma 2. Тесты показали, что переход от 32-битной разрядности (f32) к 16-битной (bf16) или квантованным весам не приводит к заметному снижению качества.
В релиз вошли предварительно обученные модели 3B, 10B и 28B с разрешениями 224px, 448px, 896px, модели, настроенные на наборе данных DOCCI для создания аннотаций к изображениям и их версии для JAX/FLAX.
Процесс файнтюна PaliGemma 2 такой же, как и у предыдущей версии. Разработчики предоставляют скрипт и ipynb-блокнот для тонкой настройки модели или создания LoRA/QLoRA.
Создание LoRA модели PaliGemma 2 на половине валидационного сплита VQAv2 заняло полчаса на 3-х A100 с 80 ГБ VRAM. Результат можно найти здесь, а это ее демо.
paligemma2-10b-ft-docci-448
на Transformers:from transformers import AutoProcessor, PaliGemmaForConditionalGeneration
from PIL import Image
import requests
model_id = "google/paligemma2-10b-ft-docci-448"
model = PaliGemmaForConditionalGeneration.from_pretrained(model_id)
model = model.to("cuda")
processor = AutoProcessor.from_pretrained(model_id)
prompt = "<image>caption en"
image_file = "% link_to_target_file%"
raw_image = Image.open(requests.get(image_file, stream=True).raw).convert("RGB")
inputs = processor(prompt, raw_image, return_tensors="pt").to("cuda")
output = model.generate(**inputs, max_new_tokens=20)
print(processor.decode(output[0], skip_special_tokens=True)[len(prompt):])
@ai_machinelearning_big_data
#AI #ML #VLM #Google #PaliGemma
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥1