Forwarded from Machinelearning
Институт технологических инноваций Абу-Даби представил семейство моделей Falcon 3 с расширенными возможностями в областях науки, математики и программирования.
Модели Falcon 3 основаны на трансформерах, совместимы с архитектурой Llama поддерживает до 32К токенов контекста (кроме 1B с контекстом 8К). Все модели используют функцию активации SwiGLU с размером словаря 131K токенов (65K для Mamba-7B версии).
Falcon3-7B-Base была масштабирована до 10 млрд. параметров путем дублирования избыточных слоев и последующего обучения на 2 трлн. токенов. Это позволило модели Falcon3-10B-Base достичь высоких результатов в задачах zero-shot и few-shot среди моделей с менее чем 13В параметров.
Для создания компактных моделей Falcon3-1B Base и Falcon3-3B Base использовались методы обрезки и дистилляции знаний на основе около 100 ГБ высококачественных данных.
Модель Falcon3-Mamba-7B-Base была усовершенствована путем обучения на дополнительных 1,5 трлн. токенов, что привело к созданию Falcon3-Mamba-7B-Base с улучшенными способностями к рассуждению и в математических задачах.
В бенчмарках задач математики Falcon3-10B-Base достигает 22,9 на MATH-Lvl5 и 83,0 на GSM8K, а в задачах программирования набирает 73,8 на MBPP.
Инструктивные версии моделей также показывают высокие результаты, при этом Falcon3-7B-Instruct и Falcon3-10B-Instruct превосходят аналогичные модели до 13 млрд. параметров.
⚠️ В январе 2025 года планируется выпуск моделей семейства Falcon3 с расширенными мультимодальными возможностями: поддержка изображений, видео и аудио, а также полный технический отчет с описанием методик.
@ai_machinelearning_big_data
#AI #ML #LLM #Falcon3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤5🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍5🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Инсайды о Machine Learning и Data Science
Ловите свежий подкаст с руководителем ШАДа Алексеем Толстиковым, который вышел на канале Виктора Кантора
🔗 Что делает ML- и DS-специалистов конкурентоспособными
🔗 Могут ли в этих сферах закрепиться люди из совершенно других областей
🔗 Можно ли освоить Data Science самостоятельно
🔗 Почему глубокого знания математики и алгоритмов недостаточно для успешной работы
🔗 Как джуну найти работу
🔗 Как поступить в ШАД и справиться с учебой там
@data_analysis_ml
Ловите свежий подкаст с руководителем ШАДа Алексеем Толстиковым, который вышел на канале Виктора Кантора
🔗 Что делает ML- и DS-специалистов конкурентоспособными
🔗 Могут ли в этих сферах закрепиться люди из совершенно других областей
🔗 Можно ли освоить Data Science самостоятельно
🔗 Почему глубокого знания математики и алгоритмов недостаточно для успешной работы
🔗 Как джуну найти работу
🔗 Как поступить в ШАД и справиться с учебой там
@data_analysis_ml
👍10❤5
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥2
⚡️ Вышли обновленные модели Granite 3.1 от IBM!
Доступна в 4 размерах с двумя различными архитектурами:
Mixture of expert
ollama run granite3-moe:1b
ollama run granite3-moe:3b
tool-based
ollama run granite3.1-dense:2b
ollama run granite3.1-dense:8b
IBM также выпстят эмбединги сегодня!
Только на английском языке:
ollama pull granite-embedding:30m
Многоязычный:
ollama pull granite-embedding:278m
https://ollama.com/library/granite3-dense:2b/blobs/63dd4fe4571a
@data_analysis_ml
Доступна в 4 размерах с двумя различными архитектурами:
Mixture of expert
ollama run granite3-moe:1b
ollama run granite3-moe:3b
tool-based
ollama run granite3.1-dense:2b
ollama run granite3.1-dense:8b
IBM также выпстят эмбединги сегодня!
Только на английском языке:
ollama pull granite-embedding:30m
Многоязычный:
ollama pull granite-embedding:278m
https://ollama.com/library/granite3-dense:2b/blobs/63dd4fe4571a
@data_analysis_ml
👍10❤4🔥3😐2
Media is too big
VIEW IN TELEGRAM
⚡️ Сегодня был выпущен мощнейший ИИ-движок для физики под названием Genesis.
Что это такое: это платформа для симуляции физики в виртуальных мирах с элементами искусственного интеллекта, позволяющая генерировать практически любые объекты.
Главная цель — создание трехмерных миров с реалистичной физикой, где можно выполнять различные задачи: обучать роботов, проводить физические эксперименты или разрабатывать анимации для игр.
Почему вокруг него столько шума? Genesis отличается невероятной скоростью (в 10–80 раз быстрее аналогов) и высокой эффективностью.
Например, чтобы научить робота ходить, потребуется всего одна видеокарта RTX 4090 и 26 секунд времени.
Для сравнения, аналогичная тренировка в реальных условиях могла бы занять до 129 дней!
Кроме того, Genesis способен самостоятельно генерировать всё необходимое: будь то трёхмерная среда, физика или анимационные последовательности. Разработчики даже предлагают учёным-физикам использовать платформу для изучения поведения воды в разных условиях.
Ожидаются первые захватывающие анонсы на базе Genesis!
📌 Проект
📌 Github
@data_analysis_ml
Что это такое: это платформа для симуляции физики в виртуальных мирах с элементами искусственного интеллекта, позволяющая генерировать практически любые объекты.
Главная цель — создание трехмерных миров с реалистичной физикой, где можно выполнять различные задачи: обучать роботов, проводить физические эксперименты или разрабатывать анимации для игр.
Почему вокруг него столько шума? Genesis отличается невероятной скоростью (в 10–80 раз быстрее аналогов) и высокой эффективностью.
Например, чтобы научить робота ходить, потребуется всего одна видеокарта RTX 4090 и 26 секунд времени.
Для сравнения, аналогичная тренировка в реальных условиях могла бы занять до 129 дней!
Кроме того, Genesis способен самостоятельно генерировать всё необходимое: будь то трёхмерная среда, физика или анимационные последовательности. Разработчики даже предлагают учёным-физикам использовать платформу для изучения поведения воды в разных условиях.
Ожидаются первые захватывающие анонсы на базе Genesis!
📌 Проект
📌 Github
@data_analysis_ml
🔥28👍7❤5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁15👍5❤3🔥3
В Библиотеке иностранной литературы прошел ивент для всех, кто интересуется открытым кодом — «Ночь опенсорс-библиотек».
Аналитики учились строить дашборды по опенсорсным репозиториям в DataLens (облачная BI-система для визуализации и анализа данных). А еще получили возможность понетворкать с мейнтейнерами крупных опенсорс проектов. Те, кто не сильно погружен в тему, послушали доклад о том, как сделать свой первый коммит.
Помимо хакатонов и воркшопов, гости проходили квесты с перфокартами, ходили на экскурсию в закрытые части библиотеки и отдыхали в зоне с генеративным лайф-кодингом под диджей-сеты.
Наглядный кейс про то, как важно вкладываться не только в опенсорс, но и в само сообщество. И такие ивенты — хорошая возможность обменяться опытом и заодно отдохнуть под фановые активности.
Аналитики учились строить дашборды по опенсорсным репозиториям в DataLens (облачная BI-система для визуализации и анализа данных). А еще получили возможность понетворкать с мейнтейнерами крупных опенсорс проектов. Те, кто не сильно погружен в тему, послушали доклад о том, как сделать свой первый коммит.
Помимо хакатонов и воркшопов, гости проходили квесты с перфокартами, ходили на экскурсию в закрытые части библиотеки и отдыхали в зоне с генеративным лайф-кодингом под диджей-сеты.
Наглядный кейс про то, как важно вкладываться не только в опенсорс, но и в само сообщество. И такие ивенты — хорошая возможность обменяться опытом и заодно отдохнуть под фановые активности.
👍9🔥6❤5
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥2👌1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍5🔥3
Forwarded from Machinelearning
FlashRNN - библиотека, которая реализует традиционные RNN, такие как LSTM, GRU и сети Элмана, а также новейшую архитектуру sLSTM в CUDA и Triton.
В отличие от распространенных современных моделей архитектуры Transformers, RNN обладают возможностями отслеживания состояния, оставаясь актуальными для решения задач моделирования временных рядов и логического мышления.
FlashRNN предлагает два варианта оптимизации: чередующийся и объединенный.
За автоматизацию настройки параметров FlashRNN отвечает библиотека
ConstrINT
, которая решает задачи целочисленного удовлетворения ограничений, моделируя аппаратные ограничения в виде равенств, неравенств и ограничений делимости.Эксперименты с FlashRNN показали существенное увеличение скорости работы: до 50 раз по сравнению с PyTorch. FlashRNN также позволяет использовать большие размеры скрытых состояний, чем нативная реализация Triton.
# Install FlashRNN
pip install flashrnn
# FlashRNN employs a functional structure, none of the parameters are tied to the `flashrnn` function:
import torch
from flashrnn import flashrnn
device = torch.device('cuda')
dtype = torch.bfloat16
B = 8 # batch size
T = 1024 # sequence length
N = 3 # number of heads
D = 256 # head dimension
G = 4 # number of gates / pre-activations for LSTM example
S = 2 # number of states
Wx = torch.randn([B, T, G, N, D], device=device, dtype=dtype, requires_grad=True)
R = torch.randn([G, N, D, D], device=device, dtype=dtype, requires_grad=True)
b = torch.randn([G, N, D], device=device, dtype=dtype, requires_grad=True)
states_initial = torch.randn([S, B, 1, N, D], device=device, dtype=dtype, requires_grad=True)
# available functions
# lstm, gru, elman, slstm
# available backend
# cuda_fused, cuda, triton and vanilla
states, last_states = flashrnn(Wx, R, b, states=states_initial, function="lstm", backend="cuda_fused")
# for LSTM the hidden h state is the first of [h, c]
# [S, B, T, N, D]
hidden_state = states[0]
@ai_machinelearning_big_data
#AI #ML #RNN #FlashRNN
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤5🔥5
🎉 BERT вернулся. 🔥
ModernBERT пересматривает традиционные модели кодеров, поддерживая последовательности 8K при скорости в 2-3 раза выше, сохраняя при этом практическую простоту BERT.
Основные моменты
→ ModernBERT представляет новое семейство моделей для Кодинга, превосходящих традиционные архитектуры BERT, как в базовом варинате (139 М параметров), так и в large модели (395 М параметров) вариантах
→ Архитектура позволяет обрабатывать последовательности до 8 192 токенови
→ В бенчмарках ModernBERT демонстрирует улучшение хорошие результаты в задачах поиска, NLU и кода, при этом в 2-3 раза быстрее, чем существующие модели.
https://huggingface.co/blog/modernbert
@data_analysis_ml
ModernBERT пересматривает традиционные модели кодеров, поддерживая последовательности 8K при скорости в 2-3 раза выше, сохраняя при этом практическую простоту BERT.
Основные моменты
→ ModernBERT представляет новое семейство моделей для Кодинга, превосходящих традиционные архитектуры BERT, как в базовом варинате (139 М параметров), так и в large модели (395 М параметров) вариантах
→ Архитектура позволяет обрабатывать последовательности до 8 192 токенови
→ В бенчмарках ModernBERT демонстрирует улучшение хорошие результаты в задачах поиска, NLU и кода, при этом в 2-3 раза быстрее, чем существующие модели.
https://huggingface.co/blog/modernbert
@data_analysis_ml
👍12❤6🔥4👌1
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣12👍9❤5🔥4👏1😁1
Это означает, что почти все основные рекомендательные системы в индустрии построены на Keras - YouTube, TikTok, Spotify, Snap, X/Twitter и многие другие.
▪ Github
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍6❤5🤯4
SWE-Bench: 71.7%
Codeforces: 2727
Competition Math: 96.7%
PhD level science (GPQA): 87,7%
Frontier Math: 25.2% (previous best was 2%)
ARC-AGI: 87.5%
🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19❤5🔥4🥱2🤣2
Forwarded from Machinelearning
Эти проекты были выбраны на основе их актуальности на 2024 год. Каждый из них - смесь практической полезности, новизны и, честно говоря, крутости, будь то смелый и инновационный подход, элегантное решение сложных проблем или просто умная реализация.
BAML превращает текстовые промпты в многократно используемые функции LLM с типизированными переменными и обеспечивают конкретный тип выходных данных. BAML превосходит другие методы получения структурированных данных от LLM и поддерживает VS Code и Cursor.
Новый подход к notebook, который превращает их в мощную, реактивную среду для создания удобных для совместного использования рабочих процессов. Marimo готов заменить Jupyter и Streamlit, устраняя проблемы скрытого состояния и ручного выполнения ячеек.
Безопасная изолированная среда, где AI-агенты могут выполнять код, взаимодействовать с веб-браузерами, управлять файлами, отлаживать проблемы, рефакторить код и даже сотрудничать с другими агентами. Среда включает в себя Docker-песочницу с доступом к bash-оболочке, веб-браузингом и IPython-сервером.
Библиотека, которая обрабатывает динамический контент, обходит механизмы защиты от ботов, извлекает структурированные данные и масштабирует задачи сбора массивов информации. Асинхронная архитектура дает высокую скорость работы даже со сложным JavaScript. На выходе - форматы JSON, markdown и очищенный HTML, готовые для импорта в LLM. Crawl4AI поддерживает Chromium, Firefox и WebKit через Playwright.
Детище LightningAI - мощный инструмент для развертывания моделей и сложных AI-конвейеров. Построен на базе FastAPI, поддерживает PyTorch, TensorFlow, JAX и работает с GenAI, СV, ASR и эмбедингами. LitServe умеет в KV-кэширование для LLM, и подходит как для легких приложений, так и для тяжелых корпоративных нагрузок.
Python-инструмент для упрощения извлечения структурированных данных из LLM. Он предлагает удобный интерфейс, основанный на декораторах и декларативных схемах. Mirascope поддерживает OpenAI, Anthropic и Cohere и имеет свой поисковый агент WebSearchAgent, который может автономно собирать информацию из интернета.
OCR-система на 90 языках. Surya извлекает текст из сканированных изображений, PDF-файлов и других визуальных форматов с точностью, сравнимой с Google Cloud Vision. Помимо OCR, Surya проводит расширенный анализ документа, определяя заголовки, изображения, таблицы и порядок чтения, что идеально для оцифровки книг, форм и научных документов.
Платформа для управления версиями мультимодальных наборов изображений, видео, текста и PDF-файлов. Библиотека преобразует разрозненные файлы в централизованные датасеты, которые легко запрашивать и манипулировать с помощью Python без использования Spark или SQL. DataChain поддерживает PyTorch, TensorFlow, AI-генерацию метаданных, сериализацию инференса LLM и выполнение пакетных процедур.
Легковесный слой, который объединяет pandas, Polars, PyArrow, Modin и cuDF в Python. Он позволяет писать код, не зависящий от используемого бэкенда, используя подмножество API Polars в качестве интерфейса. Поддерживает как eager, так и lazy execution стили, включая Dask. Narwhals не имеет зависимостей и обеспечивает статическую типизацию для автозавершения и подсказок в IDE.
Фреймворк агентов, которые управляют взаимодействием с LLM и проверкой их инференса. Имеет систему внедрения зависимостей, позволяющую динамически получать контекстные данные. PydanticAI поддерживает пользовательские функции Python, вызываемые агентами для доступа к информации и выполнения вычислений.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤7🔥5