Анонсирована MetNet-3, первая модель погоды с искусственным интеллектом, обучающаяся на основе скудных наблюдений и превосходящая лучшие оперативные системы на 24 часа вперед при высоком разрешении. Часть ее прогнозов теперь доступна в различных продуктах Google. Подробнее→ https://goo.gle/40ljd2Y
  Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
    VIEW IN TELEGRAM
  @data_analysis_ml
Please open Telegram to view this post
    VIEW IN TELEGRAM
  https://blog.tensorflow.org/2023/10/simulated-spotify-listening-experiences-reinforcement-learning-tensorflow-tf-agents.html
@tensorflowblog
  
  @tensorflowblog
blog.tensorflow.org
  
  Simulated Spotify Listening Experiences for Reinforcement Learning with TensorFlow and TF-Agents
  Spotify shares how they use TensorFlow and Reinforcement Learning to train models offline, translating results to large scale, online performance.
  https://blog.tensorflow.org/2023/11/half-precision-inference-doubles-on-device-inference-performance.html
@tensorflowblog
  
  @tensorflowblog
blog.tensorflow.org
  
  Half-precision Inference Doubles On-Device Inference Performance
  We are pleased to announce the general availability for half-precision inference in TensorFlow Lite and XNNPack.
  Forwarded from Machinelearning
This media is not supported in your browser
    VIEW IN TELEGRAM
  Google представили ASPIRE - фреймворк, который расширяет возможности предсказания больших языковых моделей, позволяя им выдавать ответ в паре с оценкой уверенности.
Узнайте, почему он превосходит современные методы на различных наборах данных QA.
https://blog.research.google/2024/01/introducing-aspire-for-selective.html
@ai_machinelearning_big_data
Please open Telegram to view this post
    VIEW IN TELEGRAM
  TimesFM is a forecasting model, pre-trained on a large time-series corpus of 100 billion real world time-points
https://blog.research.google/2024/02/a-decoder-only-foundation-model-for.html
  https://blog.research.google/2024/02/a-decoder-only-foundation-model-for.html
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
    VIEW IN TELEGRAM
  Google объявили о выпуске
TensorFlow GNN 1.0 (TF-GNN), проверенной на практике библиотеки для построения GNN в масштабе.▪Анонс: https://blog.research.google/2024/02/graph-neural-networks-in-tensorflow.html
▪Colab: https://colab.research.google.com/github/tensorflow/gnn/blob/master/examples/notebooks/ogbn_mag_e2e.ipynb
▪Github: https://github.com/tensorflow/gnn
@data_analysis_ml
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Forwarded from Big Data AI
  
🍎 PJRT упрощает интеграцию Apple silicon и ML framework.
Узнайте все о том, как Apple использует порт для ускорения моделей JAX на графических процессорах Apple silicon и AMD, и как вы можете начать работу с PJRT уже сегодня
👉 https://opensource.googleblog.com/2024/03/pjrt-plugin-to-accelerate-machine-learning.html
@bigdatai
  Узнайте все о том, как Apple использует порт для ускорения моделей JAX на графических процессорах Apple silicon и AMD, и как вы можете начать работу с PJRT уже сегодня
👉 https://opensource.googleblog.com/2024/03/pjrt-plugin-to-accelerate-machine-learning.html
@bigdatai
SOTA lowbit LLM quantization INT8FP8INT4FP4NF4  sparsity leading model compression techniques on TensorFlow PyTorch and ONNX Runtime
View on Github.com
  
  View on Github.com
GitHub
  
  GitHub - intel/neural-compressor: SOTA low-bit LLM quantization (INT8/FP8/INT4/FP4/NF4) & sparsity; leading model compression techniques…
  SOTA low-bit LLM quantization (INT8/FP8/INT4/FP4/NF4) & sparsity; leading model compression techniques on TensorFlow, PyTorch, and ONNX Runtime - intel/neural-compressor
  ⚡️ AutoBNN: Probabilistic time series forecasting with compositional bayesian neural networks
Autobahn сочетает интерпретируемость традиционных вероятностных подходов с масштабируемостью и гибкостью нейронных сетей для построения сложных моделей прогнозирования временных рядов с использованием сложных данных.
Узнайте больше и попробуйте готовый код → https://blog.research.google/2024/03/autobnn-probabilistic-time-series.html
@tensorflowblog
  Autobahn сочетает интерпретируемость традиционных вероятностных подходов с масштабируемостью и гибкостью нейронных сетей для построения сложных моделей прогнозирования временных рядов с использованием сложных данных.
Узнайте больше и попробуйте готовый код → https://blog.research.google/2024/03/autobnn-probabilistic-time-series.html
@tensorflowblog
https://blog.tensorflow.org/2024/04/faster-dynamically-quantized-inference-with-xnnpack.html
@tensorflowblog
  
  @tensorflowblog
blog.tensorflow.org
  
  Faster Dynamically Quantized Inference with XNNPack
  XNNPack’s Fully Connected and Convolution 2D operators now support dynamic range quantization. XNNPack is TensorFlow Lite’s CPU backend.
  Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
    VIEW IN TELEGRAM
  Кластеризация графов объединяет похожие элементы в группы, что помогает лучшему понять взаимосвязи в данных.
В этой статье инженеры Google рассказывают о ключевых методах, которые позволили им построить мощнейший алгоритм, позволяющий группировать графы с триллионами ребер.
https://research.google/blog/scaling-hierarchical-agglomerative-clustering-to-trillion-edge-graphs/
@data_analysis_ml
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Forwarded from Machinelearning
SALSA (Stable Armijo Line Search Adaptation) — метод, разработанный для оптимизации Learning Rate (LR) во время обучения.
Основная концепция метода построена вокруг выполнения линейного поиска для определения наилучшего возможного LR для каждого шага обучения, что дает быструю сходимость и улучшенное обобщение.
Чтобы уменьшить вычислительную нагрузку, Salsa предлагает пошаговый миниатюрный линейный поиск. В нем LR постепенно увеличивается с каждым шагом, а критерий линейного поиска постоянно переоценивается.
Дополнительно, Salsa включает экспоненциальное сглаживание в процесс линейного поиска и устанавливает два экспоненциальных скользящих средних для скорости обучения. Это помогает стабилизировать оптимизацию и уменьшить нестабильность от мини-пакетирования.
Экспериментальные результаты показывают, что Salsa превосходит другие методы оптимизации: 50% сокращение final loss и 1,25 average rank в языковых и графических задачах.
Вычислительные издержки Salsa всего на 3% выше, чем у базового LR метода, что можно воспринимать как незначительным увеличением, учитывая показатели производительности. Salsa достаточно универсален, чтобы использоваться с различными оптимизаторами, и особенно эффективен при обучении современных архитектур, которые чувствительны к скорости обучения.
# Clone repository:
git clone https://github.com/TheMody/No-learning-rates-needed-Introducing-SALSA-Stable-Armijo-Line-Search-Adaptation.git
# Create & activate env:
conda env create -f environment.yml
conda activate sls3
# Install dependencies:
pip install pytorch numpy transformers datasets tensorflow-datasets wandb
# NOTE: custom optimizer is in \salsa\SaLSA.py,comparison version are in \salsa\adam_sls.py:
from salsa.SaLSA import SaLSA
self.optimizer = SaLSA(model.parameters())
# NOTE: typical pytorch forward pass needs to be changed to:
def closure(backwards = False):
y_pred = model(x)
loss = criterion(y_pred, y)
if backwards: loss.backward()
return loss
optimizer.zero_grad()
loss = optimizer.step(closure = closure)
@ai_machinelearning_big_data
#AI #LLM #ML #Train #SALSA
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM