Neural Networks | Нейронные сети
11.6K subscribers
722 photos
163 videos
170 files
9.4K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Smart Compose: Using Neural Networks to Help Write Emails

Google shared some information about their new feature. Most important: they claim to focus on Fairness and Privacy, training on completely anonimized data and trying to eliminate biases.

Link: https://ai.googleblog.com/2018/05/smart-compose-using-neural-networks-to.html

#Google #SmartCompose #FairAI #Privacy

🔗 Smart Compose: Using Neural Networks to Help Write Emails
Posted by Yonghui Wu, Principal Engineer, Google Brain Team Last week at Google I/O , we introduced Smart Compose , a new feature in Gmail...
#TFDevSummit #MachineLearning #Google
TensorFlow Dev Summit 2019 Livestream

https://www.youtube.com/watch?v=bDZ2q6OktQI

🎥 TensorFlow Dev Summit 2019 Livestream
👁 1 раз 32505 сек.
Tune in for TensorFlow Dev Summit 2019 on March 6th at 9:15 AM (PT).

#TFDevSummit brings together a diverse mix of machine learning users from around the world for two days of highly technical talks, demos, and conversation with the TensorFlow team and community.

View the schedule → https://bit.ly/TFDS19
TF Dev Summit '19 all sessions playlist → https://bit.ly/TFDS19Sessions

Subscribe to the TensorFlow YouTube channel → https://bit.ly/TensorFlow1

#MachineLearning #Google



Music by Terra Monk → https://b
Neurohive (VK)

​​Model search (MS) — это библиотека, которая использует алгоритмы автоматического поиска архитектуры ML-моделей. На данный момент MS работает только для задачи классификации как с табличными данными, так и с изображениями. Фреймворк базируется на байесовской оптимизации.

#Development #Google #AutoML
This media is not supported in your browser
VIEW IN TELEGRAM
Neurohive (VK)
Без названия

​​Нейросеть от Google AI симулирует движение камеры и параллакс для фотографий. Систему Cinematic photos используют в приложении Google Photos.

#CV #Google
Шок-контент: тут оказывается TensorFlow окончательно проиграл конкуренцию PyTorch

Об этом на днях заявили в Google. С этого момента все исследования и продукты гугла потихоньку переезжают на JAX.

#google #нейросети
Forwarded from Machinelearning
⚡️ Gemma 3 QAT

Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.

Ключевая технология: QAT (Quantization-Aware Training)

Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).

Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.

Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов​. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».

Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти​.

Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате​ – это экономия памяти примерно в ~3–4 раза.

ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf

✔️HF


@ai_machinelearning_big_data


#google #gemma #AI #ML #LLM #Quantization
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳 AI провела 20-минутный «диалог» с горбатым китом

Где и кто — команда UC Davis под руководством д-ра Бренды МакКауэн провела эксперимент у берегов Аляски, общаясь с китом-самкой по имени Твейн через сеть гидрофонов и ИИ-алгоритмы распознавания паттернов.

Как — система проанализировала песни Твейн, выявила языкоподобный синтаксис и воспроизвела ответы; кит реагировала структурированными вокализациями, поддерживая около 20 минут «беседы».

Почему важно — впервые у не-человеческого вида зафиксированы сложные языковые структуры, что повышает оценки когнитивных способностей китов и открывает путь к более точным методам их охраны.

Связь с SETI — исследователь SETI Лоренс Дойл считает, что методы декодирования китовых песен помогут научиться распознавать возможные внеземные сигналы.

Этика — часть учёных опасается, что вмешательство может изменить поведение китов; сторонники отвечают, что понимание их «языка» усилит усилия по сохранению вида.

📌 Подробнее
Forwarded from Machinelearning
⚡️ 5Gemma: новая коллекция энкодер-декодер моделей от Google.

Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.

Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.

Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.

Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.

🟡Но самое важное - прирост в производительности.

На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.

Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.

T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.

Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.

🟡Google выложила в открытый доступ целую линейку чекпойнтов:

🟢T5 (Small, Base, Large, XL) на базе Gemma (2B, 9B);

🟢«Несбалансированную» версию 9B-2B для экспериментов;

🟢Модели с разными целями обучения (PrefixLM для генерации, UL2 для качества представлений).


🔜 Попробовать возможности T5Gemma или настроить их под свои нужды можно с помощью блокнота Colab. Модели также доступны в Vertex AI.


📌Лицензирование: Gemma License.


🟡T5gemma: https://developers.googleblog.com/en/t5gemma/
🟡Статья: https://arxiv.org/abs/2504.06225
🟡Скачать модель: https://huggingface.co/collections/google/t5gemma-686ba262fe290b881d21ec86

@ai_machinelearning_big_data

#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM