Smart Compose: Using Neural Networks to Help Write Emails
Google shared some information about their new feature. Most important: they claim to focus on Fairness and Privacy, training on completely anonimized data and trying to eliminate biases.
Link: https://ai.googleblog.com/2018/05/smart-compose-using-neural-networks-to.html
#Google #SmartCompose #FairAI #Privacy
🔗 Smart Compose: Using Neural Networks to Help Write Emails
Posted by Yonghui Wu, Principal Engineer, Google Brain Team Last week at Google I/O , we introduced Smart Compose , a new feature in Gmail...
Google shared some information about their new feature. Most important: they claim to focus on Fairness and Privacy, training on completely anonimized data and trying to eliminate biases.
Link: https://ai.googleblog.com/2018/05/smart-compose-using-neural-networks-to.html
#Google #SmartCompose #FairAI #Privacy
🔗 Smart Compose: Using Neural Networks to Help Write Emails
Posted by Yonghui Wu, Principal Engineer, Google Brain Team Last week at Google I/O , we introduced Smart Compose , a new feature in Gmail...
research.google
Smart Compose: Using Neural Networks to Help Write Emails
Posted by Yonghui Wu, Principal Engineer, Google Brain Team Last week at Google I/O, we introduced Smart Compose, a new feature in Gmail that uses ...
AutoML: Automating the design of machine learning models for autonomous driving
Link: https://medium.com/waymo/automl-automating-the-design-of-machine-learning-models-for-autonomous-driving-141a5583ec2a
#Waymo #automl #DL #selfdriving #Google
🔗 AutoML: Automating the design of machine learning models for autonomous driving
Through a collaboration with Google AI researchers we’re putting cutting-edge research into practice to automatically generate neural nets.
Link: https://medium.com/waymo/automl-automating-the-design-of-machine-learning-models-for-autonomous-driving-141a5583ec2a
#Waymo #automl #DL #selfdriving #Google
🔗 AutoML: Automating the design of machine learning models for autonomous driving
Through a collaboration with Google AI researchers we’re putting cutting-edge research into practice to automatically generate neural nets.
Medium
AutoML: Automating the design of machine learning models for autonomous driving
Through a collaboration with Google AI researchers we’re putting cutting-edge research into practice to automatically generate neural nets.
#TFDevSummit #MachineLearning #Google
TensorFlow Dev Summit 2019 Livestream
https://www.youtube.com/watch?v=bDZ2q6OktQI
🎥 TensorFlow Dev Summit 2019 Livestream
👁 1 раз ⏳ 32505 сек.
TensorFlow Dev Summit 2019 Livestream
https://www.youtube.com/watch?v=bDZ2q6OktQI
🎥 TensorFlow Dev Summit 2019 Livestream
👁 1 раз ⏳ 32505 сек.
Tune in for TensorFlow Dev Summit 2019 on March 6th at 9:15 AM (PT).
#TFDevSummit brings together a diverse mix of machine learning users from around the world for two days of highly technical talks, demos, and conversation with the TensorFlow team and community.
View the schedule → https://bit.ly/TFDS19
TF Dev Summit '19 all sessions playlist → https://bit.ly/TFDS19Sessions
Subscribe to the TensorFlow YouTube channel → https://bit.ly/TensorFlow1
#MachineLearning #Google
Music by Terra Monk → https://b
YouTube
TensorFlow Dev Summit 2019 Livestream
Tune in for TensorFlow Dev Summit 2019 on March 6th at 9:15 AM (PT).
#TFDevSummit brings together a diverse mix of machine learning users from around the world for two days of highly technical talks, demos, and conversation with the TensorFlow team and…
#TFDevSummit brings together a diverse mix of machine learning users from around the world for two days of highly technical talks, demos, and conversation with the TensorFlow team and…
Neurohive (VK)
Model search (MS) — это библиотека, которая использует алгоритмы автоматического поиска архитектуры ML-моделей. На данный момент MS работает только для задачи классификации как с табличными данными, так и с изображениями. Фреймворк базируется на байесовской оптимизации.
#Development #Google #AutoML
Model search (MS) — это библиотека, которая использует алгоритмы автоматического поиска архитектуры ML-моделей. На данный момент MS работает только для задачи классификации как с табличными данными, так и с изображениями. Фреймворк базируется на байесовской оптимизации.
#Development #Google #AutoML
This media is not supported in your browser
VIEW IN TELEGRAM
Neurohive (VK)
Без названия
Нейросеть от Google AI симулирует движение камеры и параллакс для фотографий. Систему Cinematic photos используют в приложении Google Photos.
#CV #Google
Без названия
Нейросеть от Google AI симулирует движение камеры и параллакс для фотографий. Систему Cinematic photos используют в приложении Google Photos.
#CV #Google
Шок-контент: тут оказывается TensorFlow окончательно проиграл конкуренцию PyTorch
Об этом на днях заявили в Google. С этого момента все исследования и продукты гугла потихоньку переезжают на JAX.
#google #нейросети
Об этом на днях заявили в Google. С этого момента все исследования и продукты гугла потихоньку переезжают на JAX.
#google #нейросети
Forwarded from Machinelearning
⚡️ Gemma 3 QAT
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
✔️ HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳 AI провела 20-минутный «диалог» с горбатым китом
• Где и кто — команда UC Davis под руководством д-ра Бренды МакКауэн провела эксперимент у берегов Аляски, общаясь с китом-самкой по имени Твейн через сеть гидрофонов и ИИ-алгоритмы распознавания паттернов.
• Как — система проанализировала песни Твейн, выявила языкоподобный синтаксис и воспроизвела ответы; кит реагировала структурированными вокализациями, поддерживая около 20 минут «беседы».
• Почему важно — впервые у не-человеческого вида зафиксированы сложные языковые структуры, что повышает оценки когнитивных способностей китов и открывает путь к более точным методам их охраны.
• Связь с SETI — исследователь SETI Лоренс Дойл считает, что методы декодирования китовых песен помогут научиться распознавать возможные внеземные сигналы.
• Этика — часть учёных опасается, что вмешательство может изменить поведение китов; сторонники отвечают, что понимание их «языка» усилит усилия по сохранению вида.
📌 Подробнее
• Где и кто — команда UC Davis под руководством д-ра Бренды МакКауэн провела эксперимент у берегов Аляски, общаясь с китом-самкой по имени Твейн через сеть гидрофонов и ИИ-алгоритмы распознавания паттернов.
• Как — система проанализировала песни Твейн, выявила языкоподобный синтаксис и воспроизвела ответы; кит реагировала структурированными вокализациями, поддерживая около 20 минут «беседы».
• Почему важно — впервые у не-человеческого вида зафиксированы сложные языковые структуры, что повышает оценки когнитивных способностей китов и открывает путь к более точным методам их охраны.
• Связь с SETI — исследователь SETI Лоренс Дойл считает, что методы декодирования китовых песен помогут научиться распознавать возможные внеземные сигналы.
• Этика — часть учёных опасается, что вмешательство может изменить поведение китов; сторонники отвечают, что понимание их «языка» усилит усилия по сохранению вида.
📌 Подробнее
Forwarded from Machinelearning
Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.
Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.
Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.
Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.
На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.
Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.
T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.
Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.
@ai_machinelearning_big_data
#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM