Forwarded from ForkLog AI
💨 Французская компания Engie начнет использовать экспериментальную облачную ИИ-систему Google для повышения эффективности и мощности ветряных электростанций.
Техгигант совместно с лабораторией DeepMind разработал программное обеспечение, предсказывающее силу ветра на 36 часов вперед. Ожидается, что система позволит с высокой точностью планировать поставки энергии в энергосети с учетом непредсказуемости стихии.
Ранние тесты показали, что ИИ увеличил объемы генерации электрики на 20%.
📈 Engie испытает платформу на ветряных станциях, расположенных в Германии. До 2030 года компания планирует увеличить производство зеленой электроэнергии минимум в два раза.
#Google #экология
Техгигант совместно с лабораторией DeepMind разработал программное обеспечение, предсказывающее силу ветра на 36 часов вперед. Ожидается, что система позволит с высокой точностью планировать поставки энергии в энергосети с учетом непредсказуемости стихии.
Ранние тесты показали, что ИИ увеличил объемы генерации электрики на 20%.
📈 Engie испытает платформу на ветряных станциях, расположенных в Германии. До 2030 года компания планирует увеличить производство зеленой электроэнергии минимум в два раза.
#Google #экология
Forwarded from ForkLog AI
🔎 Google интегрирует модель машинного обучения в браузер Chrome для выявления фишинговых атак.
Также Google анонсировала интеграцию ИИ-алгоритма, анализирующего действия пользователя и отключающего запросы сайтов на отправку уведомлений.
Другая модель предназначена для оптимизации панели инструментов в Chrome. В зависимости от действий пользователя браузер подсветит потенциально полезные в данный момент элементы интерфейса.
📆 Нововведения появятся в следующем обновлении Chrome. В компании подчеркнули, что модели машинного обучения будут обрабатывать запросы непосредственно на устройстве пользователя.
https://forklog.com/chrome-zadejstvuet-mashinnoe-obuchenie-dlya-vyyavleniya-fishingovyh-atak/
#Google
Также Google анонсировала интеграцию ИИ-алгоритма, анализирующего действия пользователя и отключающего запросы сайтов на отправку уведомлений.
Другая модель предназначена для оптимизации панели инструментов в Chrome. В зависимости от действий пользователя браузер подсветит потенциально полезные в данный момент элементы интерфейса.
📆 Нововведения появятся в следующем обновлении Chrome. В компании подчеркнули, что модели машинного обучения будут обрабатывать запросы непосредственно на устройстве пользователя.
https://forklog.com/chrome-zadejstvuet-mashinnoe-obuchenie-dlya-vyyavleniya-fishingovyh-atak/
ForkLog
Chrome задействует машинное обучение для выявления фишинговых атак
Компания Google интегрирует в браузер Chrome модель машинного обучения для обнаружения потенциальных фишинговых атак. With upcoming on-device machine learning advancements in #Chrome, block unwanted notifications, translate more sites into your preferred…
Forwarded from ForkLog AI
🤔 Эксперты в области искусственного интеллекта усомнились в «зарождении разума» у алгоритма LaMDA от Google.
По словам одного из исследователей, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.
☝️ В стартапе AI Nara Logics заявили, что алгоритм может имитировать восприятие или чувства из предоставленных ему обучающих данных.
Еще один эксперт утверждает, что архитектура модели «просто не обладает ключевыми возможностями человеческого сознания». Если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, добавил он.
🗣 Другой ученый заявил, что ИИ-системы не осознают влияния своих ответов или поведения на общество.
https://forklog.com/eksperty-usomnilis-v-zarozhdenii-razuma-u-algoritma-google/
#мнение #Google
По словам одного из исследователей, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.
☝️ В стартапе AI Nara Logics заявили, что алгоритм может имитировать восприятие или чувства из предоставленных ему обучающих данных.
Еще один эксперт утверждает, что архитектура модели «просто не обладает ключевыми возможностями человеческого сознания». Если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, добавил он.
🗣 Другой ученый заявил, что ИИ-системы не осознают влияния своих ответов или поведения на общество.
https://forklog.com/eksperty-usomnilis-v-zarozhdenii-razuma-u-algoritma-google/
#мнение #Google
ForkLog
Эксперты усомнились в «зарождении разума» у алгоритма Google
Ряд экспертов в области искусственного интеллекта подвергли сомнению заявления инженера компании Google Блейка Лемуана о наличии «разума» у алгоритма LaMDA.
Forwarded from Хабр Новости
Forwarded from Хабр Новости
Google не будет добавлять проверку фактов в результаты поисковой выдачи и видеоролики на YouTube, а также использовать подобные методы при ранжировании или удалении контента, несмотря на требования нового закона Европейского союза. Об этом корпорация сообщила в письме для европейских чиновников, полученном Axios.
#сервисы #Google
#сервисы #Google
Forwarded from Machinelearning
Исследователи из Google Research представили ECLeKTic — новый бенчмарк, предназначенный для оценки способности больших языковых моделей (LLM) переносить знания между языками.
Исследование направлено на выявление того, насколько эффективно модели могут применять информацию, полученную на одном языке, для решения задач на другом.
Бенчмарк включает вопросы, сформулированные на одном языке, ответы на которые содержатся в соответствующих статьях Википедии. Эти вопросы затем переводятся на другие языки, для которых аналогичных статей нет. Таким образом, модели должны демонстрировать способность извлекать и применять знания, отсутствующие в целевом языке.
Оценка моделей: Испытания восьми современных LLM показали, что даже передовые модели испытывают трудности с межъязыковым переносом знаний. Это подчеркивает необходимость дальнейших исследований и улучшений в этой области.
Вместо простых вопросов используются тесты с множественным выбором, где неправильные ответы (дистракторы) специально сделаны очень похожими на правильный и правдоподобными. Чтобы выбрать верный вариант, модели нужно действительно понять нюансы на целевом языке, а не угадывать.
Минимизация "артефактов перевода": Вопросы тщательно создавались экспертами на 10 различных языках (включая арабский, хинди, японский, русский и др.). Они адаптированы культурно и лингвистически так, чтобы стратегия "перевести-решить-перевести обратно" работала плохо.
ECLECTIC – сложный тест: Он выявляет слабости в понимании, которые могут быть не видны на других бенчмарках.
Результаты показывают, что текущим LLM еще предстоит улучшить способность по-настоящему переносить и применять знания между языками.
@ai_machinelearning_big_data
#AI #ml #google #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
⚡️ Gemma 3 QAT
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Forwarded from Machinelearning
Ironwood — это TPU седьмого поколения, конкурент Blackwell B200 от NVIDIA.
10× прирост производительности по сравнению с предыдущим поколением.
🔧 Что важно знать:
⚡️ Ironwood TPU = высокая плотность + эффективность: на 67% больше FLOPS/ватт, чем v5p и 4 614 TFLOPS на чип (FP8) и 192 ГБ HBM.
Производительность чипов растёт, а энергоэффективность выходит на новый уровень.
🌐 Интеграция с Google Cloud:
Ironwood TPUs уже работают в дата-центрах с жидкостным охлаждением, интегрированы в Vertex AI .
📈 Под капотом — высокоскоростная сеть с пропускной способностью 3.5 Тбит/с, обеспечивающая быструю связность для масштабных моделей.
💡 И да — теперь TPU поддерживают vLLM, а значит, можно легко гонять PyTorch-инференс прямо на TPU, без магии и костылей.
@ai_machinelearning_big_data
#google #TPU
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Ученые все чаще переходят на облачные технологии, чтобы решать сложнейшие задачи — от прогнозирования погоды до симуляции квантовых систем. Google Cloud сделала новый шаг им навстречу, представив супервычислительные решения, ИИ-модели и сервисы, которые помогут делать открытия быстрее:
Google также добавил в Agentspace двух ИИ-агентов. Первый, Deep Research, за минуты анализирует горы данных и генерирует детальные отчёты. Второй, Idea Generation, помогает учёным быстро придумывать гипотезы для экспериментов. Оба инструмента уже доступны в тестовом режиме.
Не забыли и о хранении данных: новая управляемая файловая система Lustre, созданная с DDN, справится с нагрузками даже самых требовательных проектов. А для тех, кто только начинает, Google Cloud предлагает гранты, обучение и доступ к сообществу Advanced Computing Community.
Эти обновления — не просто апдейты. Они меняют правила игры, объединяя вычислительную мощь, ИИ и удобство облака.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 3DNews
YouTube начнёт показывать рекламу рядом с самыми интересными местами видео
YouTube внедряет новый формат рекламы Peak Points, который использует искусственный интеллект для определения наиболее эмоциональных моментов видео. Реклама будет показываться сразу после таких ярких сцен, увеличивая шансы на привлечение внимания зрителей. Это новшество позволит более эффективно таргетировать аудиторию и повысить конверсию рекламы на платформе.
#youtube #gemini #google #реклама
https://3dnews.ru/1122837?utm_source=nova&utm_medium=tg&utm_campaign=main
YouTube внедряет новый формат рекламы Peak Points, который использует искусственный интеллект для определения наиболее эмоциональных моментов видео. Реклама будет показываться сразу после таких ярких сцен, увеличивая шансы на привлечение внимания зрителей. Это новшество позволит более эффективно таргетировать аудиторию и повысить конверсию рекламы на платформе.
#youtube #gemini #google #реклама
https://3dnews.ru/1122837?utm_source=nova&utm_medium=tg&utm_campaign=main
3DNews - Daily Digital Digest
YouTube начнёт показывать рекламу рядом с самыми интересными местами видео
На YouTube начнут показывать рекламу сразу после самых ярких и эмоциональных моментов видео.
Forwarded from Machinelearning
🤖 Gemini Robotics: автономный AI для роботов
Google представили Gemini Robotics On-Device — первую модель, объединяющую зрение, язык и действия, которая работает прямо на роботах, без постоянного подключения к интернету.
🔍 Что делает эту модель особенной:
🔹 Объединяет универсальность и точность Gemini, но работает локально
🔹 Моделька справляется со сложными задачами с двумя руками (манипуляции, сборка, перенос)
🔹 Обучается новым действиям всего по 50–100 демкам
Модель уже поддерживает разные типы роботов — от гуманоидов до промышленных двухруких манипуляторов. И это несмотря на то, что изначально она была обучена только на датасете ALOHA под управлением человеческих инструкций.
🛠 В догонку выпустили SDK Gemini Robotics — для разработчиков, которые хотят дообучить модель под свои нужды, включая тесты в физическом симуляторе MuJoCo.
🌐 Полностью автономная работа — идеально для кейсов с плохой связью или требованиями к высокой скорости отклика.
Gemini Robotics продолжает двигаться к будущему, где AI становится частью физического мира.
👉 Подробнее: https://goo.gle/gemini-robotics-on-device
@ai_machinelearning_big_data
#ai #robots #vlm #google #Gemini
Google представили Gemini Robotics On-Device — первую модель, объединяющую зрение, язык и действия, которая работает прямо на роботах, без постоянного подключения к интернету.
🔍 Что делает эту модель особенной:
🔹 Объединяет универсальность и точность Gemini, но работает локально
🔹 Моделька справляется со сложными задачами с двумя руками (манипуляции, сборка, перенос)
🔹 Обучается новым действиям всего по 50–100 демкам
Модель уже поддерживает разные типы роботов — от гуманоидов до промышленных двухруких манипуляторов. И это несмотря на то, что изначально она была обучена только на датасете ALOHA под управлением человеческих инструкций.
🛠 В догонку выпустили SDK Gemini Robotics — для разработчиков, которые хотят дообучить модель под свои нужды, включая тесты в физическом симуляторе MuJoCo.
🌐 Полностью автономная работа — идеально для кейсов с плохой связью или требованиями к высокой скорости отклика.
Gemini Robotics продолжает двигаться к будущему, где AI становится частью физического мира.
👉 Подробнее: https://goo.gle/gemini-robotics-on-device
@ai_machinelearning_big_data
#ai #robots #vlm #google #Gemini
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
• Лёгкий и мощный инструмент для разработки в командной строке
• Код агента в открытом доступе (Apache 2.0)
• Поддержка контекста в 1 миллион токенов
• Бесплатный тариф: до 60 запросов в минуту и 1000 в день
• Привязка к Google Search
• Поддержка плагинов и скриптов
• Интеграция с VS Code (Gemini Code Assist)
@ai_machinelearning_big_data
#AI #ML #agent #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Хабр Новости
По информации профильных источников СМИ и представителей телекоммуникационной отрасли, Google предложила провайдерам РФ сделать подключение на своё кэширующее оборудование в Варшаве, чтобы ускорить загрузку контента для российских пользователей.
#сервисы #Google #контент
#сервисы #Google #контент