Forwarded from ForkLog AI
💨 Французская компания Engie начнет использовать экспериментальную облачную ИИ-систему Google для повышения эффективности и мощности ветряных электростанций.
Техгигант совместно с лабораторией DeepMind разработал программное обеспечение, предсказывающее силу ветра на 36 часов вперед. Ожидается, что система позволит с высокой точностью планировать поставки энергии в энергосети с учетом непредсказуемости стихии.
Ранние тесты показали, что ИИ увеличил объемы генерации электрики на 20%.
📈 Engie испытает платформу на ветряных станциях, расположенных в Германии. До 2030 года компания планирует увеличить производство зеленой электроэнергии минимум в два раза.
#Google #экология
Техгигант совместно с лабораторией DeepMind разработал программное обеспечение, предсказывающее силу ветра на 36 часов вперед. Ожидается, что система позволит с высокой точностью планировать поставки энергии в энергосети с учетом непредсказуемости стихии.
Ранние тесты показали, что ИИ увеличил объемы генерации электрики на 20%.
📈 Engie испытает платформу на ветряных станциях, расположенных в Германии. До 2030 года компания планирует увеличить производство зеленой электроэнергии минимум в два раза.
#Google #экология
Forwarded from ForkLog AI
🔎 Google интегрирует модель машинного обучения в браузер Chrome для выявления фишинговых атак.
Также Google анонсировала интеграцию ИИ-алгоритма, анализирующего действия пользователя и отключающего запросы сайтов на отправку уведомлений.
Другая модель предназначена для оптимизации панели инструментов в Chrome. В зависимости от действий пользователя браузер подсветит потенциально полезные в данный момент элементы интерфейса.
📆 Нововведения появятся в следующем обновлении Chrome. В компании подчеркнули, что модели машинного обучения будут обрабатывать запросы непосредственно на устройстве пользователя.
https://forklog.com/chrome-zadejstvuet-mashinnoe-obuchenie-dlya-vyyavleniya-fishingovyh-atak/
#Google
Также Google анонсировала интеграцию ИИ-алгоритма, анализирующего действия пользователя и отключающего запросы сайтов на отправку уведомлений.
Другая модель предназначена для оптимизации панели инструментов в Chrome. В зависимости от действий пользователя браузер подсветит потенциально полезные в данный момент элементы интерфейса.
📆 Нововведения появятся в следующем обновлении Chrome. В компании подчеркнули, что модели машинного обучения будут обрабатывать запросы непосредственно на устройстве пользователя.
https://forklog.com/chrome-zadejstvuet-mashinnoe-obuchenie-dlya-vyyavleniya-fishingovyh-atak/
ForkLog
Chrome задействует машинное обучение для выявления фишинговых атак
Компания Google интегрирует в браузер Chrome модель машинного обучения для обнаружения потенциальных фишинговых атак. With upcoming on-device machine learning advancements in #Chrome, block unwanted notifications, translate more sites into your preferred…
Forwarded from ForkLog AI
🤔 Эксперты в области искусственного интеллекта усомнились в «зарождении разума» у алгоритма LaMDA от Google.
По словам одного из исследователей, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.
☝️ В стартапе AI Nara Logics заявили, что алгоритм может имитировать восприятие или чувства из предоставленных ему обучающих данных.
Еще один эксперт утверждает, что архитектура модели «просто не обладает ключевыми возможностями человеческого сознания». Если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, добавил он.
🗣 Другой ученый заявил, что ИИ-системы не осознают влияния своих ответов или поведения на общество.
https://forklog.com/eksperty-usomnilis-v-zarozhdenii-razuma-u-algoritma-google/
#мнение #Google
По словам одного из исследователей, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.
☝️ В стартапе AI Nara Logics заявили, что алгоритм может имитировать восприятие или чувства из предоставленных ему обучающих данных.
Еще один эксперт утверждает, что архитектура модели «просто не обладает ключевыми возможностями человеческого сознания». Если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, добавил он.
🗣 Другой ученый заявил, что ИИ-системы не осознают влияния своих ответов или поведения на общество.
https://forklog.com/eksperty-usomnilis-v-zarozhdenii-razuma-u-algoritma-google/
#мнение #Google
ForkLog
Эксперты усомнились в «зарождении разума» у алгоритма Google
Ряд экспертов в области искусственного интеллекта подвергли сомнению заявления инженера компании Google Блейка Лемуана о наличии «разума» у алгоритма LaMDA.
Forwarded from Хабр Новости
Forwarded from Хабр Новости
Google не будет добавлять проверку фактов в результаты поисковой выдачи и видеоролики на YouTube, а также использовать подобные методы при ранжировании или удалении контента, несмотря на требования нового закона Европейского союза. Об этом корпорация сообщила в письме для европейских чиновников, полученном Axios.
#сервисы #Google
#сервисы #Google
Forwarded from Machinelearning
Исследователи из Google Research представили ECLeKTic — новый бенчмарк, предназначенный для оценки способности больших языковых моделей (LLM) переносить знания между языками.
Исследование направлено на выявление того, насколько эффективно модели могут применять информацию, полученную на одном языке, для решения задач на другом.
Бенчмарк включает вопросы, сформулированные на одном языке, ответы на которые содержатся в соответствующих статьях Википедии. Эти вопросы затем переводятся на другие языки, для которых аналогичных статей нет. Таким образом, модели должны демонстрировать способность извлекать и применять знания, отсутствующие в целевом языке.
Оценка моделей: Испытания восьми современных LLM показали, что даже передовые модели испытывают трудности с межъязыковым переносом знаний. Это подчеркивает необходимость дальнейших исследований и улучшений в этой области.
Вместо простых вопросов используются тесты с множественным выбором, где неправильные ответы (дистракторы) специально сделаны очень похожими на правильный и правдоподобными. Чтобы выбрать верный вариант, модели нужно действительно понять нюансы на целевом языке, а не угадывать.
Минимизация "артефактов перевода": Вопросы тщательно создавались экспертами на 10 различных языках (включая арабский, хинди, японский, русский и др.). Они адаптированы культурно и лингвистически так, чтобы стратегия "перевести-решить-перевести обратно" работала плохо.
ECLECTIC – сложный тест: Он выявляет слабости в понимании, которые могут быть не видны на других бенчмарках.
Результаты показывают, что текущим LLM еще предстоит улучшить способность по-настоящему переносить и применять знания между языками.
@ai_machinelearning_big_data
#AI #ml #google #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
⚡️ Gemma 3 QAT
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Forwarded from Machinelearning
Ironwood — это TPU седьмого поколения, конкурент Blackwell B200 от NVIDIA.
10× прирост производительности по сравнению с предыдущим поколением.
🔧 Что важно знать:
⚡️ Ironwood TPU = высокая плотность + эффективность: на 67% больше FLOPS/ватт, чем v5p и 4 614 TFLOPS на чип (FP8) и 192 ГБ HBM.
Производительность чипов растёт, а энергоэффективность выходит на новый уровень.
🌐 Интеграция с Google Cloud:
Ironwood TPUs уже работают в дата-центрах с жидкостным охлаждением, интегрированы в Vertex AI .
📈 Под капотом — высокоскоростная сеть с пропускной способностью 3.5 Тбит/с, обеспечивающая быструю связность для масштабных моделей.
💡 И да — теперь TPU поддерживают vLLM, а значит, можно легко гонять PyTorch-инференс прямо на TPU, без магии и костылей.
@ai_machinelearning_big_data
#google #TPU
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Ученые все чаще переходят на облачные технологии, чтобы решать сложнейшие задачи — от прогнозирования погоды до симуляции квантовых систем. Google Cloud сделала новый шаг им навстречу, представив супервычислительные решения, ИИ-модели и сервисы, которые помогут делать открытия быстрее:
Google также добавил в Agentspace двух ИИ-агентов. Первый, Deep Research, за минуты анализирует горы данных и генерирует детальные отчёты. Второй, Idea Generation, помогает учёным быстро придумывать гипотезы для экспериментов. Оба инструмента уже доступны в тестовом режиме.
Не забыли и о хранении данных: новая управляемая файловая система Lustre, созданная с DDN, справится с нагрузками даже самых требовательных проектов. А для тех, кто только начинает, Google Cloud предлагает гранты, обучение и доступ к сообществу Advanced Computing Community.
Эти обновления — не просто апдейты. Они меняют правила игры, объединяя вычислительную мощь, ИИ и удобство облака.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM