демшиза ии киберпанк
65 subscribers
2.11K photos
344 videos
15 files
3.99K links
深度求索 нового мира. Война поколений. Демшиза и киберпанк против блядства и болезни Альцгеймера. Канал о том, как новый мир изживает старый – как новое поколение выносит на свалку 20 век. Миссия: https://t.iss.one/dempunk/741
Download Telegram
Forwarded from ForkLog AI
💨 Французская компания Engie начнет использовать экспериментальную облачную ИИ-систему Google для повышения эффективности и мощности ветряных электростанций.

Техгигант совместно с лабораторией DeepMind разработал программное обеспечение, предсказывающее силу ветра на 36 часов вперед. Ожидается, что система позволит с высокой точностью планировать поставки энергии в энергосети с учетом непредсказуемости стихии.

Ранние тесты показали, что ИИ увеличил объемы генерации электрики на 20%.

📈 Engie испытает платформу на ветряных станциях, расположенных в Германии. До 2030 года компания планирует увеличить производство зеленой электроэнергии минимум в два раза.

#Google #экология
Forwarded from ForkLog AI
🔎 Google интегрирует модель машинного обучения в браузер Chrome для выявления фишинговых атак.

Также Google анонсировала интеграцию ИИ-алгоритма, анализирующего действия пользователя и отключающего запросы сайтов на отправку уведомлений.

Другая модель предназначена для оптимизации панели инструментов в Chrome. В зависимости от действий пользователя браузер подсветит потенциально полезные в данный момент элементы интерфейса.

📆 Нововведения появятся в следующем обновлении Chrome. В компании подчеркнули, что модели машинного обучения будут обрабатывать запросы непосредственно на устройстве пользователя.

https://forklog.com/chrome-zadejstvuet-mashinnoe-obuchenie-dlya-vyyavleniya-fishingovyh-atak/

#Google
Forwarded from ForkLog AI
🤔 Эксперты в области искусственного интеллекта усомнились в «зарождении разума» у алгоритма LaMDA от Google.

По словам одного из исследователей, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами.

☝️ В стартапе AI Nara Logics заявили, что алгоритм может имитировать восприятие или чувства из предоставленных ему обучающих данных.

Еще один эксперт утверждает, что архитектура модели «просто не обладает ключевыми возможностями человеческого сознания». Если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, добавил он.

🗣 Другой ученый заявил, что ИИ-системы не осознают влияния своих ответов или поведения на общество.

https://forklog.com/eksperty-usomnilis-v-zarozhdenii-razuma-u-algoritma-google/

#мнение #Google
Forwarded from Хабр Новости
Исследователи Cybernews выяснили, что Google проверяет местоположение смартфонов под управлением Android каждые 15 минут. При этом проверки происходят даже с выключенным GPS. В этом случае смартфон использует ближайшие точки Wi-Fi для оценки своего примерного местоположения.

#техника #ОС #Google
Forwarded from Хабр Новости
Google не будет добавлять проверку фактов в результаты поисковой выдачи и видеоролики на YouTube, а также использовать подобные методы при ранжировании или удалении контента, несмотря на требования нового закона Европейского союза. Об этом корпорация сообщила в письме для европейских чиновников, полученном Axios.

#сервисы #Google
Forwarded from Machinelearning
✔️ ECLECTIC: взгляд Google на то, как LLM понимают разные языки

Исследователи из Google Research представили ECLeKTic — новый бенчмарк, предназначенный для оценки способности больших языковых моделей (LLM) переносить знания между языками.

Исследование направлено на выявление того, насколько эффективно модели могут применять информацию, полученную на одном языке, для решения задач на другом.​

Бенчмарк включает вопросы, сформулированные на одном языке, ответы на которые содержатся в соответствующих статьях Википедии. Эти вопросы затем переводятся на другие языки, для которых аналогичных статей нет. Таким образом, модели должны демонстрировать способность извлекать и применять знания, отсутствующие в целевом языке.​

Оценка моделей: Испытания восьми современных LLM показали, что даже передовые модели испытывают трудности с межъязыковым переносом знаний. Это подчеркивает необходимость дальнейших исследований и улучшений в этой области.​

Вместо простых вопросов используются тесты с множественным выбором, где неправильные ответы (дистракторы) специально сделаны очень похожими на правильный и правдоподобными. Чтобы выбрать верный вариант, модели нужно действительно понять нюансы на целевом языке, а не угадывать.

Минимизация "артефактов перевода": Вопросы тщательно создавались экспертами на 10 различных языках (включая арабский, хинди, японский, русский и др.). Они адаптированы культурно и лингвистически так, чтобы стратегия "перевести-решить-перевести обратно" работала плохо.

ECLECTIC – сложный тест: Он выявляет слабости в понимании, которые могут быть не видны на других бенчмарках.

🌟 Лучшие результаты у Gemini 2.5 Pro: до 52,6% общего успеха и 77,0% коэффициента удачного переноса знаний. ​
В отличие от OpenAI Google на своих же бенчмаркх занимают первые места 😂

Результаты показывают, что текущим LLM еще предстоит улучшить способность по-настоящему переносить и применять знания между языками.

🟡Подробнее
🟡Paper

@ai_machinelearning_big_data


#AI #ml #google #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
⚡️ Gemma 3 QAT

Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.

Ключевая технология: QAT (Quantization-Aware Training)

Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).

Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.

Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов​. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».

Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти​.

Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате​ – это экономия памяти примерно в ~3–4 раза.

ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf

✔️HF


@ai_machinelearning_big_data


#google #gemma #AI #ML #LLM #Quantization
Forwarded from Machinelearning
🖥 Google анонсировала Ironwood TPU — специализированный чип, созданный для ускоренного инференса ИИ-моделей.

Ironwood — это TPU седьмого поколения, конкурент Blackwell B200 от NVIDIA.

10× прирост производительности по сравнению с предыдущим поколением.

🔧 Что важно знать:
⚡️ Ironwood TPU = высокая плотность + эффективность: на 67% больше FLOPS/ватт, чем v5p и 4 614 TFLOPS на чип (FP8) и 192 ГБ HBM.

Производительность чипов растёт, а энергоэффективность выходит на новый уровень.

🌐 Интеграция с Google Cloud:
Ironwood TPUs уже работают в дата-центрах с жидкостным охлаждением, интегрированы в Vertex AI .

📈 Под капотом — высокоскоростная сеть с пропускной способностью 3.5 Тбит/с, обеспечивающая быструю связность для масштабных моделей.

💡 И да — теперь TPU поддерживают vLLM, а значит, можно легко гонять PyTorch-инференс прямо на TPU, без магии и костылей.

🟡 Подробнее

@ai_machinelearning_big_data

#google #TPU
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
🌟 Google Cloud запускает ИИ-решения и суперкомпьютеры для науки.

Ученые все чаще переходят на облачные технологии, чтобы решать сложнейшие задачи — от прогнозирования погоды до симуляции квантовых систем. Google Cloud сделала новый шаг им навстречу, представив супервычислительные решения, ИИ-модели и сервисы, которые помогут делать открытия быстрее:

🟢Основой для многих проектов станут новые виртуальные машины H4D — самые мощные CPU-решения Google Cloud. Они построены на CPU AMD и используют сетевую технологию Titanium для ускорения передачи данных.

🟢Чтобы упростить работу с кластерами, Google обновил Cluster Toolkit и Cluster Director: теперь развертывание крупных систем стало проще, а управление — эффективнее.

🟢Новая версия AlphaFold 3 High-Throughput Solution доступна для некоммерческого использования и умеет обрабатывать тысячи последовательностей, автоматически масштабируя ресурсы.

🟢WeatherNext предлагает быстрые и точные прогнозы погоды через платформу Vertex AI Model Garden. Ученые смогут тестировать больше сценариев, а компании — лучше готовиться к стихийным событиям.

Google также добавил в Agentspace двух ИИ-агентов. Первый, Deep Research, за минуты анализирует горы данных и генерирует детальные отчёты. Второй, Idea Generation, помогает учёным быстро придумывать гипотезы для экспериментов. Оба инструмента уже доступны в тестовом режиме.

Не забыли и о хранении данных: новая управляемая файловая система Lustre, созданная с DDN, справится с нагрузками даже самых требовательных проектов. А для тех, кто только начинает, Google Cloud предлагает гранты, обучение и доступ к сообществу Advanced Computing Community.

Эти обновления — не просто апдейты. Они меняют правила игры, объединяя вычислительную мощь, ИИ и удобство облака.

🔜 Читать подробный анонс

@ai_machinelearning_big_data


#google
Please open Telegram to view this post
VIEW IN TELEGRAM