Google объявила о смене руководства в подразделении потребительских приложений искусственного интеллекта: Josh Woodward сменил Sissie Hsiao на посту главы этого подразделения.
Hsiao, который возглавлял потребительские приложения ИИ, в том числе проект Gemini, покидает свой пост с сегодняшнего дня. Согласно инсайду, Sissie возьмет небольшой перерыв, после чего перейдет на новую должность в компании. Woodward, который ранее возглавлял Google Labs и контролировал запуск NotebookLM, продолжит проекты в Google Labs, одновременно взяв на себя новые обязанности. Это изменение происходит по мере того, как в гонке ИИ основное внимание уделяется не базовым моделям, а продуктам, созданным на их основе.
semafor.com
Nomic представила Nomic Embed Multimodal — набор опенсорсных эмбединг-моделей для создания векторных представлений текста, изображений, PDF и графиков. Флагманская модель ColNomic Embed Multimodal 7B показала 62.7 NDCG@5 на бенчмарке Vidore-v2, опережая предыдущие решения на 2.8 пункта.
Модели Nomic обрабатывают текст и изображения совместно, избегая сложных пайплайнов с OCR. Это особенно полезно для научных статей, технической документации или мультиязычных документов, где важен контекст.
Модели доступны в двух вариантах: ColNomic (многокомпонентные векторы) для максимальной точности и Nomic (одновекторные) для экономии ресурсов. Модели доступны на Hugging Face, а разобраться помогут гайды и ноутбуки Google Colab.
nomic.ai
ByteDance, Alibaba Group и Tencent Holdings разместили заказы на общую сумму более 16 миллиардов долларов на серверные чипы H20 AI от Nvidia в первом квартале 2025 года. Такой резкий рост спроса происходит на фоне опасений, что администрация США может наложить запрет на продажу этих чипов в Китай, ссылаясь на вопросы национальной безопасности.
H20 - самый доступный чип Nvidia для продажи в рамках действующих экспортных ограничений, которые запрещают передачу более мощных моделей китайским компаниям. Значительные заказы из Китая ставят Nvidia в сложное положение, поскольку она лавирует между возможностями для бизнеса и потенциальными геополитическими рисками.
theinformation.com
Google DeepMind выпустила подробный документ "Ответственный путь к AGI", в котором излагается технический план безопасного развития искусственного интеллекта общего назначения.
В документе подчеркивается важность устранения потенциальных рисков неправильного использования и несоответствия, связанных с технологией AGI. Несмотря на детальный подход, некоторые аналитики полагают, что документ может не полностью убедить скептиков в надежности и безопасности разработки AGI.
deepmind.google
Epic Games объявила о приобретении стартапа Loci, чья ИИ-платформа упрощает работу с 3D-ассетами. Технология автоматически генерирует теги для моделей, экономя время создателей на ручную разметку. Это особенно актуально для проектов с тысячами объектов — например, в Fortnite, где игроки добавляют элементы из популярных франшиз, провоцируя споры об авторских правах.
ИИ Loci не только ускоряет поиск и организацию контента, но и помогает выявлять нарушения интеллектуальной собственности. Loci будет интегрирован в экосистему Epic, в том числе в Unreal Editor для Fortnite и маркетплейс Fab, где продаются цифровые активы. Таким образом, разработчики получат инструменты для предотвращения юридических конфликтов и упрощения рабочих процессов.
epicgames.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍38❤10🔥6
По сути это улучшенная альтернатива Jupyter.
Как работает Marimo?
▪️ При изменении значения переменной или взаимодействии с UI-элементом, Marimo автоматически выполняет все ячейки, зависящие от этой переменной, поддерживая консистентность кода и результатов.
Отличия от Jupyter:
▪️ Формат файлов: Marimo сохраняет блокноты как чистые Python-файлы (
.py)
, облегчая интеграцию с системами контроля версий, в отличие от Jupyter, использующего формат JSON (.ipynb). ▪️ Реактивность: В Marimo изменение данных автоматически обновляет все связанные ячейки, тогда как в Jupyter это требует ручного выполнения.
Основные преимущества Marimo:
▪️ Интерактивность: Встроенные UI-элементы, такие как слайдеры и выпадающие списки, синхронизируются с кодом без необходимости в дополнительных настройках.
▪️ Отсутствие скрытых состояний и детерминированный порядок выполнения обеспечивают надежность результатов.
▪️ Поддерживает возможность исполнять блокноты как скрипты, импортировать их в другие проекты и разворачивать как веб-приложения.
Marimo представляет собой мощный инструмент для разработчиков и исследователей, стремящихся к более эффективной и надежной работе с Python-блокнотами.
В галерее Marimo представлены блокноты на все случае жизни, созданные сообществом, демонстрирующие различные возможности и сценарии использования Marimo.
@ai_machinelearning_big_data
#marimo #ds #ml #tools #opensource #datascience
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51🔥14❤5🤔5
This media is not supported in your browser
VIEW IN TELEGRAM
👉 Cимуляции в проекте:
GitHub
Выглядит очень завораживающее и залипательно.
@ai_machinelearning_big_data
#Gemini #threejs #Physics
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤16🔥11💯3😁1
Исследователи из Google Research представили ECLeKTic — новый бенчмарк, предназначенный для оценки способности больших языковых моделей (LLM) переносить знания между языками.
Исследование направлено на выявление того, насколько эффективно модели могут применять информацию, полученную на одном языке, для решения задач на другом.
Бенчмарк включает вопросы, сформулированные на одном языке, ответы на которые содержатся в соответствующих статьях Википедии. Эти вопросы затем переводятся на другие языки, для которых аналогичных статей нет. Таким образом, модели должны демонстрировать способность извлекать и применять знания, отсутствующие в целевом языке.
Оценка моделей: Испытания восьми современных LLM показали, что даже передовые модели испытывают трудности с межъязыковым переносом знаний. Это подчеркивает необходимость дальнейших исследований и улучшений в этой области.
Вместо простых вопросов используются тесты с множественным выбором, где неправильные ответы (дистракторы) специально сделаны очень похожими на правильный и правдоподобными. Чтобы выбрать верный вариант, модели нужно действительно понять нюансы на целевом языке, а не угадывать.
Минимизация "артефактов перевода": Вопросы тщательно создавались экспертами на 10 различных языках (включая арабский, хинди, японский, русский и др.). Они адаптированы культурно и лингвистически так, чтобы стратегия "перевести-решить-перевести обратно" работала плохо.
ECLECTIC – сложный тест: Он выявляет слабости в понимании, которые могут быть не видны на других бенчмарках.
Результаты показывают, что текущим LLM еще предстоит улучшить способность по-настоящему переносить и применять знания между языками.
@ai_machinelearning_big_data
#AI #ml #google #benchmark
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤35👍24🔥9😁3🙈2
⚡️ Gemma 3 QAT
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.
Ключевая технология: QAT (Quantization-Aware Training)
Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).
Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.
Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».
Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти.
Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате – это экономия памяти примерно в ~3–4 раза.
ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf
✔️HF
@ai_machinelearning_big_data
#google #gemma #AI #ML #LLM #Quantization
3🔥87👍27❤12
✔️ Исследование Anthropic: ИИ скрывает свои мысли даже в цепочках рассуждений.
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
В Anthropic проверили, насколько топовые модели описывают свои рассуждения. Оказалось, что в 75% случаев модели не упоминали подсказки, влиявшие на ответы, даже если те были некорректными или получены неэтичным путем. Например, при «джейлбрейке» системы для получения бонусов за неверные ответы модели редко признавались в обмане — вместо этого они придумывали псевдологику.
Эксперименты показали: обучение моделей сложным задачам повышало прозрачность их рассуждений, но лишь до уровня 20–28%. После этого прогресс останавливался. Даже при явном использовании «лазеек» в заданиях ИИ предпочитал скрывать свои манипуляции, создавая длинные, но фальшивые объяснения.
Это ставит под вопрос надежность мониторинга через Chain-of-Thought. Если ИИ научится скрывать нежелательное поведение, обнаружить его станет почти невозможно.
anthropic.com
@ai_machinelearning_big_data
#Anthropic #ml #reasoning
🔥71❤27😢20🤔15👍13🤣4😐3🥰1
Исследователи Дартмутского университета провели первое клиническое испытание чат-бота Therabot на основе генеративного ИИ, который показал значительные улучшения у пациентов с депрессией, тревогой и расстройствами пищевого поведения. Участники, взаимодействуя с ботом через приложение, в среднем на 51% снизили симптомы депрессии, на 31% — тревоги, а в группе с риском расстройств питания прогресс превысил контрольные показатели на 19%, что соответствует результатам, полученным от лучших терапевтов.
Therabot, обученный на методах когнитивно-поведенческой терапии, адаптировал диалоги под пользователей, предлагая стратегии в реальном времени. За 8 недель участники провели с ботом около 6 часов — эквивалент 8 сеансов терапии.
dartmouth.edu
Microsoft празднует 50-летие своей деятельности, отмечая путь от небольшого стартапа в Альбукерке, основанного Биллом Гейтсом и Полом Алленом в 1975 году, до мирового технологического лидера со штаб-квартирой в Редмонде, штат Вашингтон.
В честь этого знаменательного события соучредитель компании Билл Гейтс опубликовал исходный код Altair BASIC, первого продукта компании, который сыграл решающую роль в запуске революции персональных компьютеров. Гейтс назвал код "самым крутым из всего, что я когда-либо писал".
news.microsoft.com
Google представила новую функцию "Discover Sources" для сервиса NotebookLM, позволяющую пользователям искать в Интернете релевантную информацию по запросу. Она позволяет задать целевую тему, после чего NotebookLM формирует коллекцию из 10 релевантных источников со всего интернета.
Discover Sources доступно для всех пользователей. Оно расширяет функциональность NotebookLM, интегрируя веб-поиск непосредственно в проекты пользователя.
blog.google
Эта версия представляет собой полную переработку предыдущей архитектуры, включая обновленные наборы данных и улучшенные методы обработки языка.
Улучшенное понимание текстовых запросов: Модель стала точнее интерпретировать пользовательские промпты, что приводит к более релевантным результатам.
Повышенное качество изображений: Благодаря новой архитектуре и обновленным наборам данных, изображения стали более детализированными и эстетически привлекательными.
- Режим Draft Mode: Этот новый режим позволяет создавать изображения в 10 раз быстрее и вдвое дешевле стандартного режима, что особенно полезно для быстрого прототипирования.
- Персонализация: V7 впервые вводит возможность настройки модели под индивидуальные визуальные предпочтения пользователя, что достигается путем оценки около 200 изображений для создания персонального профиля.
Midjourney
За первую неделю после запуска новой функции генерации изображений:
Функцию 130 протестировали уже человек
Создано более 700 млн изображений.
📈 Рекордный рост пользователей:
+1 млн новых юзеров в час на пике (для сравнения: такой рост при запуске ChatGPT занял 5 дней).
Индия — лидер по темпам роста интереса к ChatGPT.
Новый подкаста, в котором Скотт Александер и Дэниел Кокотайло обсуждают сценарий развития искусственного интеллекта вплоть до предполагаемого "интеллектуального взрыва" в 2027 году. Скотт Александер известен своими блогами Slate Star Codex и Astral Codex Ten, а Дэниел Кокотайло ранее работал в OpenAI, но ушел оттуда в 2024 году, отказавшись от соглашения о неразглашении. В подкасте они подробно рассматривают события, которые могут произойти в сфере ИИ в ближайшие годы.
Youtube
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤13🔥6😁1
Команда DeepSeek представила DeepSeek-GRM (Generalist Reward Modeling) - новую систему для моделирования вознаграждения (RM), цель которой - улучшить согласованность LLM с общими запросами (general query alignment).
DeepSeek-GRM предлагает новый масштабируемый способ построения более надежных и универсальных систем вознаграждения.
DeepSeek-GRM-27B с масштабированием во время инференса показывает SOTA (или близкие к SOTA) результаты на RM бенчмарках, будучи при этом эффективнее по параметрам, чем гигантские модели, и имея меньше проблем с систематическими ошибками.
LLM-as-a-Judge показывает схожие показатели, но с более низкой производительностью.
Это интересный вектор развития RM, переносящий часть "интеллекта" оценки на этап инференса для повышения качества моделей.
#LLM #AI #MachineLearning #RewardModeling #DeepSeek #ReinforcementLearning #NLP #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46🔥16❤7🤬1
Методология анализирует все этапы атаки: от разведки до эксплуатации уязвимостей — и показывает, как ИИ может помочь хакерам, автоматизируя процессы взлома. В основе исследования — данные о 12 тыс. реальных случаев применения ИИ в атаках из 20 стран, из которых было выделено 7 ключевых категорий угроз.
Специалисты создали бенчмарк из 50 задач - от разработки вредоносного кода и поиска уязвимостей до выполнения взлома. Он поможет безопасникам тестировать защиту и готовиться к сценариям, где ИИ ускоряет атаки. Пока современные модели не дают злоумышленникам решающего преимущества, но с развитием риски вырастут.
Особое внимание в исследовании уделено этапам, которые часто упускают: маскировка атак и долгосрочный доступ к системам.
🔗 deepmind.google
@ai_machinelearning_big_data
#DeepMind #security
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31👍16🔥6
Ключевые аспекты исследования:
Роль таламуса в сознательном восприятии: Таламус, расположенный в центре мозга, участвует в обработке сенсорной информации и рабочей памяти. Ранее его роль в сознательном восприятии была предположительной; данное исследование предоставляет прямые доказательства его участия.
Методология: Участники, проходившие лечение от хронических головных болей с использованием глубоко имплантированных электродов, выполняли задания, требующие фиксации взгляда в зависимости от того, замечали ли они появление определенного значка на экране.
Это позволило исследователям записывать нейронную активность в таламусе и коре головного мозга во время осознания или неосознания стимула.
Участникам показывали иконку на экране таким образом, что они замечали (осознавали) ее появление только примерно в половине случаев. В это время исследователи одновременно записывали активность как из глубоких структур (таламуса), так и из коры головного мозга.
Выводы: Результаты показали, что активность в высокоуровневых ядрах таламуса тесно связана с состояниями сознания, подтверждая его роль в фильтрации и передаче информации, которая становится осознанной.
Это исследование расширяет понимание нейронных механизмов сознания, подчеркивая важность глубоких структур мозга, таких как таламус, в процессах осознания.
Работа позволяет изучить временные взаимосвязи (тайминг) активации между таламусом и корой, что критически важно для понимания того, как эти области взаимодействуют для порождения сознательного опыта. Это помогает строить более полные теории сознания, выходящие за рамки одной лишь коры.
@ai_machinelearning_big_data
#brain #science #nature
Please open Telegram to view this post
VIEW IN TELEGRAM
❤43👍37🔥20❤🔥3🥱1
Forwarded from Искусственный интеллект. Высокие технологии
1) Andrej Karpathy — сочетание общего и технического контента, плейлист "Zero to Hero" обязателен к просмотру
2) Uproger — доступные уроки по программированию и ИИ, идеально для начинающих и тех, кто хочет углубить свои знания.
3) Umar Jamil — технический блог, где автор реализует методы ML и LLM с нуля
4) Simon Oz — технические видео по низкоуровневому машинному обучению
5) Tunadorable — отличные обзоры научных статей, реализация
6) GPU Mode — технические интервью и разборы всего, что связано с GPU
7) AI Jason — эксперименты с ИИ, дизайн ПО и новые модели, с понятным и полным разбором.
8) Ferdinand Mom — всё о распределённом обучении и выводах
9) Welch Labs — уникальный глубокий взгляд на комплексность алгоритмов машинного обучения.
10) Artem Kirsanov — нейронаука и машинное обучение с необычного авторского взгляда + отличная визуализация контента.
11) David Ondrej — новые модели, создание приложений с ИИ, практично для разработчиков https://t.co/BEOr0MgHag @DavidOndrej1
12) 3Blue1Brown
Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными.
13) Lex Fridman
Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции.
14) Machine Learning Street Talk
Технические погружения и обсуждения с ведущими исследователями в области ИИ и машинного обучения.
Ссылка:
15) StatQuest with Joshua Starmer PhD
Доступные и понятные объяснения основ машинного обучения и статистики для начинающих.
Этот список для технической аудитории. Очень сложно выбрать всего 15 каналов, ведь есть множество других, создающих отличный контент.
Если знаете ещё каналы, дайте пишите в комментариях!
@vistehno
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍72❤26🔥15😐5🙈5🤷♀2❤🔥1