AI для Всех
15K subscribers
1.33K photos
181 videos
11 files
1.52K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
Burning Man 2023

В этом году мне удалось осуществить свою давнюю мечту и оказаться на Burning Man. Этого бы не произошло, если бы не мои невероятные друзья! Спасибо 😍

Каждый год, порядка 80.000 человек приезжают в пустыню Black Rock Desert в штате Невада и строят там самый настоящий город - Black Rock City. Мне показалось, что этот город - идеальная выжимка человечества, всех людских нарративов, своего рода центральная площадь Вселенной, где людские истории и идеи переопыляются и трансформируются во что-то новое.

Все еще перевариваю произошедшее, но наверное главное что я понял (и чем бы хотел поделиться) пока был в пустыне - это то что всё в нашей жизни определяется намерением.

Как только намерение появилось и оно сформулировано четко - Вселенная сразу же стремиться дать тебе то, что ты хочешь. На Burning Man от намерения до реализации зачастую проходит всего несколько минут, и это невероятно!

На Плае (так Бернеры называют пустыню в районе города) столько всего, что многие возможности и новый опыт надо просто пропускать через себя и отпускать, что тоже способствует переосмыслению.

Конечно всего не рассказать, но постараюсь ответить на интересные вопросы в комментариях.

See you in the dust
🔥5410👍8😁3😢1🎉1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
☁️Погода наконец-то перестанет нас дурить!

Компания Google анонсировала обновлённую версию открытого бенчмарка WeatherBench для тестирования и сравнения разных моделей прогноза погоды.

WeatherBench 2 позволит ученым объективно оценивать точность прогнозов, созданных с помощью машинного обучения. Это важно, чтобы понимать насколько новые нейросетевые модели превосходят традиционные физические модели погоды.

В бенчмарке уже есть результаты нескольких передовых ML-моделей, например, MetNet от Google и GraphCast от DeepMind. По многим показателям они сопоставимы с лучшими физическими моделями.

Главное преимущество ML-моделей - скорость. Они генерируют прогноз за минуты, а не часы. Это важно для своевременного предупреждения об опасных явлениях (вот на берне бы нам такая штука не помешала на прошлой неделе).

В будущем WeatherBench 2 будет расширен для тестирования вероятностных ML-моделей погоды. Цель - ускорить создание точных и надёжных прогнозов с помощью ИИ.

👌 Блог-пост
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🔥116😢3
Довольно интересная обзорная статья по RL основанному на физике:

A Survey on Physics Informed Reinforcement Learning: Review and Open Problems
https://arxiv.org/abs/2309.01909
6🤩3👍2🔥2
Как найти аномалии в данных используя автокодировщики?

Коротко:
1. Обучаем автокодировщик на нормальных данных
2. Задаем порог
3. Добавляем новые изображения
4. Подсчитываем ошибку
5. Помечаем изображения с ошибкой выше порога


Кодировщик (Encoder input на картинке) сжимает входные данные в некое внутреннее представление (code).

Это внутреннее представление (code) содержит выходные данные от кодировщика и служит входом для декодировщика (decoder). По сути, это хранилище данных.

Декодировщик отображает закодированные данные обратно в исходное пространство данных (decoder output). Цель декодировщика - максимально точно восстановить исходные данные.

Теперь представим ситуацию:

У нас есть набор изображений с котиками, и мы хотим использовать эти данные, чтобы обнаруживать любые "аномальные" изображения, которые могут содержать не котиков.

Мы обучаем автокодировщик на этих изображениях. Кодировщик сожмет изображение в представление меньшей размерности, а декодировщик восстановит исходное изображение.

Цель - минимизировать разницу между входным и выходным изображением.

Пора протестировать:

Наш тестовый набор содержит в основном котиков, но также есть собачки.

Когда мы подаем на вход изображение с котиком, модель успешно восстанавливает его с небольшой ошибкой. Это ожидаемо, ведь котик - не аномалия.

Но когда на вход подается картинка с собачкой, ошибка получается высокой, так как автокодировщик обучался только на изображениях котиков и не умеет точно восстанавливать собак.

Мы можем задать порог того, насколько высокой может быть ошибка. Если она превышает лимит - помечаем входные данные как аномалию.

🖥 Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍112
Forwarded from Лекторий
14.09 Лекторий о ритуалах и традициях в широком смысле

Какие ритуалы есть у наших домашних питомцев? Какую роль играют традиции в еврейском обществе? Как искусство отражает ритуалы? На лектории "От животных к людям: Ритуалы вокруг нас" мы попытаемся разобраться в многообразии ритуалов и традиций.


Своим взглядом поделятся:

🔆 Ольга Ситкина - специалист по поведению животных, Tellington TTouch couch, создатель курса "Счастливый кот" и Инфопортала мой котопес и др.

🔆 Даниэль Альтерман - свободный исследователь

🔆 Ноа Томин - еврейский образователь, мадриха, социолог

🔆 Анна Смолярова - художница, арт-медиаторка


📍 Almacén Gallery HaPninim 1, Tel Aviv
🕦 14 сентября, 19:00

💰 Стоимость билета: 70 шекелей

Билеты: https://get-in.com/lectorium2
🤯53👍3🔥2
🗺️ Гугл улучшил построение маршрутов на Картах

Сервис Google Карты использует удобную навигацию, чтобы строить оптимальный маршрут из пункта А в пункт Б. Но как именно он определяет, какая дорога будет самой лучшей для пользователя? Оказывается, с помощью технологии "обратного обучения с подкреплением" (inverse reinforcement learning).

Этот метод работает так: искусственный интеллект анализирует реальные маршруты, которые люди выбирают в жизни. Эти данные - пример оптимальных "маршрутов" (если людей усреднить, то обычно они перемещаются оптимально). На их основе нейросеть извлекает скрытые критерии, которыми пользователи руководствуются при построении маршрута. Учитывают ли они время в пути, стоимость, живописность дороги?

Раньше применение такого подхода в масштабах всей Земли было затруднено - просто слишком много возможных маршрутов для анализа! Но инженеры Google разработали новый алгоритм RHIP (Receding Horizon Inverse Planning), который эффективно масштабируется.

Он объединяет точные, но ресурсозатратные методы для локальных участков пути с более дешёвыми алгоритмами глобального планирования. Благодаря оптимизации и распараллеливанию вычислений, RHIP позволил впервые применить обратное обучение с подкреплением в масштабах всей дорожной сети планеты.

В итоге точность маршрутов в Google Картах выросла на 15-24% по сравнению с предыдущим алгоритмом. Теперь, когда вы строите маршрут, ИИ может предугадать оптимальный путь, максимально приближенный к тому, который выбрали бы вы сами.

🌍 Блог-пост
📰 Статья

Подпишись на @nn_for_science
👍30🔥124🤯2😢1
👃 У нейросетей появился нюх

Ученые из Google исследовали, как можно научить искусственный интеллект предсказывать запах вещества по его молекулярной структуре. Эта фундаментальная проблема в области цифрового обоняния долгое время оставалась нерешенной.

Для создания модели авторы использовали графовые нейронные сети – специальный тип нейросетей, хорошо работающий с графовыми данными. Молекулы очень удобно представлять в виде графов, где атомы – вершины, а связи – ребра. Такая структура позволяет эффективно анализировать особенности молекулы.

Модель обучалась на наборе из 5000 молекул с соответствующими запаховыми дескрипторами типа "цветочный", "фруктовый" и т.д. Затем ее проверили на 400 ранее не встречавшихся молекулах.

Результаты показали, что нейросеть описывает запахи новых веществ не хуже, чем средний человек! Более того, модель лучше справляется с задачей, чем предыдущие подходы на основе традиционных химических дескрипторов.

Полученная нейросетью "карта запахов" переносится и на другие задачи в области обоняния - например, определение схожести запахов разных веществ. Таким образом, исследователи создали универсальное средство для изучения мира запахов.

В будущем подобные модели могут использоваться для автоматического предсказания запаха еще не синтезированных молекул. Это поможет ускорить открытие новых ароматов и душистых веществ без дорогостоящего экспериментального тестирования.

📰 Статья

Подпишись на @nn_for_science
👍329🔥5😁2
Как уместить слона в холодильник: обзор квантования моделей в 🤗 Transformers

Квантование моделей в машинном обучении - это процесс уменьшения разрядности представления весов нейронной сети.

Обычно веса моделей хранятся с использованием 32-битных чисел с плавающей точкой (float32). Это позволяет достичь высокой точности, но требует большого объема памяти.

Квантование снижает разрядность представления весов до 8, 4 или даже 2 бит. Это значительно уменьшает размер модели и позволяет запускать её на устройствах с ограниченными ресурсами - например, смартфонах или дешевых GPU.

Конечно, меньшее количество бит приводит к некоторой потере точности модели. Но современные алгоритмы квантования, такие как поддерживаемые в библиотеке 🤗 Transformers, позволяют минимизировать эту потерю.

Таким образом, квантование делает возможным использование крупных нейросетевых моделей там, где раньше для этого не хватало вычислительных ресурсов. Это расширяет сферы применения искусственного интеллекта - от мобильных приложений до IoT устройств.

В статье (ниже) даётся обзор основных методов квантования, встроенных в популярную библиотеку 🤗 Transformers. Рассматриваются их особенности, производительность на разных устройствах и точность по сравнению с исходными моделями. Почитайте, возможно статья поможет вам выбрать оптимальный подход к квантованию для своих задач.

🤗 Статья

Подпишись на @nn_for_science
👍196🔥5😁1
Аналитика потребления генеративного ИИ

Недавно венчурный фонд Andreessen Horowitz опубликовал любопытный анализ развития потребительского искусственного интеллекта.

Andreessen Horowitz - это один из крупнейших венчурных фондов в США, который инвестирует в технологические стартапы. Среди их портфельных компаний такие гиганты, как Facebook, Airbnb, Coinbase. Поэтому когда их эксперты делятся аналитикой - стоит прислушаться.

Так вот, они изучили посещаемость популярных сервисов, основанных на технологиях вроде DALL-E и ChatGPT. И выяснили много интересного.

Во-первых, ChatGPT абсолютный фаворит пользователей. Его ежемесячная аудитория - 1,6 млрд посещений, что делает это приложение 24-м по популярности сайтом в мире! Другие сервисы ИИ пока сильно отстают от лидера.

Во-вторых, люди готовы платить за возможности ИИ в среднем 21$ в месяц. Это намного больше, чем для обычных приложений. Так что потребительский ИИ - выгодный бизнес.

В-третьих, продукты ИИ пока сконцентрированы в веб-браузерах. Мобильные приложения только набирают популярность в этой сфере - вот вам и ниша которую можно заполнить.

Также выяснилось, что большинство успешных сервисов ИИ - это стартапы, созданные с нуля вокруг технологий вроде GPT. Лишь несколько продуктов созданы технологическими гигантами.

В целом, это ценная аналитика от экспертного фонда о развитии потребительского ИИ. ChatGPT уже завоевал сердца миллионов. А какие ещё интересные сервисы ИИ появятся в будущем?

〽️ Аналитика

Подпишись на @nn_for_science
🔥18👍73
Forwarded from Грокс (Ilya Pestov)
Wired подаёт как сенсацию известие о том, что финский стартап Metroc использует труд заключённых, чтобы обучать свою большую языковую модель. Но я ещё 3 года назад писал, что Сбер договорился со ФСИН о совместной работе над искусственным интеллектом, подразумевая, что осужденные будут обучать ИИ правильно различать рукописный текст и детали изображения. То есть Кандинский и ГигаЧат вполне могут быть созданы при участии заключённых и это замечательно как минимум с точки зрения социализации лиц отбывших наказание. Раньше вот человек отсидел за ошибки молодости и не знал куда податься, а сейчас есть возможность осваивать современные професcии в местах лишения свободы. Причём на мой вкус «7 лет в Бутырке обучал ИИ-модели» в резюме может смотреться куда привлекательнее, чем «закончил месячный курс по машинному обучению». Кстати, на рынке труда наблюдается дефицит кадров и если у вас есть знакомые во ФСИН, то самое время запускать стартап в сегменте PaaS (Prisoners as a Service). И я вполне серьёзно, хотя понимаю, что звучит всё несколько забавно.

https://www.wired.com/story/prisoners-training-ai-finland/
👍39🤯11🔥6😁6😢1
Forwarded from Сиолошная
Wait, actually, yes

Вот бы люди умели так признавать ошибки во время рассуждений 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74😁537🔥4
Forwarded from Сиолошная
В марте 2023го в MIT Economics появилась статья про улучшение производительности труда у людей, использующих ChatGPT, тогда же я написал краткий обзор (читать тут).

Вчера же вышла статья в соавторстве исследователей из Harvard University (Business School) и MIT в партнерстве с представителем "большой тройки" консалтинга: Boston Consulting Group (BCG). Исследование примечательно по четырём причинам:
1) Брались реальные задачи, которые решаются консультантами на работе (про это ниже);
2) Привлекалось 7% консультантов BCG, а это более 750 человек — то есть исследование достаточно массовое со стат. значимыми результатами;
3) Использовалась GPT-4 (правда версии весны 23го года, тогда проводились эксперименты), а не ChatGPT. Да, прям вот та, что у вас в браузере доступна, без специальных дообучений;
4) Оценка результатов проводилась вручную с перекрытием 2 (через усреднение), хоть и были попытки использовать LLM как оценщик.

Для самых нетерпеливых напишу сразу результаты:
— Для каждой из 18 задач консультанты, использующие ИИ, были значительно более продуктивными (в среднем они выполняли на 12,2% больше задач и выполняли задачи на 25,1% быстрее) и давали значительно более качественные результаты — более чем на 40% более высокое качество по сравнению с контрольной группой, участники которой решали задачи без GPT-4.
— Как и в исследовании MIT, оказалось, что люди со значением базового навыка ниже среднего (среди группы в 700+ консультантов; оценивалось предварительно отдельным тестом) улучшили эффективность на 43%, а у тех, кто выше среднего, - на 17%.

Далее хочу процитировать пост одного из со-авторов, который участвовал в исследовании.
— Даже лучшие консультанты все равно получили прирост в эффективности работы. Глядя на эти результаты, я думаю, что недостаточно людей задумываются о том, что для человечества означает технология, которая поднимает всех работников на высшие уровни производительности;

— Когда ИИ очень хорош, у людей нет причин усердно работать и обращать внимание на детали. Они позволили ИИ "взять верх" вместо того, чтобы использовать его как инструмент. Другой автор назвал это «засыпанием за рулем», и это может навредить развитию навыков и производительности (почему так написано - см. в следующем посте);

— GPT-4 уже является мощным фактором, виляющим на то, как мы работаем. И это не разрекламированная новая технология, которая изменит мир через пять лет или которая требует больших инвестиций и ресурсов огромных компаний – она уже здесь, вот прямо СЕЙЧАС;

— Наши результаты показывают, что хотя люди, использовавшие ИИ, в рамках поставленных задач производят более высоко оцененные идеи, вариативность этих идей заметно снижается по сравнению с теми, кто не использует ИИ [моё примечание: тут неочевидно, насколько это плохо - по-хорошему, и 2 идей "на миллион" хватит, зачем мне 10 копеечных?];
15👍9🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Автономный автомобиль научили объяснять свои решения "по человечески"

Британская компания Wayve (не путать с американской Waymo) создала систему LINGO-1. Она комментирует дорожную ситуацию на естественном языке в реальном времени.

С точки зрения идеи - это прорыв. Понятно что область объяснимого ИИ существует уже не первый год, но как концепция "говорящий автомобиль" - очень удобна! Прям представляю как разработчики будут читать такие логи (всяко лучше чем графики ускорения и тп).

С точки зрения доверия к автономному водителю, круто когда ИИ учится не только принимать решения, но и объяснять их доступными словами. Это приближает нас к моменту, когда мы сможем без опаски доверить управление автомобилем роботу.

Пока система неидеальна - точность LINGO-1 всего 60%. Но концепция выглядит очень многообещающе.

Как вы считаете, сможем ли мы когда-нибудь полностью доверить вождение нейросетям? Поделитесь мнением в комментариях!

🚙 Ссылка
🔥38👍153