Технозаметки Малышева
8.99K subscribers
3.89K photos
1.45K videos
40 files
4.06K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Hugging Face представляет руководство для создания собственного ChatGPT без кода

- Пользователи могут создать свой собственный чат-бот на основе модели LLaMA 2 без написания кода, благодаря инструментам Hugging Face: Spaces, AutoTrain и Inference Endpoints.
- Настоящее руководство позволяет любому пользователю, не обладающему техническими навыками, развивать и развертывать искусственный интеллект.
- На базе модели LLaMA 2 обучают модель чату на открытых данных, а затем разворачивают модель в чат-приложении для общения с друзьями.

#HuggingFace, #LLaMA2, #ChatGPT

https://huggingface.co/blog/Llama2-for-non-engineers
Tachyum представила суперкомпьютер с производительностью свыше 50 ExaFLOP

Проект проходит под рабочим названием "Project Prodigy".
Суперкомпьютер будет использоваться для исследовательских целей, ИИ и в нанотехнологиях.

Устройство разработано для работы с искусственным интеллектом, серверными приложениями и облачными вычислениями.

#Tachyum, #ProjectProdigy, #Суперкомпьютер

https://www.cryptopolitan.com/tachyum-unveils-supercomputer/
Microsoft представит чип для ИИ на ежегодной конференции

- Презентация нового чипа Microsoft для искусственного интеллекта ожидается в следующем месяце.

- Чип, работа над которым заняла несколько лет, позволит компании снизить зависимость от чипов для ИИ от Nvidia.

- Microsoft использует GPU от Nvidia для обучения и выполнения больших языковых моделей, таких как ChatGPT от OpenAI.

#Microsoft, #Nvidia, #ИИ

https://www.theinformation.com/articles/microsoft-to-debut-ai-chip-next-month-that-could-cut-nvidia-gpu-costs
👍1
Forwarded from Сиолошная
Large Language Models (in 2023)

Large models of today will be Small models in only a few years
— Hyung Won Chung, OpenAI

Наткнулся на 45-минутное выступление сотрудника OpenAI, в прошлом — Google Brain. Интересно, что это первый автор статьи Scaling Instruction-Finetuned Language Models (от Google), в которой и обучаются большие языковые модели, и делается попытка обучения следования инструкциям. Крутой-опытный чувак, в общем, и вот теперь он (с несколькими коллегами, лол) в OpenAI.

Тезисы:
1️⃣ Обычно люди привыкли жить в мире, где аксиомы, лежащие в основе их области, не меняются. Однако сейчас "аксиомой" в мире больших языковых моделей просто является самая лучшая LLM (например, GPT-4). Какие-то вещи можно попробовать накрутить поверх модели, они не получатся, но это не значит, что через 5 лет с GPT-6 это не заработает — потому что поменяется база. Вообще, к почти любому утверждению логично добавлять "пока что". Не "модель не может X", а "модель не может делать X ПОКА ЧТО".

2️⃣ Я как-то недавно пришёл к этому тезису, очень рад, что сотрудники OpenAI его разделяют: всё, что делается сейчас, надо документировать и, самое главное, оставлять в таком виде, чтобы в будущем можно было вернуться и очень быстро воспроизвести и перепроверить. Вдруг что-то не работало сейчас, но заработает в будущем? Те же AI-агенты — им не хватает навыков планирования и декомпозиции, но сама концепция "давайте дадим LLM память, доступ в интернет и возможность писать код, а затем поставим задачу" — офигенная.

3️⃣ 11:55 - 24:03 на пальцах объясняет как работает data/model parallelism, и для чего он нужен. Если интересно с технической точки зрения немного углубиться — можно глянуть.

4️⃣ Hyung считает, что целевая функция (в данный момент — Maximum Likelihood для предтренировки LLM) является бутылочным горлышком в достижении масштабов, условно, 10000x GPT-4. В рамках развития машинного обучения вещи, которые мы проектировали вручную, становились все более ненужными и ограничивающими (есть даже шутка, что каждый раз, когда из Google-переводчика увольняли лингвистов, то качество вырастало).
Но мы все еще разрабатываем функции потерь для обучения вручную. Выучиваемая функции с помощью отдельных алгоритмов, в понимании лектора, это следующая парадигма, к которой мы должны прийти, и она будет гораздо более масштабируемой. Сейчас шаг обучения RLHF с RM-моделированием (что это? смотрите мою лекцию) — это своего рода попытка сделать нечто подобное, но увы, пока всё изучено слабо и работает не на максимум.
Please open Telegram to view this post
VIEW IN TELEGRAM
Canva представила инструменты для дизайна на базе ИИ

- Canva, австралийская платформа графического дизайна, представила инструменты дизайна, основанные на искусственном интеллекте.
- Они смогут конвертировать документы одним кликом или создать резюме из презентации, сообщения для блога из заметок, фотографии и видео из текста или картинок
- Всего Canva запустила 10+ новых продуктов на базе ИИ
- Данное обновление является ответом Canva на всплеск конкуренции со стороны крупных игроков в данной области, таких как Adobe.

#Canva, #Adobe, #ИИ

https://www.bloomberg.com/news/articles/2023-10-04/canva-unveils-ai-design-tools-as-competition-from-adobe-heats-up
Forwarded from Сиолошная
И ещё один набор тезисов от Dario Amodei, CEO Anthropic, из вот этого подкаста. Выписал для вас 5 самых интересных тезисов из двухчасового видео.

1️⃣ Отвечая на вопрос про бизнесы и продукты вокруг LLM, Dario дал следующий совет: "Лучше фокусироваться на том, что модели не могут делать сегодня. Скажем, они справляются лишь в 40% случаев. Это, вероятно, означает, что через год-два они смогут давать правильное решение в 80-90% случаев. Поэтому имейте доверие и совершите прыжок веры, в надежде на такое улучшение, и разрабатывайте продукт с оглядкой на прогресс." А если бизнес клевый — можно вообще делать партнерство с Anthropic, и увеличивать шансы того, что это станет правдой (ибо они включат ваши задачи в свою выборку).

2️⃣ Одно из (частично) неудавшихся предсказаний Dario — сразу после GPT-2 он думал, что модели преобразуют в агентов и придумают, как обучать их через Reinforcement Learning, как это было с Dota 2, Го, Starcraft. Однако оказалось, что компании просто продолжать вливать больше денег в вычислительные мощности и увеличивать нейронки, так как это самые низковисящие фрукты, которые легко сорвать. Вероятно, сам этап ещё впереди, просто Dario ожидал другую последовательность развития технологии.

3️⃣ Воу, а вот это инсайд. На дежурный вопрос "а не прекратится ли дальнейшее масштабирование из-за отсутствия данных?" Amodei дал свой обычный ответ: "По разным причинам я не думаю, что это произойдет в ближайшее время, ну, может 10% дам. В интернете много публично доступных данных, если внимательно посмотреть по углам, даже не обращаясь к лицензированным и закопирайченным данным".
А вот дальше он сказал, что есть разные многообещающие подходы, и он не будет вдаваться в подробности, НО ВОТ СОЗДАНИЕ СИНТЕТИЧЕСКИХ ДАННЫХ! Об этом они, мол, много думали, и скорее всего другие LLM-компании тоже исследуют направление. Никогда раньше, даже в подкастах 2-3 недельной давности, он этого уточнения не делал.
Также он добавил, что пока не доказано, что это будет работать на том масштабе, на котором мы хотим (типа можно ли взять модель на 1T параметров, сгенерировать высококачественные данные, и на этом обучать модель на 10T параметров, чтобы она была лучше исходной).

4️⃣ Предсказание от Dario: в 2024м с точки зрения как самых положительных, так и самых негативных сценариев (разработка био-оружия, etc.) с LLMками ничего радикального не произойдет. Модели просто станут существенно лучше в глазах потребителей, и все будут приятно удивлены прогрессу за полтора-два года (с выхода ChatGPT). Бизнесы и стартаперы начнут ещё больше адаптировать их под свои нужды. Наша будничная жизнь не изменится. Но вот в 2025м, может 2026м, намечаются реальные изменения.

5️⃣ Затронули тему интерпретируемости LLM, Amodei пофлексил, что они вот сейчас выпустят одну работу (Towards Monosemanticity: Decomposing Language Models With Dictionary Learning, разбора на канале нет, но блогпост оформлен очень сочно!), и там они показывают хороший прогресс в понимании отдельных нейронов в сети, и что он очень оптимистичен и ожидает прикладных результатов в течение 2-3 лет. Потенциально, дальнейшее развитие поможет с улучшением AI Safety.
Please open Telegram to view this post
VIEW IN TELEGRAM
США создают военную "метавселенную" для тренировки солдат

- С помощью дополненной реальности и ИИ создается цифровое пространство, где военные могут тренироваться в условиях, максимально приближенных к реальным боевым.
- Проект руководится бывшим пилотом F-22 Дэном Робинсоном и его компанией Red 6.
- Технология позволяет симулировать многодневные кампании в условиях боя.
- Данная инициатива обещает сэкономить время и бюджет, увеличить эффективность обучения и обеспечить большую частоту тренировочных полетов.

#Red6, #Дополненная_Реальность, #ИИ

https://www.foxnews.com/tech/military-metaverse-like-multiplayer-video-game-train-soldiers-using-augmented-reality-ai
Reka AI представила мультиязычный помощник YASA-1 с визуальными и аудиосенсорами

- YASA-1 от Reka AI - это многоязычный помощник, который может выполнять действия с помощью выполнения кода.
- Сенсоры YASA-1 позволяют определять визуальные и акустические данные, что обеспечивает многоуровневое понимание.
- С помощью машинного обучения и ИИ устройство может адаптировать свои ответы для удовлетворения потребностей пользователя.
- YASA-1 заточен под работу в системах домашней автоматизации, помощи пожилым людям и детям.
#RekaAI #YASA-1 #ИИ

https://www.marktechpost.com/2023/10/07/reka-ai-introduces-yasa-1-a-multimodal-language-assistant-with-visual-and-auditory-sensors-that-can-take-actions-via-code-execution/
Ученые представили эффективную модель StreamingLLM для обучения языковых моделей

- Ученые из MIT, Meta AI и Carnegie Mellon предложили фреймворк StreamingLLM для обучения языковых моделей на бесконечной длине последовательности без дорогостоящей донастройки.
- Предложенный метод позволяет решить проблему деградации работы языковых моделей при встрече с последовательностями, превышающими их корпус обучения.
- StreamingLLM использует тенденцию моделей сохранять исходные токены как "точки внимания", позволяя снизить перплексию и достигать скорости декодирования в 22 раза быстрее, чем при использовании предыдущих техник.

#StreamingLLM, #языковыемодели, #MetaAI

https://notes.aimodels.fyi/llm-infinite-context-window-streamingllm/
Nvidia расширяет свое присутствие на поле AWS

- Компания уже обеспечивает облачный сервис DGX Cloud для корпоративных клиентов, разрабатывающих ИИ на своих чипах.
- Nvidia использует серверы, расположенные в дата-центрах Microsoft, Oracle и Google, что ограничивает возможности компании.
- Nvidia рассматривает вариант аренды собственного пространства у владельца дата-центра для усиления облачного сервиса.
- Если Nvidia запустит облачный сервис на своих серверах в дата-центре, это поставит компанию в прямую конкуренцию с традиционными облачными провайдерами.

Новый шаг Nvidia делает ситуацию на рынке облачных сервисов более конкурентной, что может привести к улучшению качества услуг для конечных пользователей.

#Nvidia, #AWS, #DGXCloud

https://www.theinformation.com/articles/nvidia-deepens-push-into-aws-turf
Автоматическая генерация агентов с AutoAgents

- AutoAgents - новый фреймворк, который генерирует и координирует специализированных агентов для создания AI-команды в зависимости от задачи.
- Система устанавливает связь между задачами и ролями, генерируя необходимые агенты в соответствии с содержанием задачи и планируя для них решение текущей задачи.
- Различные специализированные агенты работают вместе для эффективного выполнения задач.
- В фреймворк интегрирована роль наблюдателя, которая анализирует планы и реакции агентов и помогает их улучшить.
- Эксперименты показывают, что AutoAgents генерирует более согласованные и точные решения, чем существующие многопользовательские методы.

Такой подход повышает качество решения задач.

#AutoAgents, #AI

https://github.com/LinkSoul-AI/AutoAgents

https://arxiv.org/abs/2309.17288v1
Антропик сделали ключевое открытие в понимании работы искусственных нейронных сетей

- Стартап в области искусственного интеллекта Anthropic PBC разработал метод для более глубокого понимания поведения нейронных сетей, которые управляют AI алгоритмами.
- Исследование может иметь большие последствия для безопасности и надежности следующего поколения AI, предоставляя исследователям и разработчикам большую контроль над действиями их моделей.
- Anthropic изучил небольшую языковую модель-трансформер, разложив 512 искусственных нейронов на более чем 4000 функций, представляющих контексты, такие как последовательности ДНК, юридический язык, запросы HTTP, текст на иврите, заявления о питательности и многое другое.
- Их исследования показывают что поведение отдельных функций значительно более интерпретируемое, чем нейронов.
- На основании своего исследования Anthropic создал метод для сравнения интерпретируемости отдельных функций и нейронов, который показал, что функции (красные) имеют гораздо выше очки, чем нейроны (бирюзовые).

Это открытие привносит значимый вклад в понимание работы искусственных нейронных сетей, что делает управление АИ моделями более предсказуемым и безопасным.

#Anthropic, #AI, #нейронныесети

https://siliconangle.com/2023/10/08/anthropic-announces-key-breakthrough-understanding-behavior-artificial-neural-networks/
Google DeepMind усовершенствовала настройку диффузионных моделей

- Google DeepMind представила Direct Reward Fine-Tuning (DRaFT) - новую методику для применения в AI.
- DRaFT помогает улучшить настройку диффузионных моделей, максимизируя различимые функции вознаграждения.
- Этот метод делает настройку моделей более эффективной, и поощряет создание новых видов AI.
- Применение DRaFT может запустить новую волну инноваций в области искусственного интеллекта.

Теперь умные системы будут обучаться еще быстрее и эффективнее, что заметно ускорит процесс их создания.
#Google, #DeepMind, #DRaFT

https://www.marktechpost.com/2023/10/08/google-deepmind-introduces-direct-reward-fine-tuning-draft-an-effective-artificial-intelligence-method-for-fine-tuning-diffusion-models-to-maximize-differentiable-reward-functions/
Робопсы стали более автономными благодаря новому ИИ

- Ученые из Стэнфордского университета и Шанхайского института Ци Чжи создали новый алгоритм для робопсов, основанный на компьютерном зрении.
- Этот ИИ позволяет роботам преодолевать различные препятствия, используя только визуальные данные и накопленный опыт.
- Используя простую систему вознаграждений, ИИ обучает роботов автономно решать задачи и физически преодолевать препятствия.
- Новый алгоритм показал отличные результаты: робопсы смогли преодолеть препятствия, высота которых превышала их собственную в полтора раза.

Теперь робопсы смогут справляться со множеством задач еще эффективнее, обучаясь на своем опыте.

#Стэнфорд, #Ци_Чжи, #робопсы

https://hightech.plus/2023/10/08/novii-ii-pozvolyaet-robopsam-bez-dolgogo-obucheniya-preodolevat-lyubie-prepyatstviya
Внедрение ИИ станет условием для получения госсубсидий

- Ряд компаний в России при получении господдержки обязаны будут внедрить Искусственный Интеллект.
- Это условие касается 13 видов субсидий для среднего и крупного бизнеса в различных отраслях.
- Нововведение будет попыткой поощрить спрос на разработки в сфере ИИ.

Внедрение ИИ в компании может стать катализатором прогресса и запускать новые инновационные процессы.
#ИскусственныйИнтеллект #господдержка #Минэкономразвития
Растущая инфляция приводит к увеличению технологической безработицы

- Из-за роста тарифов на энергию и инфляции компании сокращают расходы.
- Руководители IT-отделов активно сокращают затраты на облачные технологии и программное обеспечение, но при этом они продолжают внедрять генеративный AI.
- AI начинает замещать рядовые позиции в IT, ускоряя тенденцию, начавшуюся с появлением облачных вычислений.
- Сокращение касается в основном начинающих специалистов, при этом активно набирают кадры для работы на старших должностях в It.

Получается, что роботы постепенно оттесняют начинающих специалистов в IT, но в то же время создают новые возможности для опытных разработчиков.

#AI, #ITувольнения, #облачныевычисления
Генеративный AI может увеличить производительность на $4,4 триллиона в год

- Генеративный ИИ принесет экономический эффект в $2,6-4,4 трлн ежегодно.

- Предсказания базируются на анализе воздействия ИИ на более 800 профессий и изучении конкретных сценариев применения ИИ.

- Установлено 63 случая использования генеративного ИИ в 16 бизнес-функциях.
- По прогнозам, инструменты ИИ, особенно генеративные, автоматизируют практически все виды работ между 2030 и 2060 годами.
- Отмечается влияние ИИ на работу высокооплачиваемых и образованных специалистов.

Скоро можно ожидать революцию в трудовых процессах.
Инструменты на базе генеративного ИИ позволят переосмыслить труд и работы, которые раньше считались недосягаемыми для автоматизации.

#GenerativeAI, #McKinsey, #Автоматизация
AI нужен разум и свобода воли

- Нейробиолог Кевин Митчелл в своей книге утверждает, что для полноценного развития AI необходимо обеспечить его свободой воли и физическим взаимодействием с миром.
- Несмотря на прогресс в областях распознавания изображений, речи и прогнозирования текста, AI все еще слаборазвит в областях, которые легко даны людям.

- Опираясь на живые организмы, AI нужно обучать настоящему взаимодействию с окружающим миром, основываясь на своем опыте и исследованиях.

Мы движемся к созданию ИИ, который не просто обрабатывает данные, но и учится на собственном опыте, как человек или животное.

#AI, #КевинМитчелл, #нейробиология
AlphaSense стала "единорогом" благодаря искусственному интеллекту

- AlphaSense, платформа для поиска и маркетинговых исследований на базе AI, стала "единорогом", собрав около $150 млн.
в раунде E.

- Компания оценивается теперь в $2,5 млрд.
- Планы на будущее включают расширение корпоративного решения AlphaSense, усиление AI-возможностей поиска, специализированных рыночных разведок и финансовых моделей большого языка (LLMs) и генеративного AI (GenAI).
- Среди клиентов AlphaSense есть Goldman Sachs, JPMorgan Chase & Co., Wells Fargo & Co.
and Bain Capital.

#AlphaSense, #AI, #искусственный интеллект
AMD покупает эксперта в области открытого AI-программного обеспечения Nod.ai

- AMD объявила о подписании окончательного соглашения о приобретении Nod.ai, расширяя свои возможности открытого AI-программного обеспечения.
- Приобретение Nod.ai позволит AMD ускорить развертывание оптимизированных AI решений на своих высокопроизводительных платформах.

#AMD, #Nod.ai, #AI