IBM introduces watsonx the AI and data platform that's built for business. The platform consists of the three powerful components: the watsonx.ai studio for new foundation models, generative AI and machine learning; the watsonx.data fit-for-purpose store for the flexibility of a data lake and the performance of a data warehouse; plus the watsonx.governance toolkit, to enable AI workflows that are built with responsibility, transparency and explainability.
https://www.ibm.com/watsonx
https://www.ibm.com/watsonx
Ibm
IBM watsonx
IBM watsonx is a portfolio of AI products that accelerates the impact of generative AI in core workflows to drive productivity.
Forwarded from Chat GPT
ChatGPT achieved 100 million users in only two months. This is the fastest growing app in history. This technology holds promise and peril for supply chain management.
https://www.forbes.com/sites/stevebanker/2023/06/01/the-power-and-peril-of-chatgpt-for-supply-chain-management/
https://www.forbes.com/sites/stevebanker/2023/06/01/the-power-and-peril-of-chatgpt-for-supply-chain-management/
Forbes
The Potential (And Peril) Of ChatGPT In Supply Chain Applications
ChatGPT achieved 100 million users in only two months. This is the fastest growing app in history. This technology holds promise and peril for supply chain management.
Forwarded from AI.Sorceress @ Cloud
Основатель Humanloop Раза Хабиб опубликовал на сайте своего проекта статью, посвящённую будущему OpenAI. Недавно Хабиб встречался с Сэмом Альтманом и ещё 20 разработчиками, поэтому его текст можно расценивать как наиболее полное высказывание Альтмана на тему перспектив искусственного интеллекта и OpenAI.
Любопытно, что через несколько дней публикация была удалена Хабибом по просьбе OpenAI.
Глобальная тема, которую обсуждали специалисты на встрече — это ограничения, связанные с GPU и задерживающие реализацию многих краткосрочных планов. Самая серьёзная жалоба клиентов касается надёжности и скорости API.
Сэм признал их обеспокоенность и объяснил, что большая часть проблемы является результатом нехватки графических процессоров. Из-за этого более крупное контекстное окно с токенами 32k пока не может быть развёрнуто для большего количества людей. API тонкой настройки также в настоящее время упирается в доступность GPU.
Дорожная карта OpenAI на ближайшее время выглядит так: главная цель 2023 года — это более дешёвый и быстрый API; а приоритетом 2024 года станет мультимодальность. Компания стремится снизить «стоимость искусственного интеллекта», насколько это возможно. В обозримом будущем вполне вероятно появление контекстных окон размером до 1 млн токенов. API тонкой настройки будет расширен до последних моделей, но его точная форма будет зависеть от пожеланий разработчиков. В API появится возможность отслеживания состояния и запоминания истории разговоров.
Законы масштабирования остаются в силе. И хотя в последнее время во многих статьях утверждалось, что «эпоха гигантских моделей ИИ уже закончилась», законы масштабирования продолжают действовать, и увеличение размеров языковых моделей будет по-прежнему повышать производительность. Прежняя скорость масштабирования не может поддерживаться, потому что OpenAI увеличила модели в миллионы раз всего за несколько лет, и дальнейшее развитие не будет устойчивым. Это не означает, что OpenAI не будет продолжать попытки сделать модели больше; просто они, скорее всего, будут удваиваться или утраиваться каждый год, а не увеличиваться на много порядков.
Тот факт, что масштабирование продолжает работать, имеет значительные последствия для сроков разработки AGI.
Любопытно, что через несколько дней публикация была удалена Хабибом по просьбе OpenAI.
Глобальная тема, которую обсуждали специалисты на встрече — это ограничения, связанные с GPU и задерживающие реализацию многих краткосрочных планов. Самая серьёзная жалоба клиентов касается надёжности и скорости API.
Сэм признал их обеспокоенность и объяснил, что большая часть проблемы является результатом нехватки графических процессоров. Из-за этого более крупное контекстное окно с токенами 32k пока не может быть развёрнуто для большего количества людей. API тонкой настройки также в настоящее время упирается в доступность GPU.
Дорожная карта OpenAI на ближайшее время выглядит так: главная цель 2023 года — это более дешёвый и быстрый API; а приоритетом 2024 года станет мультимодальность. Компания стремится снизить «стоимость искусственного интеллекта», насколько это возможно. В обозримом будущем вполне вероятно появление контекстных окон размером до 1 млн токенов. API тонкой настройки будет расширен до последних моделей, но его точная форма будет зависеть от пожеланий разработчиков. В API появится возможность отслеживания состояния и запоминания истории разговоров.
Законы масштабирования остаются в силе. И хотя в последнее время во многих статьях утверждалось, что «эпоха гигантских моделей ИИ уже закончилась», законы масштабирования продолжают действовать, и увеличение размеров языковых моделей будет по-прежнему повышать производительность. Прежняя скорость масштабирования не может поддерживаться, потому что OpenAI увеличила модели в миллионы раз всего за несколько лет, и дальнейшее развитие не будет устойчивым. Это не означает, что OpenAI не будет продолжать попытки сделать модели больше; просто они, скорее всего, будут удваиваться или утраиваться каждый год, а не увеличиваться на много порядков.
Тот факт, что масштабирование продолжает работать, имеет значительные последствия для сроков разработки AGI.
Хабр
На сайте Humanloop опубликовали, а потом удалили тезисы обсуждения с Сэмом Альтманом будущего OpenAI
Основатель Humanloop Раза Хабиб опубликовал на сайте своего проекта статью, посвящённую будущему OpenAI. Недавно Хабиб встречался с Сэмом Альтманом и ещё 20 разработчиками, поэтому его текст можно...
Forwarded from Точка сингулярности💥
Media is too big
VIEW IN TELEGRAM
🧬 После Photoshop Adobe внедрила свою нейросеть Firefly и в Premiere.
Нейросеть Firefly уже умеет создавать переходы, подбирать музыку, звуки, осуществлять цветокоррекцию, создавать би-роллы, а также генерировать подписи и раскадровку. В настоящее время все эти функции находятся в стадии бета-тестирования, но ожидается, что релиз состоится до конца 2023 года.
Кроме того, для Premiere доступна сторонняя нейросеть AutoPod, которая автоматически редактирует шоу и видеоподкасты, отображая в кадре говорящего в данный момент человека. Вероятно, к моменту релиза Firefly также научится выполнять эту функцию.
🧩 #КаталогНейросетей
Нейросеть Firefly уже умеет создавать переходы, подбирать музыку, звуки, осуществлять цветокоррекцию, создавать би-роллы, а также генерировать подписи и раскадровку. В настоящее время все эти функции находятся в стадии бета-тестирования, но ожидается, что релиз состоится до конца 2023 года.
Кроме того, для Premiere доступна сторонняя нейросеть AutoPod, которая автоматически редактирует шоу и видеоподкасты, отображая в кадре говорящего в данный момент человека. Вероятно, к моменту релиза Firefly также научится выполнять эту функцию.
🧩 #КаталогНейросетей
Если кто планировал купить новую видеокарту, NVidia выкатила новый чип.
https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/
https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/
NVIDIA
Introducing the NVIDIA Grace Hopper Superchip
A breakthrough accelerated CPU designed from the ground up for giant-scale AI and HPC applications.
Forwarded from 42 секунды
TechCrunch: Глава OpenAI заявил, что компания пока не начинала обучение GPT-5
– OpenAI до сих пор не начинала обучение модели GPT-5
– Ранее компания пообещала не работать над новой GPT
– Когда OpenAI планирует возобновить работу неизвестно
– OpenAI также изучает все возможные опасности и риски
– Компания проводит тесты безопасности и разные аудиты
– Такие же проверки GPT-4 заняли 6 мес. перед выпуском
@ftsec
– OpenAI до сих пор не начинала обучение модели GPT-5
– Ранее компания пообещала не работать над новой GPT
– Когда OpenAI планирует возобновить работу неизвестно
– OpenAI также изучает все возможные опасности и риски
– Компания проводит тесты безопасности и разные аудиты
– Такие же проверки GPT-4 заняли 6 мес. перед выпуском
@ftsec
AlphaDev от DeepMind ускоряет сортировку небольших последовательностей (3-5 элементов) на 70%.
https://twitter.com/DrJimFan/status/1666487234445586432?s=35
https://twitter.com/DrJimFan/status/1666487234445586432?s=35
Forwarded from AI.Sorceress @ Cloud
Чат-бот Bard от Google прогрессирует в математике, программировании и логике
Google пояснила, что смогла научить чат-бота отвечать на 30% правильнее на вопросы по научным и техническим направлениям. Компания в этом случае решила опираться не только на языковую модель, которая больше подходит для прогнозирования развёрнутых ответов, но не для расчётов и выполнения даже простых вычислительных операций, как это делает человек в уме. Теперь Bard генерирует фоновый код, а затем выполняет его и показывает пользователю ответ.
Google пояснила, что смогла научить чат-бота отвечать на 30% правильнее на вопросы по научным и техническим направлениям. Компания в этом случае решила опираться не только на языковую модель, которая больше подходит для прогнозирования развёрнутых ответов, но не для расчётов и выполнения даже простых вычислительных операций, как это делает человек в уме. Теперь Bard генерирует фоновый код, а затем выполняет его и показывает пользователю ответ.
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
MusicGen - SOTA для генерации музыки по тексту
Братишки из Meta AI только что доставили лучшую нейронку для синтеза музыки по тексту либо по заданной мелодии.
Архитектура основана на авторегрессионном трансформере (только декодер). Вся генерации идет тупо через один трансформер, без всяких иерархических апсемплингов, как обычно это было в предыдущих работах.
Код вылили в составе не просто так, а в составе новой библиотеки Audiocraft, которая задумана для дальнейшего ресерча в генерации аудио. Есть модели разного размера: от 300M до 3.3B параметров. Для инференса локально потребуется 16GB VRAM, но можно и в колабе.
Музыканты, битмейкеры и диджеи - налетайте!
Код + веса
Сайт с примерами генеараций
Демо на HF
Колаб на поиграться
@ai_newz
Братишки из Meta AI только что доставили лучшую нейронку для синтеза музыки по тексту либо по заданной мелодии.
Архитектура основана на авторегрессионном трансформере (только декодер). Вся генерации идет тупо через один трансформер, без всяких иерархических апсемплингов, как обычно это было в предыдущих работах.
Код вылили в составе не просто так, а в составе новой библиотеки Audiocraft, которая задумана для дальнейшего ресерча в генерации аудио. Есть модели разного размера: от 300M до 3.3B параметров. Для инференса локально потребуется 16GB VRAM, но можно и в колабе.
Музыканты, битмейкеры и диджеи - налетайте!
Код + веса
Сайт с примерами генеараций
Демо на HF
Колаб на поиграться
@ai_newz
Forwarded from GPT-4 Community
This media is not supported in your browser
VIEW IN TELEGRAM
Удивительные разработки, о которых невозможно молчать: парень подрубил к кукле карпа мини-комп Raspberry Pi с ChatGPT, микрофоном и колонками.
Вышло что-то странное и очень забавное. Карп говорит голосом Google Ассистента, озвучивая ответы ChatGPT.
GPT-4 ▶︎ #Interesting
Вышло что-то странное и очень забавное. Карп говорит голосом Google Ассистента, озвучивая ответы ChatGPT.
GPT-4 ▶︎ #Interesting
ControlNet теперь умеет генерить QR коды в стилях картин и фотографий. Вплетать узор QR в любое изображение.
Forwarded from Джейпег Малевича
Переварит контент за вас. Сервис Video Highlight с помощью нейронки предоставит вам выжимку из любого видео на ютубе. Вставляете ссылку, а ИИ даст краткое содержание, выделит основное и расставит тайм-коды.
Видео на русском поддерживаются. Пробуем тут.
Видео на русском поддерживаются. Пробуем тут.
Forwarded from GPT-4 Community
This media is not supported in your browser
VIEW IN TELEGRAM
Роботы-инженеры собирают... таких же роботов на заводах Tesla.
Удивительно, как быстро мы пришли к тому, что человеческую профессию может заменить робот модели Optimus.
GPT-4 ▶︎ #Interesting
Удивительно, как быстро мы пришли к тому, что человеческую профессию может заменить робот модели Optimus.
GPT-4 ▶︎ #Interesting
OpenAI выкатили мощное обновление.
вызов функций https://openai.com/blog/function-calling-and-other-api-updates
более гибкие версии gpt-4 и gpt-3.5-turbo
16K контекст для gpt-3.5-turbo (было 4К)
75% снижение цены на старые модели
25% снижение цены для gpt-3.5-turbo (примерная цена обработки теперь 700 страниц текста за 1 USD)
вызов функций https://openai.com/blog/function-calling-and-other-api-updates
более гибкие версии gpt-4 и gpt-3.5-turbo
16K контекст для gpt-3.5-turbo (было 4К)
75% снижение цены на старые модели
25% снижение цены для gpt-3.5-turbo (примерная цена обработки теперь 700 страниц текста за 1 USD)
Openai
Function calling and other API updates
We’re announcing updates including more steerable API models, function calling capabilities, longer context, and lower prices.