Forwarded from CodeCamp
This media is not supported in your browser
VIEW IN TELEGRAM
Нашел прикольную программу Wolverin на базе ChatGPT.
В чем суть: каждый раз, когда ваш код выдает ошибку, запускается скрипт поиска, где ChatGPT пытается угадать почемуу вас руки кривые все пошло не так. Как только бот найдет косяк, он его исправляет, запускает код и так по новой, пока программа не отладит весь код.
Разумеется, ссылочка на GitHub.
В чем суть: каждый раз, когда ваш код выдает ошибку, запускается скрипт поиска, где ChatGPT пытается угадать почему
Разумеется, ссылочка на GitHub.
🔥2
Forwarded from ТЕХНО: Яндекс про технологии
🗿Чат-боты на основе нейросетей способны ответить практически на любой вопрос. Далеко не всегда их ответы точны, но иногда они выдают что-то заведомо ложное и даже фантасмагорическое — это называют галлюцинациями нейросетей.
Мы выбрали 5 примеров того, как обманывал пользователей самый популярный чат-бот ChatGPT.
А более подробно феномен галлюцинаций нейросетей мы разбираем в новом материале ТЕХНО.
@yandexhq
Мы выбрали 5 примеров того, как обманывал пользователей самый популярный чат-бот ChatGPT.
А более подробно феномен галлюцинаций нейросетей мы разбираем в новом материале ТЕХНО.
@yandexhq
👍1
Forwarded from Chat GPT
Prometheus: The system in charge of managing the internal queries of, and censoring of Sydney
“LLMs often study data up to a certain point in time. That makes them useful for some use cases but prevents them from being an option for content based on real-time data. Microsoft overcame this limitation with Prometheus, which uses Bing data and GPT to generate answers quickly while still using up-to-date information.”
"Selecting the relevant internal queries and leveraging the respective Bing search results is a critical component of Prometheus, since it provides relevant and fresh information to the model, enabling it to answer recent questions and reducing inaccuracies”
Article
“LLMs often study data up to a certain point in time. That makes them useful for some use cases but prevents them from being an option for content based on real-time data. Microsoft overcame this limitation with Prometheus, which uses Bing data and GPT to generate answers quickly while still using up-to-date information.”
"Selecting the relevant internal queries and leveraging the respective Bing search results is a critical component of Prometheus, since it provides relevant and fresh information to the model, enabling it to answer recent questions and reducing inaccuracies”
Article
Вице-президент Харрис встретилась с руководителями компаний, разрабатывающих ИИ: Alphabet, Anthropic, Microsoft и OpenAI и обсудила необходимость сотрудничества с правительством.
Администрация планирует инвестировать 140 млн долларов в создание семи исследовательских институтов ИИ.
Управление управления и бюджета Белого дома скоро выпустит руководство по использованию ИИ федеральными агентствами.
Ведущие разработчики ИИ примут обязательства о публичной оценке своих систем на конференции кибербезопасности DEF CON в августе в LasVegas
https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/04/readout-of-white-house-meeting-with-ceos-on-advancing-responsible-artificial-intelligence-innovation/
Администрация планирует инвестировать 140 млн долларов в создание семи исследовательских институтов ИИ.
Управление управления и бюджета Белого дома скоро выпустит руководство по использованию ИИ федеральными агентствами.
Ведущие разработчики ИИ примут обязательства о публичной оценке своих систем на конференции кибербезопасности DEF CON в августе в LasVegas
https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/04/readout-of-white-house-meeting-with-ceos-on-advancing-responsible-artificial-intelligence-innovation/
The White House
Readout of White House Meeting with CEOs on Advancing Responsible Artificial Intelligence Innovation
Today, Vice President Harris and senior Administration officials met with CEOs of four American companies at the forefront of AI innovation to share concerns about the risks associated with AI. President Biden dropped by the meeting to underscore that companies…
Forwarded from e/acc (stepan)
Невероятно интересный документ, allegedly утекший из внутренней переписки Гугла. Анализ сводится к тому, что ни Гугл, ни OpenAI не имеют долгосрочных конкурентных защитных позиций (aka “moat”, ров) перед open source моделями. Это хороший сигнал для веб3 + AI и коммодитизации моделей, но довольно тревожный с т.з. AI alignment.
В документе приводится несколько примеров, показывающих что модель настроенная за вечер на средней мощности ноутбуке (например, бесплатная LLaMa с 13В параметров) или планшете принципиально не отличается по функционалу от тех что стоят десятки миллионов долларов и имеют по пол-триллиона параметров.
Цитата: «The barrier to entry for training and experimentation has dropped from the total output of a major research organization to one person, an evening, and a beefy laptop»
Я писал несколько лет назад про теорию канализационной крысы — это когда, организм имеющий доступ ко всем возможным патогенам куда более устойчив, чем тот что живет в стерильных условиях. Это верно про безопасность Биткоина, но так же верно и про AI инструменты.
Открытое сообщества исследователей, билдеров, предпринимателей с макбуками и желанием строить крутые продукты неизбежно побеждают корпорации там, где экономия масштаба не имеет преимуществ. Для GPT-3 важным шагом было залить сетку трансформеров баблом (GPU + RLHF), но сегодня инновации движутся в более тонком и потому доступном многим направлении. Автор особенно фокусируется на технологии LoRA, которая позволяет файнтьюнить и адаптировать существующие модели без необходимости тратить деньги на тысячи GPU-часов.
Итого, очень рекомендую: текст крайне точно передает стремительность развития ИИ от лица человека находящегося глубоко в индустрии.
В документе приводится несколько примеров, показывающих что модель настроенная за вечер на средней мощности ноутбуке (например, бесплатная LLaMa с 13В параметров) или планшете принципиально не отличается по функционалу от тех что стоят десятки миллионов долларов и имеют по пол-триллиона параметров.
Цитата: «The barrier to entry for training and experimentation has dropped from the total output of a major research organization to one person, an evening, and a beefy laptop»
Я писал несколько лет назад про теорию канализационной крысы — это когда, организм имеющий доступ ко всем возможным патогенам куда более устойчив, чем тот что живет в стерильных условиях. Это верно про безопасность Биткоина, но так же верно и про AI инструменты.
Открытое сообщества исследователей, билдеров, предпринимателей с макбуками и желанием строить крутые продукты неизбежно побеждают корпорации там, где экономия масштаба не имеет преимуществ. Для GPT-3 важным шагом было залить сетку трансформеров баблом (GPU + RLHF), но сегодня инновации движутся в более тонком и потому доступном многим направлении. Автор особенно фокусируется на технологии LoRA, которая позволяет файнтьюнить и адаптировать существующие модели без необходимости тратить деньги на тысячи GPU-часов.
Итого, очень рекомендую: текст крайне точно передает стремительность развития ИИ от лица человека находящегося глубоко в индустрии.
Semianalysis
Google "We Have No Moat, And Neither Does OpenAI"
Leaked Internal Google Document Claims Open Source AI Will Outcompete Google and OpenAI
Forwarded from Alena Drobyshevskaia
Чат-боты на основе нейросетей способны ответить практически на любой вопрос. Далеко не всегда их ответы точны, но иногда они выдают что-то заведомо ложное и даже фантасмагорическое — это называют галлюцинациями нейросетей.
Более подробно феномен галлюцинаций нейросетей разобран в новом материале журнала ТЕХНО: https://techno.yandex.ru/hallucinations
Более подробно феномен галлюцинаций нейросетей разобран в новом материале журнала ТЕХНО: https://techno.yandex.ru/hallucinations
Онлайн-журнал ТЕХНО
ТЕХНО — То, чего не было
Почему генеративные нейросети не всегда говорят правду и что с этим делать
Forwarded from AI.Sorceress @ Cloud
This media is not supported in your browser
VIEW IN TELEGRAM
Новость дня от Майкрософт.
Microsoft сегодня делает своего чат-бота Bing GPT-4 доступным для всех, больше не нужно вставать в лист ожидания. Все, что вам нужно сделать, это войти в новый Bing или Edge с помощью своей учетной записи Microsoft, и теперь вы получите доступ к версии open preview, работающей на GPT-4.
Microsoft также массово обновляет Bing Chat, добавляя множество новых функций и даже поддержку плагинов.
Чат-бот первоначально был запущен в приватном предварительном просмотре в феврале, и с тех пор Microsoft постепенно открывает его.
Новые функции Bing:
— Плагины (!)
— Сохранение истории чатов в виде файлов
— Видео-ответы от бота
— Выдача фото и видео из поиска прямо в чате (уже доступно)
— Бронирование ресторанов через Bing AI
Интересно, что анонс вышел за 6 дней до ивента от Google.
Microsoft сегодня делает своего чат-бота Bing GPT-4 доступным для всех, больше не нужно вставать в лист ожидания. Все, что вам нужно сделать, это войти в новый Bing или Edge с помощью своей учетной записи Microsoft, и теперь вы получите доступ к версии open preview, работающей на GPT-4.
Microsoft также массово обновляет Bing Chat, добавляя множество новых функций и даже поддержку плагинов.
Чат-бот первоначально был запущен в приватном предварительном просмотре в феврале, и с тех пор Microsoft постепенно открывает его.
Новые функции Bing:
— Плагины (!)
— Сохранение истории чатов в виде файлов
— Видео-ответы от бота
— Выдача фото и видео из поиска прямо в чате (уже доступно)
— Бронирование ресторанов через Bing AI
Интересно, что анонс вышел за 6 дней до ивента от Google.
👍1
Forwarded from Dendi Math&AI
🦌 RUDOLPH 🦌
Наконец-то дошли руки написать о нашей давней разработке, о модели RUDOLPH (RUssian Decoder On Language Picture Hyper-tasking), которая умеет решать много задач в модальностях текст и изображение и которая уже успела побывать бейзлайном соревнования FusionBrain Challenge 2.0 в 2022 году (и даже заняла там почётное третье место).
💡 Архитектурно модель представляет собой декодер-блок трансформера, работающий с входной последовательностью токенов, которую можно условно разделить на три основных сегмента: левые текстовые токены, токены изображения и правые текстовые токены. За счёт этого на претрейне можно показывать модели сэмплы по 3 задачам: text2image (генерация изображения по тексту), image2text (описание изображения) и text2text (языковое моделирование в левых текстовых токенах).
💡 Мы обучили 4 версии модели, которые различаются между собой как количеством параметров (соответственно, количеством и размером скрытых слоёв), так и соотношением количества токенов текста и изображения:
👉 RUDOLPH-350M
👉 RUDOLPH-1.3B
👉 RUDOLPH-2.7B
👉 RUDOLPH-2.7B-FBC2
💡 Последняя из этих моделей была дополнительно дообучена на инструктивном датасете (когда это ещё не стало мейнстримом 😊) решать 6 прикладных задач в модальностях текст и изображение: Text QA, Math QA, Image Generation, Image Captioning, Visual QA, Text Recognition in the Wild. RUDOLPH даже немного умеет в zero-shot object detection (после соответствующего файнтюна). Фишка этой версии модели также и в том, что она может понимать формулировку задачи на естественном (русском) языке 💪
Подробнее почитать про архитектуру RUDOLPH, узнать детали обучения и файнтюнинга, посмотреть примеры работы модели можно тут:
👉 Хабр
Воспользоваться и протестировать RUDOLPH можно тут:
👉 GitHub
👉 HuggingFace
👉 Cloud
В создании и обучении RUDOLPH успели принять участие многие ребята (@AShonenkov, @lizagonch - вам отдельное спасибо 👍, @kuznetsoff87, @bra_ket, @NastyaMittseva, @bom_bo0m 👌). Всем огромное спасибо за качественную работу!
@dendi_math_ai
Наконец-то дошли руки написать о нашей давней разработке, о модели RUDOLPH (RUssian Decoder On Language Picture Hyper-tasking), которая умеет решать много задач в модальностях текст и изображение и которая уже успела побывать бейзлайном соревнования FusionBrain Challenge 2.0 в 2022 году (и даже заняла там почётное третье место).
💡 Архитектурно модель представляет собой декодер-блок трансформера, работающий с входной последовательностью токенов, которую можно условно разделить на три основных сегмента: левые текстовые токены, токены изображения и правые текстовые токены. За счёт этого на претрейне можно показывать модели сэмплы по 3 задачам: text2image (генерация изображения по тексту), image2text (описание изображения) и text2text (языковое моделирование в левых текстовых токенах).
💡 Мы обучили 4 версии модели, которые различаются между собой как количеством параметров (соответственно, количеством и размером скрытых слоёв), так и соотношением количества токенов текста и изображения:
👉 RUDOLPH-350M
👉 RUDOLPH-1.3B
👉 RUDOLPH-2.7B
👉 RUDOLPH-2.7B-FBC2
💡 Последняя из этих моделей была дополнительно дообучена на инструктивном датасете (когда это ещё не стало мейнстримом 😊) решать 6 прикладных задач в модальностях текст и изображение: Text QA, Math QA, Image Generation, Image Captioning, Visual QA, Text Recognition in the Wild. RUDOLPH даже немного умеет в zero-shot object detection (после соответствующего файнтюна). Фишка этой версии модели также и в том, что она может понимать формулировку задачи на естественном (русском) языке 💪
Подробнее почитать про архитектуру RUDOLPH, узнать детали обучения и файнтюнинга, посмотреть примеры работы модели можно тут:
👉 Хабр
Воспользоваться и протестировать RUDOLPH можно тут:
👉 GitHub
👉 HuggingFace
👉 Cloud
В создании и обучении RUDOLPH успели принять участие многие ребята (@AShonenkov, @lizagonch - вам отдельное спасибо 👍, @kuznetsoff87, @bra_ket, @NastyaMittseva, @bom_bo0m 👌). Всем огромное спасибо за качественную работу!
@dendi_math_ai
Хабр
RUDOLPH: освещая дорогу к AGI
Как можно описать последние два года в области машинного обучения и искусственного интеллекта? Пожалуй, подойдет словосочетание «расцвет генеративных моделей». Причём работающих в разных модальностях....
Forwarded from AI.Sorceress @ Cloud
This media is not supported in your browser
VIEW IN TELEGRAM
Моделей, которые на основании текста генерят картинки, сейчас много.
А что по поводу видео?
Nvidia рассказала несколько дней назад о новой ИИ-модели для превращения текста в видео под названием VideoLDM. Эту модель производитель видеокарт разработал вместе с Корнельским университетом. Модель способна генерировать видео в разрешении до 2048 × 1280 пикселей с частотой 24 FPS и длительностью 4,7 секунд на основе текстового описания. В основе VideoLDM заложены наработки нейросети Stable Diffusion.
Видео выше сгенерировано по запросу: "A teddy bear is playing the electric guitar, high definition, 4k." ("Плюшевый мишка играет на электрогитаре, высокое разрешение, 4k")
А что по поводу видео?
Nvidia рассказала несколько дней назад о новой ИИ-модели для превращения текста в видео под названием VideoLDM. Эту модель производитель видеокарт разработал вместе с Корнельским университетом. Модель способна генерировать видео в разрешении до 2048 × 1280 пикселей с частотой 24 FPS и длительностью 4,7 секунд на основе текстового описания. В основе VideoLDM заложены наработки нейросети Stable Diffusion.
Видео выше сгенерировано по запросу: "A teddy bear is playing the electric guitar, high definition, 4k." ("Плюшевый мишка играет на электрогитаре, высокое разрешение, 4k")
Forwarded from addmeto (Grigory Bakunov)
Hugging Face совместно с ServiceNow собрали и выложили свою собственную модель, которая умеет то, что делает GitHub CoPilot — подсказывать код, по сути писать 80% кода без всяких программистов. Только в отличие от CoPilot это не платная услуга, а доступный всем опенсорс код и веса модели.
Я проверил его на любимом моем примере — написании кода игры в морской бой. У меня есть претензии к результату с точки зрения качества кода. Но он получился работоспособным и это самое важное. Внутри у нее кроме неонки всё традиционно — GPT2 модель на примерно триллион токенов. Качество работы на моих примерах чуть хуже CoPilot, но начало положено.
https://huggingface.co/bigcode/starcoder
Я проверил его на любимом моем примере — написании кода игры в морской бой. У меня есть претензии к результату с точки зрения качества кода. Но он получился работоспособным и это самое важное. Внутри у нее кроме неонки всё традиционно — GPT2 модель на примерно триллион токенов. Качество работы на моих примерах чуть хуже CoPilot, но начало положено.
https://huggingface.co/bigcode/starcoder
Forwarded from AI.Sorceress @ Cloud
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia представила нейросеть NeuralVDB. С еë помощью графику можно прокачать до космической реалистичности.
Вшитая в модель для рендеринга система ИИ в реальном времени изучает, как свет отражается от разных материалов и сразу применяет полученную информацию на 3D-модели. Машина точно воспроизводит керамику, отпечатки пальцев, пятна и пыль.
При этом с нейросетью производительность увеличивается в 10 раз, детализация повышается в 16 (!) раз, а требуемый для всего этого объем памяти — в 100 раз меньше, чем нужно было прежде.
Вшитая в модель для рендеринга система ИИ в реальном времени изучает, как свет отражается от разных материалов и сразу применяет полученную информацию на 3D-модели. Машина точно воспроизводит керамику, отпечатки пальцев, пятна и пыль.
При этом с нейросетью производительность увеличивается в 10 раз, детализация повышается в 16 (!) раз, а требуемый для всего этого объем памяти — в 100 раз меньше, чем нужно было прежде.
Forwarded from эйай ньюз
Google: "У нас нет преимущества перед конкурентами, также его нет у OpenAI"
Из Гугла утек внутренний документ, где один из ресерчеров пишет о том, что Гугл проигрывает гонку AI опенсоурсу, который не сдержан никакими юридическими трудностями.
Вот цитата из документа:
"Неприятная правда состоит в том, что ни мы, ни OpenAI не выиграем эту гонку. Пока мы ссоримся, третья сторона тихо забирает нашу долю рынка.
Я, конечно, говорю об открытом исходном коде. Проще говоря, они опережают нас. То, что мы считаем "основными открытыми проблемами", уже решено и доступно людям. Вот только несколько примеров:
— Большие языковые модели на телефоне: люди запускают базовые модели на Pixel 6 со скоростью 5 токенов/сек.
— Масштабируемый персональный ИИ: за вечер можно зафайнтюнить персонализированный ИИ на своем ноутбуке.
— Responsibility: этот вопрос не "решен", скорее "устарел". Существуют сайты с художественными моделями без ограничений, и текстовые модели недалеко позади.
— Мультимодальность: текущий лидер в области науки ScienceQA был обучен за час на базе LLaMa.
Несмотря на то что наши модели все еще имеют небольшое преимущество в качестве, отставание сокращается удивительно быстро. Модели с открытым исходным кодом быстрее, более настраиваемые, более конфиденциальные и, учитывая свою стоимость, более способные. Они делают то, с чем мы сталкиваемся, имея 10 миллионов долларов и 540 млрд параметров, всего за 100 долларов и 13 млрд параметров. И делают это за недели, а не месяцы."
Считаю, что волнение внутри Гугла небезосновательно. DALLE-2 уже канула в Лету после появления SD. Возможно та же участь ждет и ChatGPT с раздутыми бюджетами и операционными убытками.
Что думаете, господа? Гугл все же переобуется и ударится в опен-соурс?
@ai_newz
Из Гугла утек внутренний документ, где один из ресерчеров пишет о том, что Гугл проигрывает гонку AI опенсоурсу, который не сдержан никакими юридическими трудностями.
Вот цитата из документа:
"Неприятная правда состоит в том, что ни мы, ни OpenAI не выиграем эту гонку. Пока мы ссоримся, третья сторона тихо забирает нашу долю рынка.
Я, конечно, говорю об открытом исходном коде. Проще говоря, они опережают нас. То, что мы считаем "основными открытыми проблемами", уже решено и доступно людям. Вот только несколько примеров:
— Большие языковые модели на телефоне: люди запускают базовые модели на Pixel 6 со скоростью 5 токенов/сек.
— Масштабируемый персональный ИИ: за вечер можно зафайнтюнить персонализированный ИИ на своем ноутбуке.
— Responsibility: этот вопрос не "решен", скорее "устарел". Существуют сайты с художественными моделями без ограничений, и текстовые модели недалеко позади.
— Мультимодальность: текущий лидер в области науки ScienceQA был обучен за час на базе LLaMa.
Несмотря на то что наши модели все еще имеют небольшое преимущество в качестве, отставание сокращается удивительно быстро. Модели с открытым исходным кодом быстрее, более настраиваемые, более конфиденциальные и, учитывая свою стоимость, более способные. Они делают то, с чем мы сталкиваемся, имея 10 миллионов долларов и 540 млрд параметров, всего за 100 долларов и 13 млрд параметров. И делают это за недели, а не месяцы."
Считаю, что волнение внутри Гугла небезосновательно. DALLE-2 уже канула в Лету после появления SD. Возможно та же участь ждет и ChatGPT с раздутыми бюджетами и операционными убытками.
Что думаете, господа? Гугл все же переобуется и ударится в опен-соурс?
@ai_newz
Semianalysis
Google "We Have No Moat, And Neither Does OpenAI"
Leaked Internal Google Document Claims Open Source AI Will Outcompete Google and OpenAI
❤1
Forwarded from Chat GPT
You need 8 of these at once, just to run one person’s ChatGPT queries at a time, at full speed, i.e for AI inference.
For training your ChatGPT, you need thousands of these, for 6 to 12 months straight, with OpenAI currently using a quarter billion dollars worth of these to train GPT-5.
AGI’ing ain’t easy.
For training your ChatGPT, you need thousands of these, for 6 to 12 months straight, with OpenAI currently using a quarter billion dollars worth of these to train GPT-5.
AGI’ing ain’t easy.