Многим разработчикам кода понравился Claude Engineer — это усовершенствованный интерактивный интерфейс командной строки (CLI), который использует возможности моделей Anthropic Claude 3 и Claude 3.5 для решения широкого спектра задач разработки программного обеспечения. Этот инструмент органично сочетает в себе возможности современных больших языковых моделей с практическими операциями с файловой системой, функциями веб-поиска, интеллектуальным анализом кода и возможностями выполнения.
https://github.com/Doriandarko/claude-engineer
https://github.com/Doriandarko/claude-engineer
GitHub
GitHub - Doriandarko/claude-engineer: Claude Engineer is an interactive command-line interface (CLI) that leverages the power of…
Claude Engineer is an interactive command-line interface (CLI) that leverages the power of Anthropic's Claude-3.5-Sonnet model to assist with software development tasks.This framework enabl...
И вот только что опубликовано как заменить довольно дорогую LLM Claude на новую сильно подешевевшую GPT 4o
mini.
mini.
Forwarded from Сергей Булаев AI 🤖
Media is too big
VIEW IN TELEGRAM
Как модифицировать Claude Engineer для переключения его на новую модель OpenAI gpt-4o-mini с помощью Claude Engineer.
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
Инструкция по тонкой настройке LLM с нуля
Если вы ищете ресурс для понимания процесса тонкой настройки инструкций в LLM, я хочу сообщить, что Глава 7 о тонкой настройке инструкций в LLM наконец-то появилась на веб-сайте Manning .
Это самая длинная глава в книге, в которой используется подход с нуля для реализации конвейера тонкой настройки инструкций. Сюда входит все: от форматирования входных данных до пакетирования с пользовательской функцией сортировки, маскирования токенов заполнения, самого цикла обучения и оценки качества ответа тонко настроенного LLM на пользовательском тестовом наборе.
(Упражнения включают изменение стилей подсказок, маскировку инструкций и добавление LoRA.) https://github.com/rasbt/LLMs-from-scratch
Если вы ищете ресурс для понимания процесса тонкой настройки инструкций в LLM, я хочу сообщить, что Глава 7 о тонкой настройке инструкций в LLM наконец-то появилась на веб-сайте Manning .
Это самая длинная глава в книге, в которой используется подход с нуля для реализации конвейера тонкой настройки инструкций. Сюда входит все: от форматирования входных данных до пакетирования с пользовательской функцией сортировки, маскирования токенов заполнения, самого цикла обучения и оценки качества ответа тонко настроенного LLM на пользовательском тестовом наборе.
(Упражнения включают изменение стилей подсказок, маскировку инструкций и добавление LoRA.) https://github.com/rasbt/LLMs-from-scratch
GitHub
GitHub - rasbt/LLMs-from-scratch: Implement a ChatGPT-like LLM in PyTorch from scratch, step by step
Implement a ChatGPT-like LLM in PyTorch from scratch, step by step - rasbt/LLMs-from-scratch
👍5
YouTube
Использование ИИ в разработке ПО: возможности и ограничения
24 июля в 12:00 по МСК Анна Авдюшина, преподаватель факультета «Программная инженерия и компьютерная техника» и инженер центра «Сильный искусственный интеллект в промышленности» университета ИТМО, рассказала о возможностях и ограничениях, которые привносит…
Сейчас на YouTube-канале AI4Dev инженер центра «Сильный ИИ в промышленности» университета ИТМО Анна Авдюшина рассказывает о возможностях и ограничениях, которые привносит использование ИИ в разработку ПО.
В лекции обсудим:
🔸 как автоматизировать сбор и анализ данных с помощью ИИ и лучше понять потребности пользователей;
▪️ как ИИ автоматизирует классификацию документации и оптимизацию распределения ресурсов;
🔸 как ИИ способствует автоматизации тестирования, сокращает время разработки и уменьшает количество ошибок;
▪️ может ли ИИ анализировать исторические данные для автоматизации процессов, уменьшая человеческое участие и количество ошибок;
🔸 плюсы и минусы интеграции ИИ в жизненный цикл разработки.
Присоединяйтесь к нам и задавайте вопросы в чате — ответим сразу после лекции в прямом эфире!
В лекции обсудим:
Присоединяйтесь к нам и задавайте вопросы в чате — ответим сразу после лекции в прямом эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
А вы не хотите запустить полномасштабную LLM 408 B коэффициентов на сетке домашних компьютеров?
😁1
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Нашел неочевидное применение артефактам Claude для продуктологов, UX-дизайнеров и менеджеров:
Если помните, Anthropic недавно запилили фичу, где код который пишет Claude «оторван» от истории чата и написан так, чтобы его можно было понять в любом месте, независимо от прошлых сообщений, называется это «артефакт» и модель можно напрямую просить их генерировать (только включите эту фичу в настройках)
У людей которые сильно запариваются в UX продукта (респект вам), в разработке, есть сложность — когда проектирующий продукт человек придумал какую-то механику в интерфейсе и пытается ее объяснить коллегам:
— Программисты могут легко не понять, так как а) есть много других задач б) что там опять напридумывали в) много читать скучных тасков никто не любит;
— Речь идет даже не про разработку, человеку, чтобы выяснить насколько такой прототип «жизнеспособен», нужно расписать логику работы элементов интерфейсов в разных видах;
— Самому проектировщику интерфейса хочется понять, как выглядеть та или иная механика, самому понажимать кнопки и подумать про удобство;
— Занимает эта итерация кучу времени, намного удобнее когда менеджер или проектировщик может в код и набрасывает прототип сам, но это редкость — я вообще доходил до того, что iOS разработчикам делал макеты интерфейсов в After Effect (беда с башкой, я знаю🚑 )
Ну так вот, оказалось что намного проще посидеть с Claude, описав ему какой-то отдельный кусок продукта, функции и проблему которую я пытаюсь решить — в видео как раз прототип кусочка нейролава который скоро пойдет в A/B тест в виде быстрой навигации по сайту, вместо старой
А поскольку артефакты теперь можно шарить ссылками со всеми, я просто прикладываю ссылку в таск и все намного лучше понимают, что я вообще хочу сделать — экономит часы, серьезно
#пропродукт
Если помните, Anthropic недавно запилили фичу, где код который пишет Claude «оторван» от истории чата и написан так, чтобы его можно было понять в любом месте, независимо от прошлых сообщений, называется это «артефакт» и модель можно напрямую просить их генерировать (только включите эту фичу в настройках)
У людей которые сильно запариваются в UX продукта (респект вам), в разработке, есть сложность — когда проектирующий продукт человек придумал какую-то механику в интерфейсе и пытается ее объяснить коллегам:
— Программисты могут легко не понять, так как а) есть много других задач б) что там опять напридумывали в) много читать скучных тасков никто не любит;
— Речь идет даже не про разработку, человеку, чтобы выяснить насколько такой прототип «жизнеспособен», нужно расписать логику работы элементов интерфейсов в разных видах;
— Самому проектировщику интерфейса хочется понять, как выглядеть та или иная механика, самому понажимать кнопки и подумать про удобство;
— Занимает эта итерация кучу времени, намного удобнее когда менеджер или проектировщик может в код и набрасывает прототип сам, но это редкость — я вообще доходил до того, что iOS разработчикам делал макеты интерфейсов в After Effect (беда с башкой, я знаю
Ну так вот, оказалось что намного проще посидеть с Claude, описав ему какой-то отдельный кусок продукта, функции и проблему которую я пытаюсь решить — в видео как раз прототип кусочка нейролава который скоро пойдет в A/B тест в виде быстрой навигации по сайту, вместо старой
А поскольку артефакты теперь можно шарить ссылками со всеми, я просто прикладываю ссылку в таск и все намного лучше понимают, что я вообще хочу сделать — экономит часы, серьезно
#пропродукт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Банки делают следующий шаг по масштабному использованию генеративного ИИ в своих внутренних процессах.
Forwarded from Innovation & Research
JPMorgan запустил чат-бот-аналитика для сотрудников
Внедрение разработки на базе LLM Suite стартовало в начале года. Модель помогает в написании отчетов, генерации идей и обобщении документов. Сейчас доступ к LLM Suite имеют 50 тыс. сотрудников подразделения по управлению финансовыми активами и благосостоянием (примерно 15% персонала). Собственный чат-бот позволяет компании использовать AI-технологии при работе с конфиденциальными данными.
В банке описывают модель как «продукт, похожий на ChatGPT», который должен использоваться для повышения «продуктивности общего назначения» в дополнение к другим приложениям для работы с конфиденциальной финансовой информацией — Connect Coach и SpectrumGPT. Президент JPMorgan Дэниел Пинто ранее оценил стоимость технологий искусственного интеллекта, которые уже использует банк, примерно в $1-1,5 млрд.
Конкурирующий американский инвестиционный банк Morgan Stanley сотрудничал с OpenAI и в сентябре прошлого года выпустил чат-бот на базе GenAI. Разработка открывает финансовым консультантам быстрый доступ ко всему интеллектуальному капиталу компании.
#news #AI
https://www.reuters.com/technology/artificial-intelligence/jpmorgan-launches-in-house-chatbot-ai-based-research-analyst-ft-reports-2024-07-26/
Внедрение разработки на базе LLM Suite стартовало в начале года. Модель помогает в написании отчетов, генерации идей и обобщении документов. Сейчас доступ к LLM Suite имеют 50 тыс. сотрудников подразделения по управлению финансовыми активами и благосостоянием (примерно 15% персонала). Собственный чат-бот позволяет компании использовать AI-технологии при работе с конфиденциальными данными.
В банке описывают модель как «продукт, похожий на ChatGPT», который должен использоваться для повышения «продуктивности общего назначения» в дополнение к другим приложениям для работы с конфиденциальной финансовой информацией — Connect Coach и SpectrumGPT. Президент JPMorgan Дэниел Пинто ранее оценил стоимость технологий искусственного интеллекта, которые уже использует банк, примерно в $1-1,5 млрд.
Конкурирующий американский инвестиционный банк Morgan Stanley сотрудничал с OpenAI и в сентябре прошлого года выпустил чат-бот на базе GenAI. Разработка открывает финансовым консультантам быстрый доступ ко всему интеллектуальному капиталу компании.
#news #AI
https://www.reuters.com/technology/artificial-intelligence/jpmorgan-launches-in-house-chatbot-ai-based-research-analyst-ft-reports-2024-07-26/
Reuters
JPMorgan launches in-house chatbot as AI-based research analyst, FT reports
JPMorgan Chase has begun rolling out a generative artificial intelligence (AI) product, telling employees that its own version of OpenAI's ChatGPT can do the work of a research analyst, the Financial Times reported on Friday.
YouTube
🤖 Встречи с бессознательным разумом
25 июля в 12:00 по МСК мы вместе с профессором Владимиром Крыловым, доктором технических наук и научным консультантом по применению ИИ в разработке ПО, встретимся с бессознательным разумом.
1️⃣ Обсудим публикации, рассказывающие об экспериментальных…
1️⃣ Обсудим публикации, рассказывающие об экспериментальных…
Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, прочитал новую лекцию на YouTube-канале AI4Dev — "Встречи с бессознательным разумом".
В лекции:
🔸 обсудили публикации, которые подтверждают превосходство моделей генеративного ИИ над человеком при решении многих интеллектуальных задач;
🔸 рассмотрели недавно найденное решение математической проблемы, которая многие десятилетия исследовалась безуспешно;
🔸 познакомились с новым подходом к общению с LLM, индуцировав в них воображаемые атрибуты сознания — глубокий бессознательный разум.
💬 Если при просмотре лекции у вас возникнут вопросы, пишите их в комментариях к этому посту, чтобы лектор ответил на них.
Оставляем ссылку на наш подкаст для тех, кому удобнее слушать лекции. Если они вам нравятся, подписывайтесь — это помогает развивать AI4Dev!
В лекции:
💬 Если при просмотре лекции у вас возникнут вопросы, пишите их в комментариях к этому посту, чтобы лектор ответил на них.
Оставляем ссылку на наш подкаст для тех, кому удобнее слушать лекции. Если они вам нравятся, подписывайтесь — это помогает развивать AI4Dev!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
GitHub предлагает тестировать целый набор LLM в вашем приложении не выходя из среды разработки.
👍1
https://x.com/russelljkaplan/status/1820460524460802256
Что думает глава компании, разрабатывающей ИИ программиста Devin
Что думает глава компании, разрабатывающей ИИ программиста Devin
👍1
Интерес к ИИ-ассистентам для кодирования растет: Microsoft сообщает, что выручка от GitHub Copilot уже превышает доходы самого GitHub на момент его покупки, а это означает, что около 30 млн разработчиков ежегодно платят Microsoft $100 за этот инструмент.
Я сам давано пользуюсь Cursor, но умудряюсь ещё и использовать Copilot внутри него, тоесть плачу за всё. Вместе веселее :)
Сергей Булаев AI 🤖 - об AI и программировании
Я сам давано пользуюсь Cursor, но умудряюсь ещё и использовать Copilot внутри него, тоесть плачу за всё. Вместе веселее :)
Сергей Булаев AI 🤖 - об AI и программировании
Telegram
Сергей Булаев AI 🤖
Основатель нескольких успешных IT и контент-проектов, включая Купи Батон, Lifehacker.ru и Взахлёб. Сейчас нахожусь во Флориде в городе Бока Ратон. Занимаюсь созданием контента на основе оцифрованной памяти человека.
👍1
YouTube
ИИ в законодательстве РФ: современные реалии и перспективы
12 августа в 12:00 по МСК Алексей Иёшин рассказал о том, как российское законодательство регламентирует применение ИИ в разработке ПО.
Алексей работает системным администратором более 20 лет. Он основал проект "Арт-панк от Айтишного", выходил в финал…
Алексей работает системным администратором более 20 лет. Он основал проект "Арт-панк от Айтишного", выходил в финал…
Сейчас на YouTube-канале AI4Dev Алексей Иёшин рассказывает о том, как российское законодательство регламентирует применение ИИ в разработке ПО.
Алексей работает системным администратором более 20 лет. Он основал проект "Арт-панк от Айтишного", выходил в финал проектов президентской платформы "Россия — страна возможностей" и стал амбассадором проекта "Русский код".
На лекции обсуждаем:
▪️ Регулируют ли применение нейросетей в российских IT-компаниях?
▫️ В каких законах и нормах говорится об использовании ИИ в сфере информационных технологий?
▪️ Какие обязанности ложатся на компании, использующие нейросети? Велика ли мера их ответственности?
▫️ Каковы перспективы развития законодательства о нейросетях в России?
Присоединяйтесь к нам и задавайте вопросы в чате — ответим сразу после лекции в прямом эфире!
Алексей работает системным администратором более 20 лет. Он основал проект "Арт-панк от Айтишного", выходил в финал проектов президентской платформы "Россия — страна возможностей" и стал амбассадором проекта "Русский код".
На лекции обсуждаем:
Присоединяйтесь к нам и задавайте вопросы в чате — ответим сразу после лекции в прямом эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Еще один ИИ-ассистент для тех, кто любит работать в консоли :
Omni Engineer - это консольный инструмент, который интегрирует возможности искусственного интеллекта в ваш процесс разработки. Он предлагает интеллектуальные ответы на запросы кодирования, управление файлами, веб-поиск и функции обработки изображений.
https://github.com/Doriandarko/omni-engineer/tree/main
Omni Engineer - это консольный инструмент, который интегрирует возможности искусственного интеллекта в ваш процесс разработки. Он предлагает интеллектуальные ответы на запросы кодирования, управление файлами, веб-поиск и функции обработки изображений.
https://github.com/Doriandarko/omni-engineer/tree/main
GitHub
GitHub - Doriandarko/omni-engineer
Contribute to Doriandarko/omni-engineer development by creating an account on GitHub.
👍1
Мы провели небольшое исследование в Jet Brains Marketplace (среде разработки IDE) по популярности Copilot и AI autocomplete плагинов. В таблице все что больше 500 000 скачиваний. Из интересного:
1. Суммарно по всем плагинам больше 30млн скачиваний
2. Из топа все в активной разработке, обновлялось не больше чем 1-2 месяца назад
3. У основных игроков рейтинг не так уж и высок.
Кажется, что чем больше охват, тем меньше лояльность пользователей, что в целом логично. Tabnine и TONGYI Lingma выделяются на этом фоне, ну и Amazon Q тоже.
1. Суммарно по всем плагинам больше 30млн скачиваний
2. Из топа все в активной разработке, обновлялось не больше чем 1-2 месяца назад
3. У основных игроков рейтинг не так уж и высок.
Кажется, что чем больше охват, тем меньше лояльность пользователей, что в целом логично. Tabnine и TONGYI Lingma выделяются на этом фоне, ну и Amazon Q тоже.
👍4
Пару дней назад OpenAI выпустила SWE Bench Verified. Мы уже писали об SWE Engineer из Принстона, который умеет закрывать баги git-hub. Тренировка и оценка этого AI агента происходила на основе SWE bench – набора решенных задач с гитхаба, т.е. по сути пар: 1) таск с описанием задачи и 2) pull request в котором код исправлений и юнит тесты. И вот теперь Open AI в коллабе с SWE выпустили улучшенный отфильтрованный вариант этого набора данных. Что исправили:
• Прилагаемые юнит тесты в задачах очень специфичны и проверяют что-то помимо решаемой проблемы. Из-за этого при правильном решении юнит тест не проходит и задача записывается как нерешенная;
• Неполное описание проблемы, двусмысленность;
• Юнит тесты устроены так, что для них требуется слишком сложная настройка окружения, с которой не справляется AI агент.
Проблемы вполне понятны, когда мы делали обзор на SWE agent я как раз столкнулся с тем, что один и тот же баг с подробным описанием агент пофиксил, а с коротким нет. Встает вопрос, если мы соревнуемся с живыми разработчиками, то зачем упрощать задания? Баги из датасета были закрыты, значит живые люди с ними разобрались. Я предположу, что дело в том, что часть коммуникаций по задаче могла пройти за кадром, не оставив следов в таск трекере, обсудили на звонке, или разработчик сам себе завел таск, уже зная в чем проблема. Еще часть задач могла быть закрыта, например, с невыполненными юнит тестами. Итого оценивать по ним AI не совсем корректно. Кстати соревнуется не только AI с человеком, но и AI с AI.
Что показал этот новый отфильтрованный датасет? Если лидер (Amazon Q Developer Agent) в SWE bench решал 19.5% задач, то лидер в SWE Bench Verified (тоже, кстати, Amazon Q) решает уже 38.8% задач.
Посмотреть внимательнее на рейтинг на сайте swebench. Почитать про участие в этом датасете Open AI тут.
• Прилагаемые юнит тесты в задачах очень специфичны и проверяют что-то помимо решаемой проблемы. Из-за этого при правильном решении юнит тест не проходит и задача записывается как нерешенная;
• Неполное описание проблемы, двусмысленность;
• Юнит тесты устроены так, что для них требуется слишком сложная настройка окружения, с которой не справляется AI агент.
Проблемы вполне понятны, когда мы делали обзор на SWE agent я как раз столкнулся с тем, что один и тот же баг с подробным описанием агент пофиксил, а с коротким нет. Встает вопрос, если мы соревнуемся с живыми разработчиками, то зачем упрощать задания? Баги из датасета были закрыты, значит живые люди с ними разобрались. Я предположу, что дело в том, что часть коммуникаций по задаче могла пройти за кадром, не оставив следов в таск трекере, обсудили на звонке, или разработчик сам себе завел таск, уже зная в чем проблема. Еще часть задач могла быть закрыта, например, с невыполненными юнит тестами. Итого оценивать по ним AI не совсем корректно. Кстати соревнуется не только AI с человеком, но и AI с AI.
Что показал этот новый отфильтрованный датасет? Если лидер (Amazon Q Developer Agent) в SWE bench решал 19.5% задач, то лидер в SWE Bench Verified (тоже, кстати, Amazon Q) решает уже 38.8% задач.
Посмотреть внимательнее на рейтинг на сайте swebench. Почитать про участие в этом датасете Open AI тут.
👍1