Приближаем сингулярность
963 subscribers
79 photos
2 videos
57 links
Про AI, стартапы, и не только

По всем вопросам писать @leshanbog
Download Telegram
Самые успешные Generative AI компании

В статье Generative AI’s Act Two от Sequoia Capital (один из самых известных венчурных фондов) собрали воедино много классных GenAI компаний. И сгруппировали их по юскейсам, что очень удобно (рисунок 1). Также структурировали инструменты, которые для разработки AI используются (рисунок 2).

Можно подсмотреть что нибудь полезное :)


В самой статье есть несколько интересных вещей:
- фокус смещается с технологий на закрытие запросов пользователей; решения будут усложняться и специализироваться под конкретные юскейсы
- нет недостатка в пользовательском спросе, есть недостаток GPU, чтобы его закрыть
- ретеншн у GenAI заметно ниже, чем в топовых не AI-First компаниях (рисунок 3); видимо из за отсутствия социального аспекта
- пользователи в Character AI ведут текстовые диалоги с ботами по 2 часа в день (таймспент в тиктоке 96 мин); вот тут я удивлен
- данные - хорошее конкурентное преимущество, но пользовательский нетворк эффект и идеальная интеграция в жизнь/работу - ещё лучше
🔥8👍6🤔1🤯1
Помощь LLM 🦾 в разработке

Прошел мини курс про парное программирование с использованием LLM’ок (~30 min занимает на x2) от deeplearning.ai

Первое, что очень понравилось: интерфейс для ученика. Прям в браузере, рядом с самим видео, загружается Jupyter notebook с кодом, который можно редактировать и запускать. Всё уже настроено и работает, можно сразу приступать к практике.

Это прям очень классный learning experience. По сравнению с написанием преподавателем кода на доске в универе, это прям вау. Конкретно в этом курсе я этим почти не пользовался, но все равно остался под приятным впечатлением)

Теперь про более прикладные штуки. Для лучшего качества промпт настоятельно рекомендуют делать из 3ех частей:

1. Priming - типа "You are an expert at writing clear, concise, Python code." / “I don't think this code is the best way to do it in Python, can you help me?”
2. Запрос
3. Декоратор - типа “work step by step” / “add comment to every line” / “explain in detail what you did” / “explore different solutions”- дополнительные требования, чтобы сделать результат ещё более полезным для себя

Показали самые популярные сценарии:
- улучшение качества текущего кода
- упрощение кода
- написание тестов
- нахождение более эффективных решений
- помощь с дебагом
- объяснение того, что делает куча старого кода на любом языке
- написание документации

Все делается похоже: пишешь нужный прайминг, задаешь вопрос (иногда надо вставить текущий код), добавляешь комменты про то, чего хочешь получить от LLM.

От себя ещё добавлю, что LLM’ки хорошо умеют regexp’ы писать и отлично знают команды unix’а)

Кто использует Copilot/ChatGPT/etc? Как вам? Какие лайфхаки знаете?)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥32
Почему успешные AI-first стартапы появились только сейчас

Отличное выступление на канале a16z (топовый венчурный фонд) с кучей интересных мыслей. Некоторые ниже опишу, но очень советую сам видос (15 минут).

Итак, ИИ сделал кучу профита внутри биг теха (мета, нетфликс, гугл, …) - рекомендации, поиск и прочее, но новых больших AI-first компаний не возникло.

Причины:
- ИИ решали очень нишевую проблему (обыграли в Го, например, но ранка под это нет)
- дорогое железо (особенно в робототехнике/селф драйвинге)
- человек отлично справляется
- (самое важное) толстый хвост распределения: много редких кейсов, на которых нужно не ошибаться, а ИИ недостаточно точен

Все эти факторы делали экономически невыгодными такие стартапы: люди дешевле и лучше водят машины, рисуют картинки, делают саммари документов, … Плюс разметка разнообразных редких кейсов дорогая.

Но вот с успехами в Generative-AI все изменилось. Выделились даже 3 больших направления
- Creativity (генерация картинок, сценариев)
- Companionship: цифровой человек друг
- Copilot - помощник с различными задачами

В этих задачах:
1. точность часто не так критична, неточные ответы могут быть даже забавной фичей
2. для разметки многие стартапы уже используют своих пользователей, что тоже экономит кучу денег

И вот за генерацию мультяшного портрета ты платишь не $50 дизайнеру, а 5 центов 🤖

И ещё интересный взгляд: компьютер сделал дешевыми вычисления, интернет - дистрибуцию информации, а ИИ - создание чего либо.
👍
Такие дела :)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥61👎1🤯1
Простой хак, чтобы выжать больше качества из Instruct-based LLM

Все ещё в ожидании, когда промпт инжиниринг перестанет быть актуальным 😵‍💫

Ну а пока вот вам лайфхак, как заставить LLM’ки отвечать лучше: апеллируйте к эмоциям. В статье показали, что добавление в конец промпта эмоциональную добавку типа This is very important to my career улучшает качество.

Замерили как на генеративных задачах с помощью асессоров, так и на дискриминативных с помощью обычных метрик типа accuracy. Везде есть прирост. Выиграли даже у мощнешйего бейзлайна Let’s think step by step 👏

Объясняют это тем, что эмоциональная добавка делает так, что модель уделяет больше внимания и на сам промпт перед ней (рис. 2).

Но вообще если приглядеться, то в статье не совсем корректные сравнения: 1 гипотеза с оригинальным промптом сравнивается с максимальным качеством по 11 разным эмоциональным добавкам. И на их усредненном значении видно, что работает это не всегда лучше (рис. 3). Впрочем, чаще всего даже среднее выигрывает, так что подход точно имеет смысл попробовать!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9😁6👍51🤯1
Честный замер LLM на способность следовать инструкциям

Пара проблем в современных бенчмарках для LLM'ок:
- неточный замер используя GPT-4 (часто замеряются модели, которые GPT-4 и дистиллировали :D)
- огромный претрейн датасет может пересекаться или иметь очень похожие примеры на тестовый (метрики завышаются)

Про второе можно почитать в этом блогпосте от lmsys, проблема важная.

А частично про первое ресерчеры из гугла написали прикольную статью: Instruction-Following Evaluation for Large Language Models

Они предложили использовать verifiable instructions: инструкции (промпты), выполнение которых легко проверить кодом.

Они выделили 25 типов таких заданий (см. картинку 1): выдать ответ в формате json / написать ровно 2 абзаца / ровно 3 пункта / закончить такой то фразой / etc. Конкретные примеры на картинке 2.

Эти инструкции проверяют именно умение instruction following и не зависят от внешнего оценивания типа GPT-4.

Они даже выложили код 👏
Можно скриптом в 1 строчку оценить результаты вашей собственной LLM'ки.

Идея классная. Выглядит несложным для любого домена написать таких примеров и автоматически замерять, behavioural testing кажется называется)

Ещё они замерили свой гугловый PaLM 2 (small) против GPT-4 (картинка 3) и проиграли ему везде =)
Интересно почему они сравнивали со small моделью. Ваши гипотезы?)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍52🤔1
Читаем подкаст за 5 минут

В гугловом bard’е есть классная фича: можно кинуть ссылку на ютуб видео и попросить короткое содержание или просто задать вопрос по нему.

Плагин в GPT-4 например отказался делать такое, так как видео очень длинное 👎

Bard может и на русском языке ответ выдать 👍 (хотя в России он вроде не доступен :D)

Это конечно огромное преимущество гугла: гигантский объем полезных данных в легком доступе + много продуктов с пользователями, куда ИИ можно внедрять и получать фидбек.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥62
Всех с наступающим Новым годом! 🎉 🎊 🎉

Желаю всем найти человека, который будет вас понимать лучше, чем рекомендательные системы и любой сверхсильный ИИ 🤖

И alignment’а с самим собой, конечно же 🧘
Please open Telegram to view this post
VIEW IN TELEGRAM
14🎉7🔥4
Понятная и красивая диаграмма про Retrieval Augmented Generation от llamaindex - опенсорс либы, чтобы снабжать LLM’ки внешними знаниями. Про то, почему это очень круто я уже писал пост.

На диаграмме самые важные нюансы отобразили. Все сводится к тому, что нужен и точный ретривер, и генератор (робастный к плохим документам и умеющий использовать хорошие). И обе эти задачи сложные)

И обе части необходимы, чтобы это заработало хорошо.
🔥7👍53
(мемы немного в тему, взял здесь)

Подумал, что CEO - максимальная стадия VC (venture capitalist).

Типа VC анализирует, выбирает несколько стартапов, инвестриует. Ведь он не знает, что реально выстрелит, а что нет. Поэтому не кладет все яица в одну корзину. Диверсицифирует и надеется, что хоть в среднем будет хорошо 🍞

А CEO уверенный чел, инвестирует в свой стартап 100% усилий, чтобы получить максимальный return on investment 😎

(это всё шутка конечно; VC, если читаете, не обижайтесь 😉)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8😁4🔥1🤔1🎉1