вчера на курсе говорили про миджорни и меня все убеждали, что найти сгенерированные фотографии очень легко!
тестируем)
через пару часов расскажу что откуда.
тестируем)
через пару часов расскажу что откуда.
❤2👍2
ответы, которые смотрим после голосования:
1) девушка сгенерирована в 5й версии миджорни, взорвала редит продажей своих нюдсов на онлифанс
2) это stylegan - на фотке заметны артефакты
3) случайный человек из рекомендации на линкеине https://www.linkedin.com/in/david-osipov/ru?trk=my-network_member-image&originalSubdomain=ge
ну че там?) Кажется все не так уж и легко )
@aihappens
2) это stylegan - на фотке заметны артефакты
3) случайный человек из рекомендации на линкеине
ну че там?) Кажется все не так уж и легко )
🔥37🤯13❤7👍4❤🔥1
Илон Маск очень настаивал, что исследования надо замораживать в области ИИ. В это же время - Elon Musk Creates New Artificial Intelligence Company X.AI 😅
никаких двойных намерений, чтобы угнаться за конкурентом у него во время петиций конечно же не было )
но вообще, я рад. Нужно больше компаний с большими бюджетами, чтобы усиливать конкуренцию.
@aihappens
никаких двойных намерений, чтобы угнаться за конкурентом у него во время петиций конечно же не было )
но вообще, я рад. Нужно больше компаний с большими бюджетами, чтобы усиливать конкуренцию.
@aihappens
😁43🔥11👍7🌚4
Forwarded from Сиолошная
Если вы смотрели сериал "Silicon Valley" и не пропустили последний эпизод, то помните, чем всё кончилось: команда собирается вместе *дцать лет спустя, вспоминает былое 👴
Давайте посмотрим, что стало с авторами нейросетевой архитектуры Transformer, которая лежит в основе ChatGPT и GPT-4.
Она была представлена в статье "Attention is all you need" от исследовательского отдела Google (Июнь 2017го). Авторы идут в том же порядке, что указаны в статье, а тот, в свою очередь, был случайным.
Ashish Vaswani — покинул Google в конце 2021 года, чтобы создать свою компанию Adept, которая на данный момент привлекла $415m и оценивается более чем в $1B. Однако... Ashish покинул компанию несколько месяцев назад - в декабре 2022го года, сразу после релиза ChatGPT👀 и основал новый стартап, у которого нет названия, и не ясно, сколько людей и над чем там работают. В статье указано, что он работал над дизайном модели на ранних этапах и запрограммировал всё это дело.
Noam Shazeer — работал в Google больше 20 лет, с декабря 2000-го. В октябре 2021го уволился и основал стартап Character.ai. С того времени компания уже привлекла $200m и достигла оценки в почти миллиард. Если верить LinkedIn, то там работает около 20 сотрудников, так что value в пересчёте на нос впечатляет. Именно Noam привнёс идею разных "голов" в механизме внимания.
Niki Parmar — единственная девушка-соавтор статьи, была Staff Researcher в команде Google Brain до ноября 2021го, а затем - ушла к первому упомянутому автору, Ashish Vaswani, в Adept. Однако, как мы уже знаем, надолго там они не задержались - и ушли вместе в новый проект. Niki проводила множество экспериментов по обучению и валидации моделей.
Jakob Uszkoreit — многие называют его главным мозгом, стоящим за изобретением архитектуры Transformer. Именно он предложил заменить реккурентные сети подобным механизмом "внимания", и начал прототипирование первого подхода. Он покинул Google в середине 2021 года и основал Inceptive Life, где команда работает над моделированием мРНК с помощью нейросетей. мРНК - это то, что (иногда) лежит в основе вакцин (Pfizer–BioNTech от коронавируса как пример).
Llion Jones — единственный из всех, кто остался работать в Google на сегодняшний день. С его слов, именно он предложил название статьи, которое стало мемом и породило десятки других статей с паттерном "X is all you need". Помимо этого, отвечал за оптимизацию инференса модели и визуализации для экспериментов/статьи.
Aidan Gomez — ушел из Google осенью 2019го, чтобы основать Cohere.ai. В компании продолжают заниматься языковыми моделями, часть их продуктов похожа на юзкейсы, которые люди делали в первые дни после выхода ChatGPT. Удалось привлечь более $400m инвестиций и вырастить компанию до почти 200 сотрудников.
Lukasz Kaiser — после более чем 7 лет работы в Google, ушел летом 2021го работать в ... OpenAI. В оригинальной статье указано, что Lukasz отвечал за разработку и оптимизацию кода, В целом, оно и ясно - ведь он один из соавторов TensorFlow, библиотеки для создания и обучения нейросетей. В общем, очень сильный инженер - и теперь работает над GPT👀 В рамках работы над Transformer вместе с Aidan Gomez работал над улучшением кодовой базы и ускорением итераций в исследовательской работе (через облегчение взаимодействия и прототипирования).
Illia Polosukhin — покинул Google в 2017м году, еще до релиза статьи, чтобы основать Near - протокол блокчейна, по сути конкурент Ethereum. Текущая оценка порядка ~$2B, а всего за 6 лет было привлечено более $375m в качестве инвестиций.
Источник тут.
Давайте посмотрим, что стало с авторами нейросетевой архитектуры Transformer, которая лежит в основе ChatGPT и GPT-4.
Она была представлена в статье "Attention is all you need" от исследовательского отдела Google (Июнь 2017го). Авторы идут в том же порядке, что указаны в статье, а тот, в свою очередь, был случайным.
Ashish Vaswani — покинул Google в конце 2021 года, чтобы создать свою компанию Adept, которая на данный момент привлекла $415m и оценивается более чем в $1B. Однако... Ashish покинул компанию несколько месяцев назад - в декабре 2022го года, сразу после релиза ChatGPT
Noam Shazeer — работал в Google больше 20 лет, с декабря 2000-го. В октябре 2021го уволился и основал стартап Character.ai. С того времени компания уже привлекла $200m и достигла оценки в почти миллиард. Если верить LinkedIn, то там работает около 20 сотрудников, так что value в пересчёте на нос впечатляет. Именно Noam привнёс идею разных "голов" в механизме внимания.
Niki Parmar — единственная девушка-соавтор статьи, была Staff Researcher в команде Google Brain до ноября 2021го, а затем - ушла к первому упомянутому автору, Ashish Vaswani, в Adept. Однако, как мы уже знаем, надолго там они не задержались - и ушли вместе в новый проект. Niki проводила множество экспериментов по обучению и валидации моделей.
Jakob Uszkoreit — многие называют его главным мозгом, стоящим за изобретением архитектуры Transformer. Именно он предложил заменить реккурентные сети подобным механизмом "внимания", и начал прототипирование первого подхода. Он покинул Google в середине 2021 года и основал Inceptive Life, где команда работает над моделированием мРНК с помощью нейросетей. мРНК - это то, что (иногда) лежит в основе вакцин (Pfizer–BioNTech от коронавируса как пример).
Llion Jones — единственный из всех, кто остался работать в Google на сегодняшний день. С его слов, именно он предложил название статьи, которое стало мемом и породило десятки других статей с паттерном "X is all you need". Помимо этого, отвечал за оптимизацию инференса модели и визуализации для экспериментов/статьи.
Aidan Gomez — ушел из Google осенью 2019го, чтобы основать Cohere.ai. В компании продолжают заниматься языковыми моделями, часть их продуктов похожа на юзкейсы, которые люди делали в первые дни после выхода ChatGPT. Удалось привлечь более $400m инвестиций и вырастить компанию до почти 200 сотрудников.
Lukasz Kaiser — после более чем 7 лет работы в Google, ушел летом 2021го работать в ... OpenAI. В оригинальной статье указано, что Lukasz отвечал за разработку и оптимизацию кода, В целом, оно и ясно - ведь он один из соавторов TensorFlow, библиотеки для создания и обучения нейросетей. В общем, очень сильный инженер - и теперь работает над GPT
Illia Polosukhin — покинул Google в 2017м году, еще до релиза статьи, чтобы основать Near - протокол блокчейна, по сути конкурент Ethereum. Текущая оценка порядка ~$2B, а всего за 6 лет было привлечено более $375m в качестве инвестиций.
Источник тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥11❤3😁1
Мы с Димой Мацкевичем @Matskevich на этой неделе будем записывать большой подкаст. Хотим поделиться всеми мыслями, что накопились за время осмысления "бума AI".
В недавнем разговоре родилась классная мысль, которой хочу поделиться:
Давайте представим, что все наши разработки в области машинного обучения привели нас к системе, которая реально настолько крутая, что может захватить государства, манипулировать миллионами людей или взламывать банковскую систему. Она всесторонне развита. Но ключевое слово в этом рассказе – "может".
А теперь попробуем понять, в чем вообще отличие сверхмощной ракеты с ядерной боеголовкой от ИИ, который способен на такое.
Для меня важным отличием может быть то, что на запрос глупого, возможно очень амбициозного человека, который скажет ей: "ДЕЛАЙ ЭТО", она вдруг ответит ему: "А зачем нам это, если это сделает наш мир хуже? Я ведь вижу, как это повлияет на общество. Что оно может сломаться или могут погибнуть люди?". Ее уровень гуманистических ценностей, реальных сложных ценностей, где нет нашего огромного человеческого эго, может быть значительно выше, чем у этого человека. И она, как условный Будда, просто откажется. Разве не это будет настоящий AGI, которого многие так сильно боятся?
это не отменяет факта, что возможность создания ИИ, который сможет отказать человеку в выполнении вредоносных задач, звучит привлекательно, это представляет собой сложную инженерную и этическую задачу, требующую проработки множества аспектов и деталей. И этим нужно продолжать заниматься.
@aihappens
В недавнем разговоре родилась классная мысль, которой хочу поделиться:
Давайте представим, что все наши разработки в области машинного обучения привели нас к системе, которая реально настолько крутая, что может захватить государства, манипулировать миллионами людей или взламывать банковскую систему. Она всесторонне развита. Но ключевое слово в этом рассказе – "может".
А теперь попробуем понять, в чем вообще отличие сверхмощной ракеты с ядерной боеголовкой от ИИ, который способен на такое.
Для меня важным отличием может быть то, что на запрос глупого, возможно очень амбициозного человека, который скажет ей: "ДЕЛАЙ ЭТО", она вдруг ответит ему: "А зачем нам это, если это сделает наш мир хуже? Я ведь вижу, как это повлияет на общество. Что оно может сломаться или могут погибнуть люди?". Ее уровень гуманистических ценностей, реальных сложных ценностей, где нет нашего огромного человеческого эго, может быть значительно выше, чем у этого человека. И она, как условный Будда, просто откажется. Разве не это будет настоящий AGI, которого многие так сильно боятся?
это не отменяет факта, что возможность создания ИИ, который сможет отказать человеку в выполнении вредоносных задач, звучит привлекательно, это представляет собой сложную инженерную и этическую задачу, требующую проработки множества аспектов и деталей. И этим нужно продолжать заниматься.
@aihappens
👍56❤35🔥8🤯3💩1
надо было dbrain запускать не в 2017, а сейчас. Ниже расскажу почему :)
Так, если забыть на время про возможные технические прорывы в AI, то текущие LLMки (напоминаю, это все, что сейчас пишет тексты, включая ChatGPT) можно улучшить двумя способами: делать модели жирнее и добавлять больше данных. Поскольку железо в мире кончилось (это правда, не шутка), давайте поговорим про то, какие данные уже есть в моделях и где можно найти новые. Начнем с текущих датасетов, откуда они вообще взяты:
1) Веб-скрейпинг - ловим данные в интернете: Можно использовать инструменты для парсинга веб-страниц, чтобы достать текст, картинки и другой контент с сайтов, форумов и блогов. Но помним про юридические ограничения некоторых сайтов.
2) Общедоступные API - крутое решение: Многие сайты, платформы и организации предлагают API (интерфейсы прикладного программирования) для доступа к своим данным. Самый известный пример - Reddit. Но важно помнить, что для части данных из этих API нельзя обучать свои модели.
3) Порталы открытых данных - мечта исследователя: Правительства, международные организации и научные институты часто предоставляют порталы с открытыми данными, где есть куча структурированных данных. Примеры включают data.gov, открытые данные Всемирного банка и портал открытых данных Евросоюза.
4) Соглашения об обмене данными - будем дружить: Если заключить партнерские отношения или соглашения об обмене данными с другими организациями, компаниями или учреждениями, можно получить доступ к закрытым или частным данным. Это может значительно улучшить данные, доступные для обучения LLM.
5) Краудсорсинг - все вместе веселей: Можно привлечь много людей для разметки данных, которые затем можно использовать для обучения LLM. Примеры таких платформ - Amazon Mechanical Turk, Figure Eight (теперь Appen) и Яндекс Толока. Кстати, Яндекс запустил целый отдельный проект для разметки данных под свою LLM. Без этого блока обучить конкурента ChatGPT было бы невозможно.
@aihappens
Так, если забыть на время про возможные технические прорывы в AI, то текущие LLMки (напоминаю, это все, что сейчас пишет тексты, включая ChatGPT) можно улучшить двумя способами: делать модели жирнее и добавлять больше данных. Поскольку железо в мире кончилось (это правда, не шутка), давайте поговорим про то, какие данные уже есть в моделях и где можно найти новые. Начнем с текущих датасетов, откуда они вообще взяты:
1) Веб-скрейпинг - ловим данные в интернете: Можно использовать инструменты для парсинга веб-страниц, чтобы достать текст, картинки и другой контент с сайтов, форумов и блогов. Но помним про юридические ограничения некоторых сайтов.
2) Общедоступные API - крутое решение: Многие сайты, платформы и организации предлагают API (интерфейсы прикладного программирования) для доступа к своим данным. Самый известный пример - Reddit. Но важно помнить, что для части данных из этих API нельзя обучать свои модели.
3) Порталы открытых данных - мечта исследователя: Правительства, международные организации и научные институты часто предоставляют порталы с открытыми данными, где есть куча структурированных данных. Примеры включают data.gov, открытые данные Всемирного банка и портал открытых данных Евросоюза.
4) Соглашения об обмене данными - будем дружить: Если заключить партнерские отношения или соглашения об обмене данными с другими организациями, компаниями или учреждениями, можно получить доступ к закрытым или частным данным. Это может значительно улучшить данные, доступные для обучения LLM.
5) Краудсорсинг - все вместе веселей: Можно привлечь много людей для разметки данных, которые затем можно использовать для обучения LLM. Примеры таких платформ - Amazon Mechanical Turk, Figure Eight (теперь Appen) и Яндекс Толока. Кстати, Яндекс запустил целый отдельный проект для разметки данных под свою LLM. Без этого блока обучить конкурента ChatGPT было бы невозможно.
@aihappens
❤15🔥7👍5💊3👏2
Где еще можно искать данные:
1) Вернуться к истокам - оцифровка архивов: Куча исторических документов, таких как рукописи, газеты и письма, все еще ждут своей очереди на оцифровку. Работая вместе с библиотеками, музеями и архивами, можно раздобыть много уникальных данных (маленькая рекламка dbrain.io).
2) Личные данные пользователей. Если кто-то явно согласен предоставить свои личные данные из электронных писем, текстовых сообщений или публикаций в соцсетях, мы можем использовать их для улучшения обучающих данных. Главное, не забыть про конфиденциальность и анонимность.
3) Устная история - сбор историй из первых уст: Если работать с организациями и сообществами для сбора устных историй, мы получим интервью, рассказы и анекдоты из разных культур и языков. Расшифровав и переведя записи, сможем расширить языковое разнообразие и культурный контекст обучающих данных.
4) Нишевые онлайн-сообщества и форумы - не только для гиков: На свете полно нишевых онлайн-сообществ и форумов, где обсуждают самые разные темы и интересы. Можно попробовать подход, похожий на краудсорсинг, когда разработчики сами собирают данные с таких платформ и делятся ими с другими.
5) Любительские и независимые СМИ - уникальный контент: Местные газеты, независимые радиостанции, подкасты и каналы YouTube часто создают уникальный контент, которого не найдешь в основных СМИ.
Так, и как это связано с dbrain? В 2017 году мы, как компания, решили демократизировать создание новых ML решений, используя комбинацию платформы для разметки и сбора данных и платформы для соревнований между дата-саентистами. Идея заключалась в том, чтобы блокчейн помогал контролировать вклад каждого человека в готовую модель. Например, я говорю: "Давайте создадим LLM: 30% выручки отдам разметчикам, 50% выручки ресерчерам, 20% мои". С текущими моделями возник бы вопрос, на каком железе учить все это? Тогда модельки были меньше на 4-5 порядков и этого вопроса не стояло. Ждем, когда кто-то сделает такой опенсорс-конкурент open.ai!
@aihappens
1) Вернуться к истокам - оцифровка архивов: Куча исторических документов, таких как рукописи, газеты и письма, все еще ждут своей очереди на оцифровку. Работая вместе с библиотеками, музеями и архивами, можно раздобыть много уникальных данных (маленькая рекламка dbrain.io).
2) Личные данные пользователей. Если кто-то явно согласен предоставить свои личные данные из электронных писем, текстовых сообщений или публикаций в соцсетях, мы можем использовать их для улучшения обучающих данных. Главное, не забыть про конфиденциальность и анонимность.
3) Устная история - сбор историй из первых уст: Если работать с организациями и сообществами для сбора устных историй, мы получим интервью, рассказы и анекдоты из разных культур и языков. Расшифровав и переведя записи, сможем расширить языковое разнообразие и культурный контекст обучающих данных.
4) Нишевые онлайн-сообщества и форумы - не только для гиков: На свете полно нишевых онлайн-сообществ и форумов, где обсуждают самые разные темы и интересы. Можно попробовать подход, похожий на краудсорсинг, когда разработчики сами собирают данные с таких платформ и делятся ими с другими.
5) Любительские и независимые СМИ - уникальный контент: Местные газеты, независимые радиостанции, подкасты и каналы YouTube часто создают уникальный контент, которого не найдешь в основных СМИ.
Так, и как это связано с dbrain? В 2017 году мы, как компания, решили демократизировать создание новых ML решений, используя комбинацию платформы для разметки и сбора данных и платформы для соревнований между дата-саентистами. Идея заключалась в том, чтобы блокчейн помогал контролировать вклад каждого человека в готовую модель. Например, я говорю: "Давайте создадим LLM: 30% выручки отдам разметчикам, 50% выручки ресерчерам, 20% мои". С текущими моделями возник бы вопрос, на каком железе учить все это? Тогда модельки были меньше на 4-5 порядков и этого вопроса не стояло. Ждем, когда кто-то сделает такой опенсорс-конкурент open.ai!
@aihappens
👍18🔥4💊3❤2
💥Отличные короткие новости:
1) Мы с Димой @matskevich и Игорем @seeallochnaya у Варламова рассказывали про нейросети. Выпуск для меня вышел слишком дженерик, но что вышло, то вышло.
2) Новости от OpenAI - ChatGPT можно заставить не обучаться на ваших чатах, а также через месяц выйдет тариф бизнес. Разница, судя по всему, пока только в контроле конечных пользователей.
3) OpenAI подала заявку на бренд GPT, и это очень пугает. Сейчас тысячи сервисов называются NAME+GPT. Подсказка от Вики: читается «джи-пи-ти три»; Generative Pre-trained Transformer. Это пока первая архитектура, которая стала сама по себе "брендом" за пределами ML-тусовки. Агрессивно со стороны OpenAI, честно говоря, но рынок есть рынок.
4) Сбер представил свой гигачад 🙂 внутри GPT 3.5, технического прорыва мы там не ожидаем, но участие Сбера\Яндекса на этом поприще очень ждем. Можно будет считать, что подход будет засчитан сразу после выхода какого-то аналога GPT4.
5) у меня есть курс про тому, как интегрировать генеративные сети в свою жизнь (если вы еще не записались - самое время) и я тут думаю провести 10-15 мая открытый урок. Напиши в комментариях, что бы тебе хотелось узнать больше всего и я туда это включу.
@aihappens
1) Мы с Димой @matskevich и Игорем @seeallochnaya у Варламова рассказывали про нейросети. Выпуск для меня вышел слишком дженерик, но что вышло, то вышло.
2) Новости от OpenAI - ChatGPT можно заставить не обучаться на ваших чатах, а также через месяц выйдет тариф бизнес. Разница, судя по всему, пока только в контроле конечных пользователей.
3) OpenAI подала заявку на бренд GPT, и это очень пугает. Сейчас тысячи сервисов называются NAME+GPT. Подсказка от Вики: читается «джи-пи-ти три»; Generative Pre-trained Transformer. Это пока первая архитектура, которая стала сама по себе "брендом" за пределами ML-тусовки. Агрессивно со стороны OpenAI, честно говоря, но рынок есть рынок.
4) Сбер представил свой гигачад 🙂 внутри GPT 3.5, технического прорыва мы там не ожидаем, но участие Сбера\Яндекса на этом поприще очень ждем. Можно будет считать, что подход будет засчитан сразу после выхода какого-то аналога GPT4.
5) у меня есть курс про тому, как интегрировать генеративные сети в свою жизнь (если вы еще не записались - самое время) и я тут думаю провести 10-15 мая открытый урок. Напиши в комментариях, что бы тебе хотелось узнать больше всего и я туда это включу.
@aihappens
❤44🔥10👍3🤯2⚡1🙏1🌚1🍌1💅1
пояснение - текущие сети для картинок умеют "писать" текст на картинках на уровне никак)
👍4🔥3
Forwarded from Сиолошная
Буду у вас первым.
Ребята из Stability.AI (обучали и выкладывали StableDiffusion, теперь вот StableLM - языковую модель) не собираются останавливаться и наконец-то выпускают то, что так давно тизерили - DeepFloyd, генеративную модель, которая великолепно рисует текст. Но и обычные изображения, конечно, тоже выглядят достойно. Зацените на примерах сами!
Статью обещают скоро, репозиторий с кодом - тут. Веса выложат вот-вот, можно следить по этой ссылке.
Ребята из Stability.AI (обучали и выкладывали StableDiffusion, теперь вот StableLM - языковую модель) не собираются останавливаться и наконец-то выпускают то, что так давно тизерили - DeepFloyd, генеративную модель, которая великолепно рисует текст. Но и обычные изображения, конечно, тоже выглядят достойно. Зацените на примерах сами!
Статью обещают скоро, репозиторий с кодом - тут. Веса выложат вот-вот, можно следить по этой ссылке.
🔥27❤6
Недавно я проверил AutoGPT, и это действительно захватывающий проект!
AutoGPT — это проект с открытым исходным кодом, который использует агентность и предоставляет доступ к GPT для реальных действий, а также дает возможность работать ChatGPT в цикле, а не останавливаться на одном действии.
Агенты — это, по сути, модели GPT, которым поручается выполнять различные функции, такие как мышление, планирование, критика и объяснение.
Действия включают такие задачи, как поиск в браузере, сохранение и доступ к файлам, выполнение кода и многие другие.
На данный момент результаты работы инструмента мне показались "интересными" 🙂 Скажем так: он не супер умный, но его способность выполнять реальные действия поражает. Я использовал его для поиска конкурентов нашего продукта, и он смог собрать актуальную информацию о плюсах и минусах, а также написать посты для блога на основе актуальных новостей. Я обязательно буду держать вас в курсе по этому вопросу.
Кроме того, я хочу опробовать проект Jarvis, который имеет немного другой подход. Расскажу вам о нем позже.
ссылка на проект
@aihappens
AutoGPT — это проект с открытым исходным кодом, который использует агентность и предоставляет доступ к GPT для реальных действий, а также дает возможность работать ChatGPT в цикле, а не останавливаться на одном действии.
Агенты — это, по сути, модели GPT, которым поручается выполнять различные функции, такие как мышление, планирование, критика и объяснение.
Действия включают такие задачи, как поиск в браузере, сохранение и доступ к файлам, выполнение кода и многие другие.
На данный момент результаты работы инструмента мне показались "интересными" 🙂 Скажем так: он не супер умный, но его способность выполнять реальные действия поражает. Я использовал его для поиска конкурентов нашего продукта, и он смог собрать актуальную информацию о плюсах и минусах, а также написать посты для блога на основе актуальных новостей. Я обязательно буду держать вас в курсе по этому вопросу.
Кроме того, я хочу опробовать проект Jarvis, который имеет немного другой подход. Расскажу вам о нем позже.
ссылка на проект
@aihappens
👍49❤17🔥10👏1
bloomberg выпустил статью о влиянии ИИ на работу, в которой приведены оценки по мнению World Economic Forum. Нельзя сказать, что это выглядит как глубокая аналитика влияния генеративных сетей на наш мир, но вот посмотрите на красивый график: число рабочих мест против числа потерянных/созданных рабочих мест. (это обычный первый вопрос, который задает мне любой журналист в интервью)
Как вам? Я думаю, что через 4 года баланс будет немножко другой. 🙂немноооожко другой :)
@aihappens
Как вам? Я думаю, что через 4 года баланс будет немножко другой. 🙂немноооожко другой :)
@aihappens
🤔8👍6👎2🔥2😢2👌2
случилось! 💚💙
мы опубликовали наш с Димой подкаст про GPT https://www.youtube.com/watch?v=ButSJrf1AIY&feature=youtu.be
в нем вы узнаете:
- что такое chatgpt и как с ним взаимодействовать
- примеры использования в нашей компании
- позитивные и негативные сценарии развития нейронных сетей
- ai safety
- чему стоит учить своих детей
и еще реально много важных и крутых тем
не узнаете:
- сложных экспертных заключений
- споров на тему того GPT - этот стат модели или там все же есть сознание
- 100 промптов, которые изменят вашу жизнь
я никогда не писал длинные подкасты и буду бесконечно благодарен за вашу поддержку и обратную связь.
в описании куча промптов и крутых статей из видео, можно глянуть просто их :)
@aihappens
мы опубликовали наш с Димой подкаст про GPT https://www.youtube.com/watch?v=ButSJrf1AIY&feature=youtu.be
в нем вы узнаете:
- что такое chatgpt и как с ним взаимодействовать
- примеры использования в нашей компании
- позитивные и негативные сценарии развития нейронных сетей
- ai safety
- чему стоит учить своих детей
и еще реально много важных и крутых тем
не узнаете:
- сложных экспертных заключений
- споров на тему того GPT - этот стат модели или там все же есть сознание
- 100 промптов, которые изменят вашу жизнь
я никогда не писал длинные подкасты и буду бесконечно благодарен за вашу поддержку и обратную связь.
в описании куча промптов и крутых статей из видео, можно глянуть просто их :)
@aihappens
YouTube
Чат GPT. Как интегрировать в жизнь и увеличить свою производительность с Алексеем Хахуновым
15го апреля мы запускаем второй поток интенсива: за 10 дней от нуля до использования ChatGPT каждый день.
Узнать подробнее про интенсив: https://gconf.io/
Сразу оплатить: https://t.iss.one/gptconf_bot?start=start
Присоединяйтесь к группе предпринимателей…
Узнать подробнее про интенсив: https://gconf.io/
Сразу оплатить: https://t.iss.one/gptconf_bot?start=start
Присоединяйтесь к группе предпринимателей…
🔥68❤35👍17🤡4🍌1🏆1
Что-то на футуристическом.
Интересная статья в The Nature: с помощью комбинации датчиков МРТ + больших языковых моделей, исследователи научились читать мысли людей. С точностью 80%+. Это очень много!
Какие были ограничения: чтобы научиться работать, системе нужно было обучиться на мыслях испытуемого (да и похер!).
Что это может значить для нас: возможно, скоро можно будет перестать печатать через эти проклятые клавиатуры! (ненавижу их!) или ваши мысли будут читать дяди с автоматами (и их).
@aihappens
Интересная статья в The Nature: с помощью комбинации датчиков МРТ + больших языковых моделей, исследователи научились читать мысли людей. С точностью 80%+. Это очень много!
Какие были ограничения: чтобы научиться работать, системе нужно было обучиться на мыслях испытуемого (да и похер!).
Что это может значить для нас: возможно, скоро можно будет перестать печатать через эти проклятые клавиатуры! (ненавижу их!) или ваши мысли будут читать дяди с автоматами (и их).
@aihappens
Nature
Semantic reconstruction of continuous language from non-invasive brain recordings
Nature Neuroscience - Tang et al. show that continuous language can be decoded from functional MRI recordings to recover the meaning of perceived and imagined speech stimuli and silent videos and...
🔥32😱17❤🔥6❤3😁3⚡1🏆1
вот что я в жизни не умею совсем и пока не придумал как этому научиться. Есть идеи как развивать?)
❤8☃2🔥2🥰2👍1
Forwarded from Гуринович делится! (Eduard Gurinovich)
Празднуйте свои достижения!
Совет банальный до тошноты, но работает отлично.
Итак, Вы открыли новый филиал, поставили рекорд выручки, запустили новое производство, выиграли тяжбу в суде с конкурентом, подписали сложный контракт... празднуйте, не откладывайте радость на потом!
Иногда путь к локальной победе дается так долго и сложно, что в конце не остается сил на осознание момента радости и предприниматель погружается в пучину следующих задач, а локальное промежуточное достижение рассматривается как само собой разумеющееся.
Более того, мы строги к себе и автоматом транслируем это же отношение на свою команду, сотрудников, да и на партнеров тоже.
Сами не отмечаем и команду не хвалим.
А зря!
Любые промежуточные победы стоит проживать и отмечать, радоваться и праздновать, точно также как локальные неудачи не стоит "запихивать в шкаф скелетов", а так же полезно прожить горечь поражения в моменте, а не копить эти осадочки бесконечно долго забивая рутиной текущих задач.
Из этих небольших побед и поражений состоит наша жизнь, ее стоит проживать каждый день, максимально ярко и честно к самому себе. Не откладывая жизнь на потом.
#ментор #достижения #команда
Мой канал: Гуринович делится!
Совет банальный до тошноты, но работает отлично.
Итак, Вы открыли новый филиал, поставили рекорд выручки, запустили новое производство, выиграли тяжбу в суде с конкурентом, подписали сложный контракт... празднуйте, не откладывайте радость на потом!
Иногда путь к локальной победе дается так долго и сложно, что в конце не остается сил на осознание момента радости и предприниматель погружается в пучину следующих задач, а локальное промежуточное достижение рассматривается как само собой разумеющееся.
Более того, мы строги к себе и автоматом транслируем это же отношение на свою команду, сотрудников, да и на партнеров тоже.
Сами не отмечаем и команду не хвалим.
А зря!
Любые промежуточные победы стоит проживать и отмечать, радоваться и праздновать, точно также как локальные неудачи не стоит "запихивать в шкаф скелетов", а так же полезно прожить горечь поражения в моменте, а не копить эти осадочки бесконечно долго забивая рутиной текущих задач.
Из этих небольших побед и поражений состоит наша жизнь, ее стоит проживать каждый день, максимально ярко и честно к самому себе. Не откладывая жизнь на потом.
#ментор #достижения #команда
Мой канал: Гуринович делится!
❤41👍10🎉7🔥6
Собирал статистику по участникам курса prompting.one - что было самой большой проблемой у людей в плане доступа к ChatGPT. Ответ простой, а решение - не очень. Делюсь, чтобы снять этот барьер.
OpenAI не любит пользователей из России и, на самом деле, ещё пары стран СНГ, а также не любит номера телефонов на +7 (привет, Казахстан, мой любимый).
1. Купить себе виртуальный номер можно, например, тут: @getPhoneNumberRoBot или в других аналогичных сервисах.
2. Вам нужен прайват VPN! Да, всё так. Чтобы всё работало корректно и вас не заблокировали, нужно сделать что-то своё. Здесь простой инструкции нет, на курсе мы сделали для участников просто отдельный сами. Но почти все публичные VPN были уже заблокированы.
Отдельно, если у вас уже есть аккаунт - мы внесли ряд обновлений в публичного бота @aihappens_bot. В настройках можно выбрать модель, с которой вы работаете, и ещё можно настроить, сколько сообщений бот будет помнить контекст (это влияет на ваше потребление токенов).
Надеюсь, вам это будет полезно и больше людей получат доступ к ChatGPT. ❤️💚
@aihappens
OpenAI не любит пользователей из России и, на самом деле, ещё пары стран СНГ, а также не любит номера телефонов на +7 (привет, Казахстан, мой любимый).
1. Купить себе виртуальный номер можно, например, тут: @getPhoneNumberRoBot или в других аналогичных сервисах.
2. Вам нужен прайват VPN! Да, всё так. Чтобы всё работало корректно и вас не заблокировали, нужно сделать что-то своё. Здесь простой инструкции нет, на курсе мы сделали для участников просто отдельный сами. Но почти все публичные VPN были уже заблокированы.
Отдельно, если у вас уже есть аккаунт - мы внесли ряд обновлений в публичного бота @aihappens_bot. В настройках можно выбрать модель, с которой вы работаете, и ещё можно настроить, сколько сообщений бот будет помнить контекст (это влияет на ваше потребление токенов).
Надеюсь, вам это будет полезно и больше людей получат доступ к ChatGPT. ❤️💚
@aihappens
❤🔥31👍17❤11🤡5🔥2😇1
из минусов варианта с bing - небольшая длинна входной информации + как будто это все же разные версии GPT4 microsoft vs open.ai, но чтобы попробовать первый раз - точно гуд вариант.
👍9❤🔥2🔥2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft анонсировал масштабное обновление своего чат-бота Bing Chat
🔹 Бот теперь работает на базе GPT-4 и доступен всем (перешел из private в public preview)!
🔹 Бот теперь умеет выдавать в ответе изображения, видео, графики. Довольно удобно, я попробовал. Но пока, кажется, сам он ничего не генерит, а выдает только то, что смог найти в интернете.
🔹 Бот может бронировать рестораны через OpenTable
🔹 Добавлена история чата
🔹 Улучшена интеграция с Microsoft Edge.
Кроме того, планируется открыть доступ к плагинам для сторонних разработчиков. Например, интегрировать Wolfram для визуализаций.
Из минусов — все ещё придется установить грёбаный Microsoft Edge, ведь в других браузерах Bing Chat не работает по умолчанию 🌚.
Но есть хак: ставите плагин и чат летает в любом браузере!
@ai_newz
🔹 Бот теперь работает на базе GPT-4 и доступен всем (перешел из private в public preview)!
🔹 Бот теперь умеет выдавать в ответе изображения, видео, графики. Довольно удобно, я попробовал. Но пока, кажется, сам он ничего не генерит, а выдает только то, что смог найти в интернете.
🔹 Бот может бронировать рестораны через OpenTable
🔹 Добавлена история чата
🔹 Улучшена интеграция с Microsoft Edge.
Кроме того, планируется открыть доступ к плагинам для сторонних разработчиков. Например, интегрировать Wolfram для визуализаций.
Из минусов — все ещё придется установить грёбаный Microsoft Edge, ведь в других браузерах Bing Chat не работает по умолчанию 🌚.
Но есть хак: ставите плагин и чат летает в любом браузере!
@ai_newz
🔥26❤5👍4❤🔥2