Ах, и ты туда же? А я хотел еще поработать, а он вон что!
Я слышал, что ChatGPT ленится в разные периоды года, но не настолько же 😅
Всех с началом майских!👽
ИИволюция
Я слышал, что ChatGPT ленится в разные периоды года, но не настолько же 😅
Всех с началом майских!
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
😁16🙈3🔥2❤1😈1
Forwarded from Дизраптор
Media is too big
VIEW IN TELEGRAM
Беспилотник в Индии - это вам не по Долине кататься
Пока западные беспилотные омежки от Waymo и Cruise впадают в ступор от дорожного конуса на капоте и шугаются от чувака в майке со знаком "Стоп", стартап Swaayatt Robots из индийского города Бхопал демонстрирует свою гигачад-систему беспилотного движения.
Дорожное движение в Индии - это вам не по прямым калифорнийским шоссе рассекать. Здесь дорогу беспорядочно перебегают люди (и коровы). Рои мопедов, тук-туков и каких-то неопознанных свистоперделок то и дело норовят вас подрезать. Дорожные знаки, светофоры и разметка выполняют исключительно рекомендательную функцию, а проехаться по встречке - вполне нормальный шорткат. Да и вообще, "дорога" - это весьма условное понятие.
На видео джип с системой автономного вождения от Swaayatt Robots вполне успешно справляется с задачами в индийских условиях. Стартап уже 7 лет занимается беспилотьем, уделяя особое внимание движению по хардкорному бездорожью и при крайне напряженном городском трафике. Как видно из видео, получается неплохо.
Не удивлюсь, если именно в Индии появится первая система в мире, полностью соответствующая пятому уровню автономности.
Как говорится, same same but different.
Дизраптор
Пока западные беспилотные омежки от Waymo и Cruise впадают в ступор от дорожного конуса на капоте и шугаются от чувака в майке со знаком "Стоп", стартап Swaayatt Robots из индийского города Бхопал демонстрирует свою гигачад-систему беспилотного движения.
Дорожное движение в Индии - это вам не по прямым калифорнийским шоссе рассекать. Здесь дорогу беспорядочно перебегают люди (и коровы). Рои мопедов, тук-туков и каких-то неопознанных свистоперделок то и дело норовят вас подрезать. Дорожные знаки, светофоры и разметка выполняют исключительно рекомендательную функцию, а проехаться по встречке - вполне нормальный шорткат. Да и вообще, "дорога" - это весьма условное понятие.
На видео джип с системой автономного вождения от Swaayatt Robots вполне успешно справляется с задачами в индийских условиях. Стартап уже 7 лет занимается беспилотьем, уделяя особое внимание движению по хардкорному бездорожью и при крайне напряженном городском трафике. Как видно из видео, получается неплохо.
Не удивлюсь, если именно в Индии появится первая система в мире, полностью соответствующая пятому уровню автономности.
Как говорится, same same but different.
Дизраптор
🔥26🙈5👍2🤯2😁1
Forwarded from Сиолошная
Вчера на LMSYS Arena (место, где живые люди вслепую сравнивают генерации разных LLM и выбирают лучшую) появилась странная модель:
Предлагаю вам самим поиграться тут: https://chat.lmsys.org/ (вкладка Direct Chat, там выбрать модель в выпадающем списке). Ограничение всего 8 сообщений в сутки, пользуйтесь с умом (или используйте VPN и режим инкогнито, кек).
На реддите люди тестируют свои задачки, которые якобы не решаются моделями предыдущих поколений, а эта либо щелкает, либо куда ближе к ответу, чем остальные. Треды почитать: 1, 2, 3.
Мой опыт:
— я дал ей простую задачку
— с таким же промптом (и даже с уточнениями) GPT-4-Turbo выдала лишь чб-рендер одного объекта, в куда менее удобном стиле написания кода. Тут не получилось быстро добавить на сцену объектов, в то время как у обсуждаемой модели всё было очень круто организовано.
— ещё по паре вопросов я заметил, что модель то ли делает паузы (особенно в начале), то ли просто зависает интернет-соединение. Возможно, под капотом есть Retrieval по интернету — и модель опирается на что-то со страниц из поисковика. Пока на Арене всего одна модель ходит в интернет (гугловский Бард), может, аугментировали GPT-4🤷♂️
Что можно сказать про модель:
— Вот тут ребята сделали быстрое тестирование. Модель утверждает, что её сделали OpenAI, она ведётся на те же ловушки странных-редких токенов, на которые ведутся их модели (а другие модели — нет, потому что у них другой набор токенов). Скорее всего, это не просто дообученная LLAMA-3 или какая-то другая модель.
— На Arena для неё используют тот же системный промпт, что и для последней GPT-4-Turbo
— пользователи сравнивали ASCII-арт, просили нарисовать единорога, и модель давала такой же ответ, как и ChatGPT. Причём именно такой же единорог есть в интернете — либо модель его нашла и срисовала, либо выучила наизусть во время тренировки, и теперь воспроизводит. А какие-то рисует лучше🤷♂️
— формат ответа очень напоминает формат ответа Gemini, расписывает всё по пунктам и подпунктам. Мне код, например, писала в 5 или 6 этапов.
— некоторые пользователи говорят, что им ответы модели нравятся теперь меньше(🔫
Короче, очень интересно, чем окажется модель, и когда это вскроется. И тем более какое у неё будет место на лидерборде. Поживём — увидим!
Но просто напомню, что GPT-4 была запущена как часть Bing Chat за 5 недель до официального анонса 🤡 а потом все такие «вау!»
Пишите в комменты про ваш опыт использования 👇 только не выбирайте слишком сложные задачи, модель прям не настолько лучше, чтобы претендовать на звание AGI.
gpt2-chatbot
. И несмотря на то, что по названию можно подумать о слабости модели, она, внезапно, очень хороша. Настолько, что люди гадают, кто же её сделал, является ли это GPT-4.5 / 5, или может это свежий релиз Gemini Ultra 2.0.Предлагаю вам самим поиграться тут: https://chat.lmsys.org/ (вкладка Direct Chat, там выбрать модель в выпадающем списке). Ограничение всего 8 сообщений в сутки, пользуйтесь с умом (или используйте VPN и режим инкогнито, кек).
На реддите люди тестируют свои задачки, которые якобы не решаются моделями предыдущих поколений, а эта либо щелкает, либо куда ближе к ответу, чем остальные. Треды почитать: 1, 2, 3.
Мой опыт:
— я дал ей простую задачку
Show me an example of 3d ray tracing (with python). Set a simple scene, different light sources, etc.
и получил полностью работающий код (в 2 или 3 ответа) с первого раза. Он учитывал материал объектов, включая цвет и уровень отражения. У меня получилось отрисовать сферу, на которой было два блика от двух источников света. После я попросил добавить поддержку не только сферы, но любой произвольной 3D-модели. Это заработало со второго раза — новонаписанный код был правильным, но оказалось, что нужно слегка изменить предыдущий. Скормив ошибку, получил работающее решение — и немного покрутив камеру увидел, что движок даже отражения от поверхностей учитывает!— с таким же промптом (и даже с уточнениями) GPT-4-Turbo выдала лишь чб-рендер одного объекта, в куда менее удобном стиле написания кода. Тут не получилось быстро добавить на сцену объектов, в то время как у обсуждаемой модели всё было очень круто организовано.
— ещё по паре вопросов я заметил, что модель то ли делает паузы (особенно в начале), то ли просто зависает интернет-соединение. Возможно, под капотом есть Retrieval по интернету — и модель опирается на что-то со страниц из поисковика. Пока на Арене всего одна модель ходит в интернет (гугловский Бард), может, аугментировали GPT-4
Что можно сказать про модель:
— Вот тут ребята сделали быстрое тестирование. Модель утверждает, что её сделали OpenAI, она ведётся на те же ловушки странных-редких токенов, на которые ведутся их модели (а другие модели — нет, потому что у них другой набор токенов). Скорее всего, это не просто дообученная LLAMA-3 или какая-то другая модель.
— На Arena для неё используют тот же системный промпт, что и для последней GPT-4-Turbo
— пользователи сравнивали ASCII-арт, просили нарисовать единорога, и модель давала такой же ответ, как и ChatGPT. Причём именно такой же единорог есть в интернете — либо модель его нашла и срисовала, либо выучила наизусть во время тренировки, и теперь воспроизводит. А какие-то рисует лучше
— формат ответа очень напоминает формат ответа Gemini, расписывает всё по пунктам и подпунктам. Мне код, например, писала в 5 или 6 этапов.
— некоторые пользователи говорят, что им ответы модели нравятся теперь меньше(
Короче, очень интересно, чем окажется модель, и когда это вскроется. И тем более какое у неё будет место на лидерборде. Поживём — увидим!
Пишите в комменты про ваш опыт использования 👇 только не выбирайте слишком сложные задачи, модель прям не настолько лучше, чтобы претендовать на звание AGI.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤4🤩2
This media is not supported in your browser
VIEW IN TELEGRAM
AI не сократит количество рабочих мест, а наоборот?!
Jonathan Ross, CEO компании Groq, утверждает, что с активным внедрением AI в различные сферы, количество рабочих мест не уменьшится, а увеличится.
Это отражение "парадокса Джевонса", который говорит о том, что внедрение новых технологий может не только повысить производительность, но и увеличить количество рабочих мест.
Вот пример, появление печатных машинок сделало процесс копирования документов быстрее и дешевле (до этого офисные клерки переписывали документы в ручную), что позволило компаниям чаще пользоваться этими услугами. В результате, вместо сокращения, потребность в клерках возросла, так как бизнес стал эффективнее и масштабировался.
Современные технологии, включая искусственный интеллект, аналогично могут создавать новые рабочие места, даже в секторах, кажущихся на первый взгляд под угрозой автоматизации.
ИИволюция🔤
Jonathan Ross, CEO компании Groq, утверждает, что с активным внедрением AI в различные сферы, количество рабочих мест не уменьшится, а увеличится.
Это отражение "парадокса Джевонса", который говорит о том, что внедрение новых технологий может не только повысить производительность, но и увеличить количество рабочих мест.
Вот пример, появление печатных машинок сделало процесс копирования документов быстрее и дешевле (до этого офисные клерки переписывали документы в ручную), что позволило компаниям чаще пользоваться этими услугами. В результате, вместо сокращения, потребность в клерках возросла, так как бизнес стал эффективнее и масштабировался.
Современные технологии, включая искусственный интеллект, аналогично могут создавать новые рабочие места, даже в секторах, кажущихся на первый взгляд под угрозой автоматизации.
ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍7❤2
This media is not supported in your browser
VIEW IN TELEGRAM
О, Google добавил вызов Gemini прям из адресной строки Chrome браузера.
Просто укажите в начале запроса @ и введите сам запрос.
Выглядит очень правильным шагом и очень удобно! Правда пока только в США, но мы же живём в открытом мире без границ, кто ж нас остановит потестить😎
🔤 ИИволюция
Просто укажите в начале запроса @ и введите сам запрос.
Выглядит очень правильным шагом и очень удобно! Правда пока только в США, но мы же живём в открытом мире без границ, кто ж нас остановит потестить
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14
И как то очень синхронно с новостью выше, на сайте openai.com обновился дизайн и центральным элементом стала строка для ввода запроса, которая перекидывает в чат джи-пи-ти 😀
Кто у кого подсмотрел?🤔
🔤 ИИволюция
Кто у кого подсмотрел?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну всё, кажется точно ждём в ближайшее время новую GPT модель.
Сэм Альтман врать не будет: «GPT-4 is the dumbest model any of you will ever ever have to use again, by a lot.»
Сначала неожиданное появление неизвестной миру модели gpt2-chatbot на чатбот арене, теперь слова «GPT-4 тупейшая модель, которую вам когда-либо придется использовать», подчеркивая тем самым, что впереди нас жду гораздо более продвинутые модели и на их фоне, GPT-4 будет казаться детским лепетом. Прогрев в стиле инста блоггеров перед анонсом курса «Как стать миллионером».
Сэм просто ждёт окончания майских, чтобы снова удивить нас 🫶🏻
🔤 ИИволюция
Сэм Альтман врать не будет: «GPT-4 is the dumbest model any of you will ever ever have to use again, by a lot.»
Сначала неожиданное появление неизвестной миру модели gpt2-chatbot на чатбот арене, теперь слова «GPT-4 тупейшая модель, которую вам когда-либо придется использовать», подчеркивая тем самым, что впереди нас жду гораздо более продвинутые модели и на их фоне, GPT-4 будет казаться детским лепетом. Прогрев в стиле инста блоггеров перед анонсом курса «Как стать миллионером».
Сэм просто ждёт окончания майских, чтобы снова удивить нас 🫶🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤5😁3
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI планирует запустить AI поисковик
1. Первые слухи о том, что OpenAI собирается запустить собственный поисковик были еще в начале февраля.
2. Сэм Альтман затрагивал тема поиска + LLM в подкасте у Лекса Фридмана.
3. А в последнее время информация о SearchGPT всё чаще и чаще появляется в разных источниках от разного рода инсайдеров (один, два, три).
4. Даже домен search.openai.com готов и на него есть SSL сертификат.
5. Новая главная (в шапке) openai.com после редизайна уже выглядит как поисковая строка (но пока перекидывает в chat). Тонкий намёк?
6. Один из инсайдеров пишет, что OpenAI представит свой поисковик 9 мая.
7. Кодовое название SearchGPT: судя по всему это аналог Perplexity AI, который за вас сёрфит, находит ответы, суммарзирует содержимое страниц.
8. В коде сайта openai даже поддержку виджетов нашли: погода, калькулятор (что? зачем?), финансы, спорт и прочее.
9. В общем, в мае точно стоит ожидать больших анонсов от openai, в том числе новой модели GPT.
10. Кажется, что Perplexity точно сейчас в напряжении, и кажется не только они одни.
Ух, жду не дождусь 🍿🤔
🔤 ИИволюция
1. Первые слухи о том, что OpenAI собирается запустить собственный поисковик были еще в начале февраля.
2. Сэм Альтман затрагивал тема поиска + LLM в подкасте у Лекса Фридмана.
3. А в последнее время информация о SearchGPT всё чаще и чаще появляется в разных источниках от разного рода инсайдеров (один, два, три).
4. Даже домен search.openai.com готов и на него есть SSL сертификат.
5. Новая главная (в шапке) openai.com после редизайна уже выглядит как поисковая строка (но пока перекидывает в chat). Тонкий намёк?
6. Один из инсайдеров пишет, что OpenAI представит свой поисковик 9 мая.
7. Кодовое название SearchGPT: судя по всему это аналог Perplexity AI, который за вас сёрфит, находит ответы, суммарзирует содержимое страниц.
8. В коде сайта openai даже поддержку виджетов нашли: погода, калькулятор (что? зачем?), финансы, спорт и прочее.
9. В общем, в мае точно стоит ожидать больших анонсов от openai, в том числе новой модели GPT.
10. Кажется, что Perplexity точно сейчас в напряжении, и кажется не только они одни.
Ух, жду не дождусь 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥8
This media is not supported in your browser
VIEW IN TELEGRAM
Как работает LLM
Наглядно и по шагам показана вся магия. Смотреть по ссылке - https://ig.ft.com/generative-ai/
🔤 ИИволюция
Наглядно и по шагам показана вся магия. Смотреть по ссылке - https://ig.ft.com/generative-ai/
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16🤩5
Media is too big
VIEW IN TELEGRAM
Вау, первый музыкальный клип "The Hardest Part" созданный с помощью Sora от OpenAI🤩
Авто видео Paul Trillo сгенерировал 55 отдельных коротких роликов и склеил их в одно видео с помощью Adobe Premier.
Пол пишет: «I leaned into the hallucinations, the strange details, the dream-like logic of movement, the distorted mirror of memories, the surreal qualities unique to Sora / AI that differentiate it from reality. Embrace the strange.»
Синтетический мир уже здесь👁
🔤 ИИволюция
Авто видео Paul Trillo сгенерировал 55 отдельных коротких роликов и склеил их в одно видео с помощью Adobe Premier.
Пол пишет: «I leaned into the hallucinations, the strange details, the dream-like logic of movement, the distorted mirror of memories, the surreal qualities unique to Sora / AI that differentiate it from reality. Embrace the strange.»
Синтетический мир уже здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17🙈5❤🔥2❤1👍1
Ранее я уже писал множество слухов о том, что нас ждет нового-ИИшного в iOS 18. Почитать можно тут 👈
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤5🔥4🤩3
Завтра ждём GPT-4.5?
Описание для GPT-4 изменили с “Our most avanced model” на “Advanced model”. Т.е. уже не такая и мощная! По тихому изменили и думали прокатит и никто не заметит? 😄
Это может говорить о том, что завтра нас ждет обновление GPT-4 до более сильной модели и очень надеюсь с сильно большим контекстным окном.
Кстати, Сэм Альтман тизерил умного ассистента под кодовым названием Magic. Случится ли магия? Узнаем завтра!
А еще ходят слухи о новой модели gpt-4l (видимо от слова lite). А вдруг gpt-3.5 заменят на неё? Было бы супер круто!
Уже завтра состоится долгожданная презентация OpenAI, где по словам Сэма, точно не будет презентована GPT-5 и поисковый движок, о котором все писали (увидим, но видимо позже).
🔤 ИИволюция
Описание для GPT-4 изменили с “Our most avanced model” на “Advanced model”. Т.е. уже не такая и мощная! По тихому изменили и думали прокатит и никто не заметит? 😄
Это может говорить о том, что завтра нас ждет обновление GPT-4 до более сильной модели и очень надеюсь с сильно большим контекстным окном.
Кстати, Сэм Альтман тизерил умного ассистента под кодовым названием Magic. Случится ли магия? Узнаем завтра!
А еще ходят слухи о новой модели gpt-4l (видимо от слова lite). А вдруг gpt-3.5 заменят на неё? Было бы супер круто!
Уже завтра состоится долгожданная презентация OpenAI, где по словам Сэма, точно не будет презентована GPT-5 и поисковый движок, о котором все писали (увидим, но видимо позже).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥10
Засветились обновы в ChatGPT: режим Dynamic, название новых моделей
1. Умельцы расковыряли код веб страниц (или А/Б запущен на небольшую тестовую аудиторию) и нашли новый режим Dynamic с кратким описанием “Optimized for speed and intelligence”
И даже ссылка есть на подробное описание режима в блоге OpenAI:
Другими словами, модель будет выбираться автоматически исходя из сложности запроса. Для сложных задач будет использоваться GPT-4, а для задач, которые как говорится изи-пизи решить проще пареной репы, будет использоваться GPT-3.5
2. Засветились названия новых моделей: gpt-4l, gpt-4l-auto, gpt-4-auto. Тут уже расковыряли последнее обновление Андроид приложения чат джи-пи-ти (ChatGPT 1.2024.122 for Android)
Ну чтож! Ждем завтра презентацию от OpenAI, на которой мы уже частично знаем, что увидим✔️
🔤 ИИволюция
1. Умельцы расковыряли код веб страниц (или А/Б запущен на небольшую тестовую аудиторию) и нашли новый режим Dynamic с кратким описанием “Optimized for speed and intelligence”
И даже ссылка есть на подробное описание режима в блоге OpenAI:
When the Dynamic option is selected, we’ll automatically choose the best model to use for your request based on a combination of intelligence, capabilities, and speed. In practice, this means that GPT-4 will be used for most tasks. For easier ones, we may use GPT-3.5 to speed up responses and save your limited GPT-4 messages.
Другими словами, модель будет выбираться автоматически исходя из сложности запроса. Для сложных задач будет использоваться GPT-4, а для задач, которые как говорится изи-пизи решить проще пареной репы, будет использоваться GPT-3.5
2. Засветились названия новых моделей: gpt-4l, gpt-4l-auto, gpt-4-auto. Тут уже расковыряли последнее обновление Андроид приложения чат джи-пи-ти (ChatGPT 1.2024.122 for Android)
Ну чтож! Ждем завтра презентацию от OpenAI, на которой мы уже частично знаем, что увидим
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍8🤯3🤩1
Презентация OpenAI стартует уже вот-вот, в 20:00 МСК (хотя если перейти по ссылке, пишет осталось менее 30 минут).
Смотреть тут: https://www.youtube.com/watch?v=DQacCB9tDaw
Смотреть тут: https://www.youtube.com/watch?v=DQacCB9tDaw
YouTube
Introducing GPT-4o
OpenAI Spring Update – streamed live on Monday, May 13, 2024.
Introducing GPT-4o, updates to ChatGPT, and more.
Introducing GPT-4o, updates to ChatGPT, and more.
🔥11👍6
- GPT-4o, где “о” это omni или универсальная: Модель работает с текстом, фото и видео одновременно.
- Но самый кайф, что она в реальном времени понимает видео: Можно показать изображение с камеры или расшарить изображение экрана на десктопе, и она моментально начнет с этим контекстом работать. Это просто отрыв головы!
- Голос! Нет, не так. Голооооооосище! Вы это слышали? Она нативно работает со звуком и практически моментально отвечает (раньше была задержка в несколько секунд перед ответом), а главное, её можно перебивать, и она улавливает изменение контекста и отвечает в ответ. Все голосовые ассистенты конкурентов сейчас просто провалились на дно!
- Не просто голос, а эмоциональная окраска речи ассистента: Он понимает ваши эмоции по голосу и подстраивается, может шутить и даже петь. Может легко менять свой голос и говорить голосами разных персонажей.
- Перевод речи в реальном времени: Да там столько кейсов и сценариев, что мама не горюй! Уверен, что энтузиасты уже кучу видосов отгрузили в Твиттере (нужно пойти разбирать и поделиться лучшими с вами чуть позже).
- В демо даже показали, как 2 ассистента поют на разных устройствах одну песню. Фантастика! (Ниже ссылка на все демо видео, где ассистента используют в разных сценариях. Это точно стоит посмотреть!)
- GPT-4o уже доступна разработчикам через API: Она быстрее и дешевле в два раза.
- А еще выпустили десктопное приложение: Никаких больше веб-версий. Ассистент видит ваш экран, помогает с кодом и другими задачами.
- Все новые голосовые и видео возможности будут постепенно появляться у Plus подписчиков. Ждем!
Сколько стартапов сегодня полегло? Я даже не представляю.
И на мой взгляд, OpenAI - это новая Apple в создании магии на своих презентациях. Реально магия! Apple же каждый год показывает нам, как они сделали новый айфон еще тоньше и чуть быстрее. А тут прям магия, сидишь с большими глазами от удивления всю презентацию.
Будущее наступило сегодня ночью!
Ссылочки:
- Презентация
- Подборка видео с демонстрацией ассистента в разных сценариях
- Обновленная страница с ценами на доступ по API
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33🔥20👍10🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
А еще под шумок релиза GPT-4o, OpenAI обновили Playground для разработчиков.
Я уже успел затестить, чистый кайф! Теперь доступен Vision, можно промпт подкреплять изображением. Поддерживаемые форматы .jpeg .jpg .gif .png
🤖 ИИволюция
Я уже успел затестить, чистый кайф! Теперь доступен Vision, можно промпт подкреплять изображением. Поддерживаемые форматы .jpeg .jpg .gif .png
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥2
А вот наглядная демонстрация падения стоимости токенов с релизом каждой новой модели:
1. GPT-4 $36 за 1 млн токенов
2. GPT-4 Turbo $14 за 1 млн токенов
3. GPT-4o $7 за 1 млн токенов
Разработчики, поменяв одну строчку в коде (сменив название одной модели на новую), режут свои затраты на использование GPT моделей в 2 раза. Порой это внушительные затраты и еще более внушительная экономия. Это ли не восторг?!
Технологии совершенствуются и при этом становятся дешевле!
🤖 ИИволюция
1. GPT-4 $36 за 1 млн токенов
2. GPT-4 Turbo $14 за 1 млн токенов
3. GPT-4o $7 за 1 млн токенов
Разработчики, поменяв одну строчку в коде (сменив название одной модели на новую), режут свои затраты на использование GPT моделей в 2 раза. Порой это внушительные затраты и еще более внушительная экономия. Это ли не восторг?!
Технологии совершенствуются и при этом становятся дешевле!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32❤2
Кажется, тема (а с другой стороны проблема) с AI-гёрлфрендами и бойфрендами станет еще более актуальной у подростков и одиноких людей. Уже сейчас люди подсаживаются на общение с AI и частично или даже полностью замещают общение с противоположным полом.
Не вымрем ли мы постепенно как вид? 🤔
Не вымрем ли мы постепенно как вид? 🤔
❤🔥17😁8🔥5🙈5😢1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
GPT-4o поводырь
Посмотрите, прогрузите это видео.
Для слепых людей - это может быть другим уровнем жизни.
Особенно, когда появятся лёгкие умные очки, с которыми можно разговаривать и которые будут поводырем совершенно иного уровня.
А постоянный стриминг реальности в аудио-речь может заставить мозг пластично адаптироваться к новому сигналу и начать "видеть" мир. По другому, но видеть. Особенно для тех, кто потерял зрение уже будучи зрячим, имея картину мира сформированной.
Посмотрите, прогрузите это видео.
Для слепых людей - это может быть другим уровнем жизни.
Особенно, когда появятся лёгкие умные очки, с которыми можно разговаривать и которые будут поводырем совершенно иного уровня.
А постоянный стриминг реальности в аудио-речь может заставить мозг пластично адаптироваться к новому сигналу и начать "видеть" мир. По другому, но видеть. Особенно для тех, кто потерял зрение уже будучи зрячим, имея картину мира сформированной.
❤27🔥12👍5
Подул ветер перемен 🤡
Только сегодня читал, что в мире наступает «демографическая зима». Люди всё меньше хотят рожать детей либо отодвигают этот момент слишком далеко за 30+.
А тут еще и AI начинает заменять живое общение.
Мы точно обречены как вид😅
Только сегодня читал, что в мире наступает «демографическая зима». Люди всё меньше хотят рожать детей либо отодвигают этот момент слишком далеко за 30+.
А тут еще и AI начинает заменять живое общение.
Мы точно обречены как вид😅
😁29😢7👍5❤2👎1🔥1