В Amazon кодинг стал напоминать работу на складе
AI не уволил разработчиков. Он просто сильно поменял их работу.
Теперь — всё быстрее, однотипнее и менее осмысленно. Некоторые инженеры Amazon говорят прямо: “Мы как будто превратились в складских — только вместо коробок таскаем фичи”.
— Команды стали меньше, а задач — столько же.
— Фичу, которую раньше делали за пару недель, теперь просят сдать за пару дней.
— Использование AI — не обязаловка, но по факту без него не уложишься в сроки.
AI помогает с кодом, но всё меньше ты сам что-то придумываешь, всё больше — проверяешь, что нагенерил ассистент. Один инженер прямо сказал: "Кажется, я просто смотрю, как идёт моя работа со стороны".
Особенно тяжело джунам 😭 AI отнимает у них рутину, через которую раньше все росли: тесты, проверки, повторные попытки. Без этого — и развиваться сложнее, и пройти наверх тяжелее. Если четсно, я вообще пока не понимаю, как джуны будут расти. Есть мнение?
Да, у AI есть плюсы: скучные задачи уходят, прототипы появляются быстрее.
Но вместе с этим уходит и время “подумать”, поэкспериментировать, обсудить с командой.
И это не только Amazon. В Google — уже треть кода пишет AI (по их заявлениям). В Shopify — навык работы с AI теперь влияет на перформанс-оценку.
Это не про увольнение. Это про то, что работа теряет что-то важное.
AI не отнимает профессии — он делает их другими. Тише, быстрее, без пауз. Интересно, как такие подходы будут влиять на выгорание сотрудников? Еще быстрее будут выгорать?
И теперь всё сложнее понять: ты ещё пишешь код — или просто проверяешь, как он пишет сам себя.
AI не уволил разработчиков. Он просто сильно поменял их работу.
Теперь — всё быстрее, однотипнее и менее осмысленно. Некоторые инженеры Amazon говорят прямо: “Мы как будто превратились в складских — только вместо коробок таскаем фичи”.
— Команды стали меньше, а задач — столько же.
— Фичу, которую раньше делали за пару недель, теперь просят сдать за пару дней.
— Использование AI — не обязаловка, но по факту без него не уложишься в сроки.
AI помогает с кодом, но всё меньше ты сам что-то придумываешь, всё больше — проверяешь, что нагенерил ассистент. Один инженер прямо сказал: "Кажется, я просто смотрю, как идёт моя работа со стороны".
Особенно тяжело джунам 😭 AI отнимает у них рутину, через которую раньше все росли: тесты, проверки, повторные попытки. Без этого — и развиваться сложнее, и пройти наверх тяжелее. Если четсно, я вообще пока не понимаю, как джуны будут расти. Есть мнение?
Да, у AI есть плюсы: скучные задачи уходят, прототипы появляются быстрее.
Но вместе с этим уходит и время “подумать”, поэкспериментировать, обсудить с командой.
И это не только Amazon. В Google — уже треть кода пишет AI (по их заявлениям). В Shopify — навык работы с AI теперь влияет на перформанс-оценку.
Это не про увольнение. Это про то, что работа теряет что-то важное.
AI не отнимает профессии — он делает их другими. Тише, быстрее, без пауз. Интересно, как такие подходы будут влиять на выгорание сотрудников? Еще быстрее будут выгорать?
И теперь всё сложнее понять: ты ещё пишешь код — или просто проверяешь, как он пишет сам себя.
2👍14😭10❤5👨💻3💊2🔥1
Гайд: как прокачать себя как вайб-разработчика в Cursor
Таких гайдов полно, и у каждого “вайбера” наверняка есть свои фишки и подходы. Но если ты только начинаешь разбираться в вайб-разработке с помощью Cursor, то этот гайд точно будет полезным, поможет снизить количество проблем и не разочароваться в этом деле:
Если у вас есть свои рекомендации, свои бест-практисы, пишите в комментариях о своих подходах и своих правилах в вайб-разработке😅
P.S. гайд не мой, но показался очень качественным и захотелось поделиться с вами
Таких гайдов полно, и у каждого “вайбера” наверняка есть свои фишки и подходы. Но если ты только начинаешь разбираться в вайб-разработке с помощью Cursor, то этот гайд точно будет полезным, поможет снизить количество проблем и не разочароваться в этом деле:
1. Прежде чем использовать Cursor, попросите Claude составить чёткий и подробный план в формате markdown (попросите его задавать уточняющие вопросы, затем критиковать собственный план и пересоздавать его). Добавьте этот план в файл instructions.md (чтобы вы могли часто ссылаться на него из Cursor).
– Я говорю ChatGPT, что хочу создать, потом прошу его составить инструкции для другого ИИ, который будет писать код. Потом я вставляю всё это в Cursor composer agent.
– По сути, ChatGPT добавляет дополнительный уровень планирования, что снижает вероятность возникновения проблем.
– В одном проекте Cursor начал выдавать ошибки и никак не мог с ними справиться. Я потратил кучу времени, застряв в цикле. Потом начал с нуля, но в этот раз я попросил ChatGPT o1 написать понятные инструкции для другого ИИ. Всё сработало как по маслу.
2. Используйте .cursorrules (они всегда работают в AI context), чтобы задавать общие правила. См. https://cursor.directory
– Например: сначала пишем тесты, затем код, потом запускаем тесты и дорабатываем код до тех пор, пока они не пройдут.
3. Поручайте агенту писать код поэтапно, небольшими итерациями в стиле Правка → Тестирование → Повтор
– Сформулируйте небольшую задачу или небольшое улучшение.
– Напишите (или поручите AI) тест, который должен провалиться на этом этапе.
– Дайте AI (обычно в Agent mode) команду написать код, чтобы пройти тест.
– Дайте команду AI запустить тест.
– Если тест не проходит, AI анализирует ошибку и пытается исправить код, возвращаясь к шагу выше.
– Когда тест проходит — разработчик проверяет и утверждает изменения.
4. Поощряйте цепочку размышлений (chain of thought) в ваших промптах
5. Если возникают проблемы, попросите Cursor сгенерировать отчёт со списком всех файлов, их назначением и описанием проблемы. Спросите у Claude или ChatGPT, как это исправить.
6. Используйте https://gitingest.com, чтобы собрать все скрипты, конфиги и нужные файлы (можно фильтровать по расширению) на одной странице, пригодной для обработки ChatGPT.
7. Используйте https://context7.com (для получения актуальной документации через MCP для кучи сервисов, API и SDK).
8. Используйте git для частого контроля версий. Не копите незафиксированные изменения (вот это вообще самое главное правило в вайб-кодинге).
9. Сохраняйте контекст коротким, явно добавляя файлы через @. Чем длиннее контекст, тем больше AI может уйти в сторону.
– Начинайте новый чат, если контекст стал слишком длинным.
10. Часто обновляйте и индексируйте код
– Используйте .cursorignore, чтобы исключать ненужные файлы
11. Используйте /Reference в открытых редакторах, чтобы быстро добавлять файлы в контекст
12. Дополнительно: включите YOLO mode (режим “делай, что нужно, не спрашивай каждый раз”), чтобы AI писал тесты
– Всегда разрешены любые виды тестов: vitest, npm test, nr test и т.д. Также базовые команды сборки вроде build, tsc, создание файлов и директорий (touch, mkdir и т.д.) тоже допустимы
13. Дополнительно: используйте System prompt в разделе “Rules for AI” в настройках Cursor:
– Держи ответы короткими и конкретными
– Предлагай альтернативные решения
– Избегай ненужных объяснений
– Отдавай приоритет техническим деталям, а не общим советам
Если у вас есть свои рекомендации, свои бест-практисы, пишите в комментариях о своих подходах и своих правилах в вайб-разработке
P.S. гайд не мой, но показался очень качественным и захотелось поделиться с вами
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37🔥11💊3
На обложке TIME — загадочный шар от Сэма Альтмана.
Этот девайс сканирует глаз, выдает крипту и говорит: ты человек.
Это не шутка. Устройство называется Orb. Смотришь в него пару секунд, и тебе на телефон прилетает World ID и немного Worldcoin. Всё это — попытка построить новую систему доверия в интернете, где боты и ИИ уже неотличимы от людей.
Orb уже ставят в США, Корее и других странах. План — проверить 50 миллионов человек до конца года. Но пока зарегистрировались только 12 млн. Многие идут просто за $42, не особо вникая что там дальше. Что будет с биоданными — непонятно.
Почему крипта? Это просто приманка. Так же, как когда-то PayPal платил за регистрацию, Worldcoin попытка заманить людей в экосистему. Чем больше людей пройдёт верификацию, тем ценнее сеть.
Если проект выстрелит, World ID может стать цифровым пропуском в интернет: соцсети, сервисы, даже гос услуги. Своего рода капча или единая верификация.
У меня, кстати, есть знакомые, которые уже получили свою крипту и прошли верификацию. Есть тут такие?
Этот девайс сканирует глаз, выдает крипту и говорит: ты человек.
Это не шутка. Устройство называется Orb. Смотришь в него пару секунд, и тебе на телефон прилетает World ID и немного Worldcoin. Всё это — попытка построить новую систему доверия в интернете, где боты и ИИ уже неотличимы от людей.
Orb уже ставят в США, Корее и других странах. План — проверить 50 миллионов человек до конца года. Но пока зарегистрировались только 12 млн. Многие идут просто за $42, не особо вникая что там дальше. Что будет с биоданными — непонятно.
Почему крипта? Это просто приманка. Так же, как когда-то PayPal платил за регистрацию, Worldcoin попытка заманить людей в экосистему. Чем больше людей пройдёт верификацию, тем ценнее сеть.
Если проект выстрелит, World ID может стать цифровым пропуском в интернет: соцсети, сервисы, даже гос услуги. Своего рода капча или единая верификация.
У меня, кстати, есть знакомые, которые уже получили свою крипту и прошли верификацию. Есть тут такие?
❤14👍8💊7🔥4👨💻1
Arc браузер всё 😭
Arc стал моим любимым браузером, который я мягко «навязывал» всем 😔
Разработку Arc заморозили. Новых фич больше не будет, только багфиксы. Не смогли пойти в масс-маркет и донести до всех в чём крутость Arc.
Теперь команда делает новый AI-браузер — Dia (альфа и по инвайтам). Как заявляют, он проще, понятнее, массовее. А Arc скорее всего продадут или выложат в open-source, но маловероятно.
CEO Джош Миллер пишет:
Грусть. Ведь теперь нужно снова думать куда переезжать и заново всё настраивать, хотя время до шат дауна думаю еще есть.
Arc стал моим любимым браузером, который я мягко «навязывал» всем 😔
Разработку Arc заморозили. Новых фич больше не будет, только багфиксы. Не смогли пойти в масс-маркет и донести до всех в чём крутость Arc.
Теперь команда делает новый AI-браузер — Dia (альфа и по инвайтам). Как заявляют, он проще, понятнее, массовее. А Arc скорее всего продадут или выложат в open-source, но маловероятно.
CEO Джош Миллер пишет:
Arc was simply too different, with too many new things to learn, for too little reward.
Грусть. Ведь теперь нужно снова думать куда переезжать и заново всё настраивать, хотя время до шат дауна думаю еще есть.
Please open Telegram to view this post
VIEW IN TELEGRAM
😭33❤3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Голосовой режим в Claude
В Claude начали раскатывать голосовой режим:
- Доступен пока только на английском и только в мобильных приложениях.
- Раскатывают на всех планах, для бесплатных лимит примерно 20-30 голосовых сообщений.
- В голосовом режиме можно попросить в том числе узнать расписание из Google календаря, проверить почту в Gmail и еще найти нужный документ на Google Диске.
Вот как в Anthropic описывают типичные сценарии использования голосового режима в Claude:
Подробнее о голосовом режиме и нюансах: тут
В Claude начали раскатывать голосовой режим:
- Доступен пока только на английском и только в мобильных приложениях.
- Раскатывают на всех планах, для бесплатных лимит примерно 20-30 голосовых сообщений.
- В голосовом режиме можно попросить в том числе узнать расписание из Google календаря, проверить почту в Gmail и еще найти нужный документ на Google Диске.
Вот как в Anthropic описывают типичные сценарии использования голосового режима в Claude:
– Планирование дня: начинайте утро с того, что Claude рассказывает вам о предстоящих встречах, важных письмах и актуальных новостях — пока вы собираетесь и настраиваетесь на день.
– Обучение: изучайте новые темы в формате диалога — по пути на работу, во время тренировок или домашних дел.
– Креативное мышление: проговаривайте идеи вслух вместе с Claude — особенно когда набор текста мешал бы вашему ходу мыслей.
– Подготовка: репетируйте собеседования или важные разговоры, ведя живой диалог с Claude — как с тренером, который всегда под рукой.
– Складирование идей: записывайте и развивайте мысль именно в тот момент, когда она приходят — где бы вы ни были и чем бы ни занимались.
Подробнее о голосовом режиме и нюансах: тут
👍12❤7🔥3
Media is too big
VIEW IN TELEGRAM
Вау, Дуров в ударе!
Telegram и xAI (компания Илона Маска) заключили годовое партнёрство: Grok официально представлен в Telegram на миллиардную аудиторию.
Сделка на $300M — из них часть наличкой, часть в доле xAI. Плюс Telegram получает 50% от всех подписок, оформленных внутри приложения.
Ситуация вин-вин для всех
Telegram и xAI (компания Илона Маска) заключили годовое партнёрство: Grok официально представлен в Telegram на миллиардную аудиторию.
Сделка на $300M — из них часть наличкой, часть в доле xAI. Плюс Telegram получает 50% от всех подписок, оформленных внутри приложения.
Ситуация вин-вин для всех
3🔥61👍11❤4🐳1🤣1👨💻1👾1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Джеффри Хинтон в новом интервью внезапно сказал, что у ИИ, возможно, уже есть эмоции
По его мнению, реальные и симулированные эмоции не такие уж и разные. У человека есть два аспекта эмоций: физиологический (как краснеть от смущения) и когнитивный. Когнитивный аспект – это, по сути, выученная реакция на раздражитель, усвоенное поведение.
Ждем, когда появятся движения за защиту чувств ИИ
youtu.be/uuOPOO90NBo
По его мнению, реальные и симулированные эмоции не такие уж и разные. У человека есть два аспекта эмоций: физиологический (как краснеть от смущения) и когнитивный. Когнитивный аспект – это, по сути, выученная реакция на раздражитель, усвоенное поведение.
«С точки зрения когнитивного поведения, эмоции машины могут быть такими же, как у нас»
Ждем, когда появятся движения за защиту чувств ИИ
youtu.be/uuOPOO90NBo
👍16🤣7🔥6💊2❤1👾1
С ChatGPT за продуктами заграницей
Сегодня впервые использовал Voice Mode + Screen sharing + Camera на iPhone для похода в магазин. Нет,
я конечно тестил это раньше, но больше посмотреть/поиграться как оно, а тут мне реально потребовалась помощь. В общем я в полном восторге!
Улетели отдохнуть в другую страну, зашли в супермаркет и сразу залипли. Всё на незнакомом языке, упаковки одинаковые, продукты похожи, но… чем они отличаются? Что за состав? Какой продукт среди множества выбрать? Это локальный товар или импортный? Точно ли нет орехов (у дочери аллергия)? Что вкуснее? Куча вопросов.
Включаю ChatGPT в голосовом режиме, даю доступ к экрану, сворачиваю приложение и запускаю камеру. Навожу на товар и спрашиваю всё, что мне нужно и получаю развернутый ответ. Ценники, состав, сравнения, отличия. Всё видит, слышит и отвечает.
Без такого ассистента я бы там завис над каждой полкой, вручную переводя. А тут бац и целая корзина собрана легко и с удовольствием. И главное, что даже не просто сфоткал, написал запрос текстом и получил текстовый ответ, а полностью голосовое общение как с человеком (иногда даже забываешься) и это реальная помощь!
Вот для таких сценариев, просто незаменимый помощник!
P.S. спрашивают почему не режим Камера внутри приложения ChatGPT? Этот режим равнозначен, но если нужно походу дела, чтобы ассистент отвечал и на вопросы по другому контенту, который вы видите на экране не только через камеру, то лучше сразу режим Поделиться экраном и уже там включать камеру. Удобней же 😀
Сегодня впервые использовал Voice Mode + Screen sharing + Camera на iPhone для похода в магазин. Нет,
я конечно тестил это раньше, но больше посмотреть/поиграться как оно, а тут мне реально потребовалась помощь. В общем я в полном восторге!
Улетели отдохнуть в другую страну, зашли в супермаркет и сразу залипли. Всё на незнакомом языке, упаковки одинаковые, продукты похожи, но… чем они отличаются? Что за состав? Какой продукт среди множества выбрать? Это локальный товар или импортный? Точно ли нет орехов (у дочери аллергия)? Что вкуснее? Куча вопросов.
Включаю ChatGPT в голосовом режиме, даю доступ к экрану, сворачиваю приложение и запускаю камеру. Навожу на товар и спрашиваю всё, что мне нужно и получаю развернутый ответ. Ценники, состав, сравнения, отличия. Всё видит, слышит и отвечает.
Без такого ассистента я бы там завис над каждой полкой, вручную переводя. А тут бац и целая корзина собрана легко и с удовольствием. И главное, что даже не просто сфоткал, написал запрос текстом и получил текстовый ответ, а полностью голосовое общение как с человеком (иногда даже забываешься) и это реальная помощь!
Вот для таких сценариев, просто незаменимый помощник!
P.S. спрашивают почему не режим Камера внутри приложения ChatGPT? Этот режим равнозначен, но если нужно походу дела, чтобы ассистент отвечал и на вопросы по другому контенту, который вы видите на экране не только через камеру, то лучше сразу режим Поделиться экраном и уже там включать камеру. Удобней же 😀
🔥67👍16❤11
AI как главный скилл новой эпохи
CEO Zapier: «Теперь мы хантим только специалистов, которые свободно используют AI в своей работе».
А как вообще понять, что человек действительно умеет работать с AI?
Вот список простых вопросов от Роберта Скобла, которые помогут это выяснить на интервью:
1. Покажи, как ты используешь ИИ в повседневной жизни.
2. Поделись примером MCP-сервера (или аналогичного проекта), который ты сам собрал.
3. Расскажи случай, когда ты использовал многошаговый промпт, чтобы решить задачу или разобраться в новой теме.
4. Если я дам тебе новую проблему — как бы ты подошёл к её решению с помощью ИИ?
5. Покажи пост в соцсетях, где ты рассказывал, как использовал ИИ на практике.
6. Как ты понимаешь, как работает большая языковая модель (LLM)? Объясни своими словами.
7. Вспомни случай, когда ИИ тебя подвёл или оказался бесполезен.
8. А почему ты прямо сейчас не используешь AI-пин, очки или кулон — что-то, что помогло бы тебе в этом интервью? 😉
9. Какие отличия ты заметил между Claude от Anthropic, ChatGPT от OpenAI, Gemini от Google и Grok от xAI?
10. Сядь с FactoryAI (платформа для автоматизации процесса разработки, тут как один из примеров) и сделай что-то своими руками — хоть простенькое приложение. Мне важно увидеть, как ты мыслишь и подходишь к задаче.
11. Представим, мы собираем робота. Как бы ты построил его «систему», чтобы он учился и становился умнее?
12. Как ты думаешь, над чем сейчас работают Сэм Альтман и Джони Айв? А если бы ты был на их месте — чем бы занялся?
Ну что, на сколько ваш AI-скилл уже прокачан?
CEO Zapier: «Теперь мы хантим только специалистов, которые свободно используют AI в своей работе».
А как вообще понять, что человек действительно умеет работать с AI?
Вот список простых вопросов от Роберта Скобла, которые помогут это выяснить на интервью:
1. Покажи, как ты используешь ИИ в повседневной жизни.
2. Поделись примером MCP-сервера (или аналогичного проекта), который ты сам собрал.
3. Расскажи случай, когда ты использовал многошаговый промпт, чтобы решить задачу или разобраться в новой теме.
4. Если я дам тебе новую проблему — как бы ты подошёл к её решению с помощью ИИ?
5. Покажи пост в соцсетях, где ты рассказывал, как использовал ИИ на практике.
6. Как ты понимаешь, как работает большая языковая модель (LLM)? Объясни своими словами.
7. Вспомни случай, когда ИИ тебя подвёл или оказался бесполезен.
8. А почему ты прямо сейчас не используешь AI-пин, очки или кулон — что-то, что помогло бы тебе в этом интервью? 😉
9. Какие отличия ты заметил между Claude от Anthropic, ChatGPT от OpenAI, Gemini от Google и Grok от xAI?
10. Сядь с FactoryAI (платформа для автоматизации процесса разработки, тут как один из примеров) и сделай что-то своими руками — хоть простенькое приложение. Мне важно увидеть, как ты мыслишь и подходишь к задаче.
11. Представим, мы собираем робота. Как бы ты построил его «систему», чтобы он учился и становился умнее?
12. Как ты думаешь, над чем сейчас работают Сэм Альтман и Джони Айв? А если бы ты был на их месте — чем бы занялся?
Ну что, на сколько ваш AI-скилл уже прокачан?
🔥41💊16❤9👍3🫡1
Apple просрала проспала момент
Пока в Купертино всё ещё думают, как бы никого не задеть вопросами приватности и аккуратно показать нам пару «AI features»(уже облажались с Apple Intelligence, показали, но так и не релизнули главного) на WWDC, Samsung просто берёт и делает. И правильно делает!
Сейчас Samsung обсуждает масштабное соглашение с Perplexity: предустановка приложения Perplexity на устройства, интеграция ассистента в браузер, вероятно и в Bixby и вообще во всю экосистему Galaxy. По слухам, Samsung хочет сделать Perplexity ассистентом по умолчанию в новых Galaxy S26. И большим плюсом ко всему, по слухам, Samsung будет крупнейшим инвестором в новом раунде Perplexity на $500 млн с оценкой на $14 млрд.
И да, Apple вроде как тоже вели переговоры с Perplexity. И вроде как о замене Google Search на Perplexity, а также как альтернативу ChatGPT для Siri. Но, похоже, не впечатлились настолько, чтобы начать действовать. Денег у них много, но тратить не спешат. А жаль.
В Perplexity, кстати, мягко намекали: купи меня, Apple, купи. Уже даже голосового ассистента на iOS сделали, в разы круче Siri.
WWDC уже на носу, но по слухам нам не стоит ждать ничего интересного связанного с AI. Ни условного “Codex”, ни агентов, ни AI движухи. Не таких действий ожидаешь от компании, которая всегда задавала темп и тренд всему рынку. А жаль.
Пока в Купертино всё ещё думают, как бы никого не задеть вопросами приватности и аккуратно показать нам пару «AI features»
Сейчас Samsung обсуждает масштабное соглашение с Perplexity: предустановка приложения Perplexity на устройства, интеграция ассистента в браузер, вероятно и в Bixby и вообще во всю экосистему Galaxy. По слухам, Samsung хочет сделать Perplexity ассистентом по умолчанию в новых Galaxy S26. И большим плюсом ко всему, по слухам, Samsung будет крупнейшим инвестором в новом раунде Perplexity на $500 млн с оценкой на $14 млрд.
И да, Apple вроде как тоже вели переговоры с Perplexity. И вроде как о замене Google Search на Perplexity, а также как альтернативу ChatGPT для Siri. Но, похоже, не впечатлились настолько, чтобы начать действовать. Денег у них много, но тратить не спешат. А жаль.
В Perplexity, кстати, мягко намекали: купи меня, Apple, купи. Уже даже голосового ассистента на iOS сделали, в разы круче Siri.
WWDC уже на носу, но по слухам нам не стоит ждать ничего интересного связанного с AI. Ни условного “Codex”, ни агентов, ни AI движухи. Не таких действий ожидаешь от компании, которая всегда задавала темп и тренд всему рынку. А жаль.
3👍32❤8🔥4🍓2
o3-pro на подходе
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании😈
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤6🍓3 2
Media is too big
VIEW IN TELEGRAM
Thomas Iljic, product lead в Veo 3, высказал интересные мысли — что видео, симуляции, игры, всё это начинает сливаться в нечто единое. Не контент по раздельности, а симулированная реальность, которую можно ставить на паузу, переписывать, проживать заново. Запахло “Черным зеркалом” 😀
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
❤23🤔7
“Память” в ChatGPT теперь бесплатная
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе😬 )
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15
Media is too big
VIEW IN TELEGRAM
Сэм Альтман говорит о будущем ИИ не как о гигантской модели, а как раз наоборот. Будущее за очень компактной моделью, которая умеет рассуждать лучше человека.
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
❤32👍8🫡1
Forwarded from Data Secrets
OpenAI показали большое обновление ChatGPT для бизнеса: теперь в бота можно интегрировать любые базы знаний вашей компании
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей🤑
Ну и, по классике, ищем на скрине со стрима пасхалки⬆️
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей
Ну и, по классике, ищем на скрине со стрима пасхалки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍3❤1🫡1
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣12👨💻1
Полный список коннекторов, которые анонсировали в ChatGPT
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
❤13👍7
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видео от OpenAI как подключить кастомный (свой) MCP в виде коннектора для ChatGPT Deep Search.
🔥16👍4❤2
И немного подробностей про record mode.
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
🔥18❤7👍4
Media is too big
VIEW IN TELEGRAM
Ура! Большой релиз Cursor версии 1.0
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
🔥13❤8👍3👾1
Forwarded from Zavtracast (Ярослав Ивус)
Nucleus представила услугу Embryo, которая позволяет узнать детальные характеристики ребёнка до рождения. Это выглядит, как выбор персонажа в игре.
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
🔥14❤3👍2 2