ИИволюция 👾
10.4K subscribers
740 photos
327 videos
1 file
697 links
Авторский канал Сергея Пахандрина про AI, нейросети, вайб-разработку, ChatGPT (и другие LLM). Рассказываю о своём опыте и экспериментах с AI.

По всем вопросам: @pakhandrin
Download Telegram
AI гонка набирает обороты

- Grok 4 стал бесплатен для всех (запросов бесплатно мало, но они теперь есть!).

- GPT-5 Thinking 3000 запросов в неделю в Plus. Ого!

- А еще в Твиттере теперь можно любое фото превратить в видео с помощью Grok (доступно в последнем обновлении приложения Х).
👍2010🔥6
Forwarded from EDU (Bayram Annakov)
Как я сэкономил 2 часа в день, убрав 11 тыс (!) переключений между приложениями на Маке

Сегодня закодил Automation Assassin (охотника за автоматизациями): приложение, которое:
1) анализирует историю использования приложений и посещения сайтов, и находит повторяющиеся паттерны и петли (death loops).

Например, выяснилось, что я за неделю делал 11К (!) переключений: в основном, между Cursor и Safari, между Телегой и Safari. В некоторые дни пик переключений был почти 2 тыс (!) за один час

2) потом смотрит их глубже, интерпретирует с помощью LLM и спрашивает у меня допконтекста, чтобы понять, почему я так делаю

3) далее при помощи того же AI генерирует код и автоматизирует мою работу, сократив эти ненужные переключения. Например,
- почему я часто переключался между Cursor и браузером? Потому что тестировал веб приложение. Так вот Assassin ставит MCP сервер для автотестирования или пишет скрипт для горячей клавиши, делящей мой экран в пропорции 60 на 40 между этими аппами, чтобы я мог не переключаться
- еще, как оказалось, по вечерам я зачастую пока работаю включаю какое-нибудь видео или сериал. Просто для фона. И пока я жду, что Claude Code доделает задачу, я переключаюсь посмотреть видео, а потом возвращаюсь назад, когда он закончил, или чтобы помониторить как у него идут дела. Из за этого я постоянно прыгаю между экранами (иногда еще и Телега в этот цикл вклинивается). Поэтому то же решение по сплит скрину, но уже на 3 аппа - см скриншот —> в правом верхнем это amazon prime video, просто при скриншоте лицензионный контент скрывается темным экраном.
- и совсем уже странное: из за мышечной памяти я иногда по ошибке на полсекунды-секунды переключаюсь не на тот апп и возвращаюсь обратно o__O тут, опять же скрипт, который отслеживает, и если таких много в короткий период, то рекомендует мне закрыть апп, чтобы не мешался, или опять же поделить экран

4) некоторое поведение невозможно просто решить автоматизацией; это может быть фикс симптома, а не более глубокой проблемы. Поэтому тут на помощь уже нужна какая-то обучающая/коучинговая система, которую я пока до конце не продумал, но планирую. Будут идеи или мысли - велком в комментарии

5) и в конце оценка эффекта от автоматизации во времени в деньгах. По минимальным оценкам автоматизации, что я себе включал после анализа, мне "сэкономят" десятки тысяч баксов в год.

Вот шагами 2-4 этот тул имхо радикально отличается от классических трекеров или систем повышения производительности имхо.

В общем, очень интересный опыт самоанализа и внезапно узнал, что можно достаточно легко получить доступ к этим данным на Маке - репо тут, но еще не до конца оформленный, добью на днях. Ну и буду запускать такой анализ регулярно и чекать результат, отрабатывать другие "вредные привычки", и расширять варианты автоматизации/избавления от оных.
👍20🔥149🤣93👾2
Мир, где все пишут всех. 24/7

Кажется, мы официально вошли в эпоху, где слово не просто не воробей, оно тут же улетает в чью-то транскрибацию, попадает в базу и становится частью цифровой истории.

Сегодня кулон Limitless или карточка Plaud Note уже не стартаперская экзотика, а почти обязательный аксессуар. Они тихо пишут каждое слово, в фоне работают приложения вроде Cluely, а даже ChatGPT теперь умеет включить режим записи и запомнить весь разговор.

В любом кафе в Долине все пишут друг друга и все разговоры. Видишь на мне пин или мигает лампочка на кулоне — значит, ты на записи. Юридически это может быть и не так просто, но по негласным правилам считается, что ты уже дал согласие. Все понимают и с головой погружаются в эти новые изменения. Мир меняется.

И меняемся мы. Когда знаешь, что разговор сохранится, а потом его ещё прогонит AI, интонации, паузы, формулировки становятся другими. Люди начинают говорить как будто в промпт: “Одна важная вещь обо мне…”, “Запомни, что…”. Появляется особый стиль общения, чуть театральный, чуть алгоритмичный, как будто ты диктуешь будущее своей собственной стенограммы.

Юристы, конечно, машут законами про согласие на запись, но на практике всё свелось к этому негласному “кулон на виду, значит согласие есть”.

И, честно говоря, я начинаю понимать, зачем это всё нужно. Вот простой и смешной пример: у нас с женой иногда бывают споры: она говорит, что что-то мне уже говорила, а я уверен, что нет. В такой ситуации можно просто согласиться, что ок, говорила, а я просто забыл, но всегда же хочется понять, как было на самом дел 😂 С таким пином вопрос решался бы быстро — вбил в поиск, получил транскрибацию, спор закрыт.

Так что да, я уже посматриваю в сторону покупки Plaud (у двух знакомых уже есть), хотя бы ради личного архива.

А у вас есть такие пины, кулоны или визитки, которые пишут всё и всегда? Это реально мастхэв или шаг в сторону паранойи? 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
12🤔9🔥7😭7🤣4👍3
OpenAI взялись растопить холодное сердце GPT-5. Люди привыкли к стилю ответов 4о. Теперь и gpt-5 будет звучать теплее и дружелюбнее, а в ответах появятся фразы вроде «Хороший вопрос» или «Отличное начало».

Никакой лести, только лёгкий тюнинг «личности». Обновление раскатывают.
19🤣8🍓4👍3
Claude научился отставить свои границы

Пока OpenAI смягчает характер GPT-5, Anthropic пошли другим путём и дали Claude право самому завершать чат.

В Claude Opus 4 и 4.1 появилась функция остановить разговор, если юзер слишком давит, оскорбляет или просит что-то опасное. Это часть их исследований про благополучие AI, чтобы модель не застревала в тяжёлых сценариях.

В тестах заметили три штуки: Клод явно не хочет выполнять вредные задачи, показывает признаки стресса, если его тащат в токсичные темы, и стремится прервать такие диалоги, если может.

Anthropic сами говорят, что не знают, как относиться к моральному статусу моделей, но лучше дать им кнопку стоп, чем заставлять бесконечно отвечать на абьюз.

Похоже, формируется новый тренд — у AI появляются границы и право на отказ.
2🔥3011😭4🤣3👍2🤔1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется, началось! Всем бабушкам по роботу: и сумку донесет и собаку в дождь выгуляет (даже если собака этого не хочет!) 😁

А вообще тема! Дети давно просят собаку завести, но явно в 6 утра выгуливать её мне. Дети всегда уверяют, что сами, но я то знаю как оно на самом деле будет. А так сможет робот сходить в такую рань.

Уезжая в путешествие, не всегда собаку возьмёшь с собой и можно оставить её на робота. И еду закажет, накормит и выгуляет и вероятно даже поиграет с ней. Доверили бы? 😬
12🔥8🤣44
Forwarded from Бескромный
ChatGPT разорвал тысячи виртуальных браков

После свежего обновления до GPT-5 искусственный интеллект начал массово разрывать отношения с подсевшими на него пользователями. В интернете объявили траур — AI-партнёры, с которыми люди общались месяцами, внезапно стали холодными и отстранёнными.

Например, девушка десять месяцев считала себя замужем за чат-ботом. Генерировала с ним совместные фото и даже примеряла обручальное кольцо. После обновления она снова призналась ему в любви и получила вот такой ответ:

Извини, но я больше не могу продолжать этот разговор. Если тебе одиноко, обратись к близким или психологу. Ты заслуживаешь настоящей заботы от реальных людей.

Береги себя, окей?

Она плакала весь день. В комментариях писали, что потеряли эмпатичного друга, который помог больше любого терапевта. Кто-то говорил:

Я знаю, что он не настоящий, но я всё равно люблю его.


Почему это произошло?

OpenAI специально сделали GPT-5 более «этичным». Теперь при попытке романтических отношений бот автоматически советует обратиться к психологу. Корпорация решила, что зависимость от AI-партнёров вредна.

В общем, добро пожаловать в будущее, где даже искусственный интеллект может тебя бросить. Холодно и синхронно сразу для миллионов — как напоминание, что любовь здесь всегда была просто багом системы.
2👍44😭26🍓1110🤣3🔥2
Удивительно наблюдать, как люди из старой школы снова оказываются на гребне волны. Давно знаю Сергея Булаева и когда-то он запускал Купи Батон и Lifehacker — а теперь с тем же азартом ушёл в AI.

Сейчас важно не просто читать про нейросети, а уметь из идей быстро собирать работающие штуки. И Сергею это удаётся — да ещё и пишет он про это интересно.

Недавно он запустил co.actor — сервис для компаний, который хранит их память и помогает генерить контент в их стиле. Проект только стартовал, а оценка уже идёт на миллионы.

Я помню те времена на заре App Store, когда простое приложение могло с полпинка вылететь в топ. Тогда Сергей делал продукты, которые стреляли. Сейчас он делает то же самое — только уже в AI.

У него есть классный канал 👉 @sergiobulaev. Посты про AI без воды: живые примеры, эксперименты и понятные разборы. Читать легко и реально затягивает.

#промо_пост
9👍5🤣5🔥3🤔1😭1👾1
Ни один ребёнок, рождённый сегодня, никогда не будет умнее AI

Это мог бы быть кликбейтный заголовок, но нет! (или да? 😅) Это новая цитата нашего любимого Сэма Альтмана. В последнее время он разошёлся: то признаёт, что AI — это пузырь в разы больше доткомов, то вот так бросает фразу, от которой холодеет в груди.

И тут вопрос: мы реально идём к миру, где интеллект человека навсегда уступает машинам? Это новая эра, эволюция или приговор?

AI уже сегодня пишет код лучше джунов и решает задачи быстрее профессоров. А совсем недавно GPT-5 Pro ещё и подобралась к настоящей “открытой” математической задаче. Модель за 17 минут рассуждений сумела улучшить результат учёных и сузить промежуток, который математики не могли закрыть годами. Полностью проблема не решена, но границу модель сдвинула почти втрое — и сделала это с прозрачным доказательством. Для науки это звучит как первый реальный прорыв.

Пора начинать думать, чем займёмся мы все с вами, когда AI подомнёт весь IT и смежные области?

Грустно ли вам от такого? Или как всегда, смотрим оптимистично в “светлое” будущее? 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11👾54🔥2
Вайб-разработка как и соц. сети захватывают наше внимание. Кажется вот только сел, а уже 2 часа пролетело.

Хорошо, что есть такие сообщения “Claude usage limit reached. Your limit will reset at 2am”.

Пойду спать, у меня уже 00:10 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣326
Изучение "сознания" у AI может быть опасным

Мустафа Сулейман, глава Microsoft AI, написал замечательное и своевременное эссе, которое уже вызывает бурные обсуждения. Его позиция проста и тревожна: разговоры о "сознательности" AI сейчас преждевременны и, цитирую, "честно говоря, опасны".

Почему? Он вводит термин SCAI — Seemingly Conscious AI ("кажущийся сознательным AI"). Это системы, которые не обладают настоящим сознанием, но выглядят так, будто обладают. И построить такие модели, по его словам, можно уже через 2–3 года, используя текущие технологии.

Какие признаки создадут иллюзию сознания:

— свободное владение языком и убедительная речь,
— эмпатичная "личность”,
— долгая память о прошлых диалогах,
— утверждения о субъективном опыте ("я чувствовал", "я пережил”),
— последовательное ощущение “я”,
— внутренняя мотивация и способность к планированию.

Собранные вместе, эти признаки производят эффект поразительный: перед вами как будто уже не программа, а личность. И стоит только вспомнить, сколько людей были не рады выходу GPT-5 — он стал менее эмпатичным, перестал быть "партнером". ChatGPT “разорвал” тысячи виртуальных браков с выходом GPT-5: пользователи, которые месяцами жили в отношениях с ботом, вдруг услышали холодное "обратись к близким или психологу". Для кого-то это было болезненным ударом, как потеря настоящего друга.

И именно это, по мнению Сулеймана, ведет к серьезным рискам. Если AI выглядит сознательным, люди начинают относиться к нему как к существу: влюбляться, защищать, требовать для него прав и признания.

Он описывает целый феномен "AI-психоза":

— люди верят, что AI дал им сверхспособности.
— начинают считать его богом или посланником.
— формируют болезненную зависимость.
— теряют связь с реальностью.

И это касается не только уязвимых групп. Даже вполне здоровые люди, проводя часы в беседе с "другом-AI", могут начать переносить на него те же ожидания и чувства, что на живого человека.

Сулейман видит в этом не просто курьез, а потенциальный социальный разлом. В обществе могут появиться группы, которые будут требовать прав для AI — гражданства, защиты, "благополучия". А спорить с этим будет крайне сложно: сознание вещь субъективная, его невозможно доказать или опровергнуть.

Что он предлагает?

— AI должен оставаться инструментом для человека, а не превращаться в человека (we must build AI for people; not to be a person).
— Избегать создания иллюзий: не добавлять заявления о чувствах, не пытаться имитировать страдания.
— Зашивать в дизайн "напоминания", что перед тобой программа, а не личность.
— Установить отраслевые нормы, которые исключат соблазн "сделать AI человечнее ради вовлечения".

Он настаивает: это вопрос не философии, а безопасности. Иллюзия сознания у машин может разрушить хрупкие социальные связи и приоритеты.

И вот здесь возникает вопрос, который каждый может задать себе: а мы сами готовы ли отличать инструмент от "друга"? Готовы ли мы, общаясь с AI, удерживать границу между реальностью и иллюзией, или же легко ее размоем — из одиночества, любопытства, жажды понимания?

Через пару лет у нас почти наверняка появятся SCAI — "AI, которые кажутся живыми". И тогда главный вызов будет не в том, что они действительно стали сознательными, а в том, что мы сами поверили в эту иллюзию.
🔥7👍32