InNeuralNetwork
5.1K subscribers
127 photos
47 videos
143 links
ChatGPT, нейросети и опыт их использования.

Для связи: @biblik
Download Telegram
После выхода 4o Image Generator задумался: почему нет нормального стандарта для проверки цифровых данных? Сейчас любую jpeg можно выдать за настоящую, причём с минимальными усилиями. Несколько моих примеров за 1,5 недели тестов:

📱 Верификация профиля по фото занимает 1-2 запроса вместо мясорубки с Flux и инпейнтом. Галочка за минуту. Модераторы, не серчайте 🥲

📕 Студенческий билет для скидки в спортзал раньше фотошопил вручную (менял даты). Сейчас надо написать текстом содержание, приложить фотку студака и своего лица, а дальше подождать минутку и уже сэкономилось 30т на абонемент

📷 Фото на визу пока не идеально в один запрос проходит, но мелкие черты легко доправить. Распечатал вместо салонной фотосессии, сдал в консульстве — приняли без замечаний

Пускай нужно намного меньше усилий для генерации изображений, мелкие правки ещё остаются. Кто еще может поделиться своими необычными примерами из генератора картинок в ChatGPT? 👀

🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩18🔥15👍43🫡1
В июне еду на фестиваль «Тех-Френдли Викенд» в Нижнем Новгороде. Выступать не буду, зато планирую увлечённо посещать техно-доклады и разные приколы: от нейросетей-сценаристов до гастроуикенда и воздушных шаров. В общем, всё интересное и красивое.

Фестиваль пройдёт с 5 по 8 июня. Если тоже заинтересовало, следите за анонсом регистрации на фестиваль
👍51
Бизнесово подумал про омнимодальность

Наблюдаю за картинками с ChatGPT, где генерятся животные как люди, люди как игрушки, а игрушки снова как люди и так до бесконечности. Понял, что успех подобной фичи заложен в комбинации языкового запроса с визуальным (или любой другой формой контента), что обозначается с прикладного омнимодальностью

Следите за руками:

Выход новой технической фичи априори не меняет мою жизнь (пользователя). Я живу своими процессами, что-то новое непонятное пробовать не хочу, потому что и так процессы работают. Чтобы обратить мое внимание, тут надо зайти через радикальное решение проблемы, либо через фан. В первом случае я меняю что-то в своей жизни (знакомство с фичей), что оптимизирует процесс на порядок, а во втором случае просто получаю развлекуху, которую показываю друзьям (потенциальные новые пользователи). И как думаю, капитански наберитесь воздуха, омнимодальность это делает сразу через фана и решение проблемы.

Например, я понял из генератора изображений ChatGPT, что тот учитывает визуальный и текстовый контекст, от чего я могу запрашивать у него разные приколы и показывать другим людям. Пускай мне захотелось определить, какой я суп и почему именно такой. ChatGPT минутку попыхтит над запросом и выдаст персонализированный ответ, где даёт фан и решение проблемы. А далее я показываю это другим людям, что влечёт цепную реакцию «надо сделать тоже самое» ▶️ «надо сделать что-то новое на подобии» ▶️ «надо попробовать новую фичу того же сервиса». Очень просто, но цифры того же OpenAI о миллионах новых пользователей за последнее время об этом говорят из-под плавящихся серверов.

Омнимодальность раскрывает бесконечную песочницу, которая нативно показывает, почему та или иная фича нужна мне. При этом сервис необязательно должен быть песочницей или омнимодальным, чтобы привлечь внимание (Perplexity, я тебя очень люблю!), просто это повышает кардинальный интерес. Или я один такой?

🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🗿2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Персонализация и память в ChatGPT клево прокачались. Теперь запоминаются все данные, можно в разных чатах делать задачу. Режим Projects, правда, не совсем понятно зачем, но тесты и время покажет. Доступно пользователям с подпиской 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍3
OpenAI дропнула новое семейство моделей GPT-4.1 — прокачанную версию GPT-4o в виде GPT-4.1, GPT-4.1 Mini и GPT-4.1 Nano. Правда, вся тусовка доступна только по API.

По заявлениям OpenAI, GPT-4.1 значительно круче GPT-4o и GPT-4o mini в написании кода. И что ещё лучше — токены стоят примерно на 25% дешевле предыдущих версий, а контекстное окно теперь разрослось до миллиона токенов. Хотя по ряду бенчмарков GPT-4.1 пока проигрывает Gemini 2.5 Pro и Claude 3.7 Sonnet.

Из занятных ещё штук:
• GPT-4.1 можно будет неделю тестить бесплатно в Windsurf
• OpenAI внезапно анонсировала отключение GPT-4.5 из API (видимо, дороговато содержать)
• Релиз GPT-5 опять перенесли на пару месяцев
• Инсайдеры шепчут, что скоро появятся ещё o4-mini, o4-mini-high и o3

Правда в пользовательский ChatGPT добавлять не планируют
👍17
o3 и o4-mini вроде как умеют создавать новые идеи, а не переваривать старые

Основное из нововведений:
– Пишут код почти вдвое лучше, чем OpenAI-o1
– Все фичи ChatGPT работают сразу
– Еще лучше работает с аналитикой в Deep Research, а также делать комплексные задачи.

Доступ начинают раздавать уже сегодня, доступно бесплатно
🔥14
o4-mini > Google

Проверил мультульность на поиске моей самой любимой плитки шоколада, которую покупал в Болонии и не получилось после загуглить. ChatGPT тем временем меньше, чем за минуту, понял что это, где купить и какие особенности по покупке. Супер круто

🤖 InNeuralNetwork
🤩9🔥61
🤖 ChatGPT против рынка: пара недель — и станет понятно, кто кого

Мой коллега проводит эксперимент: ChatGPT торгует на Мосбирже, управляя 50 000 ₽.

Каждый будний ChatGPT определяет одну акцию и сумму сделки. Затем публикуется тикер, обоснование и ссылку на портфель онлайн — всё прозрачно. И за этим всем остаётся только наблюдать как проценты скачут, а также можно понять, «что пошло не так?».

Подобный эксперимент с GPT‑4 + плагинами у меня два года назад пришлось подружить семь сервисов и бубен, что привело к +17,5% за 1,5 месяца на иностранной бирже. Сегодня — одна кнопка, правда рост чуть ниже.

Мне интересно за этим всем понять:
🛫 сольёт ли ChatGPT депозит или переиграет индекс в таком сетапе
💻 как прокачались тулзы в причинно‑следственных цепочках для сделок
👀 насколько долго удастся щекотать нервы волатильностью (уже +несколько % за первую неделю).

Следить можно на @neural_money (не инвестрекомендация)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🗿65
InNeuralNetwork
OpenAI дропнула новое семейство моделей GPT-4.1 — прокачанную версию GPT-4o в виде GPT-4.1, GPT-4.1 Mini и GPT-4.1 Nano. Правда, вся тусовка доступна только по API. По заявлениям OpenAI, GPT-4.1 значительно круче GPT-4o и GPT-4o mini в написании кода. И что…
GPT-4.1 стала доступна в ChatGPT по подписке. Также убрали 4о-mini, поставили на замену 4.1-mini. Кстати, супер модель, чтобы работать с большим объемов данных (для кода и документов)
👍15
Media is too big
VIEW IN TELEGRAM
Поигрался с ИИ-шным Дартом Вейдером в Fortnite 🤖

Даже если вы не играете в Fortnite, это очень прикольный кейс на «потрогать», а точнее поговорить. Вот задружил в команду к себе бота, а только вместо заскриптованных пальбы и следованию за мной, с ним ещё можно поговорить. И это на таком большом уровне игры впервые, уже хорошо. Дарт Вейдер как говорят, работает на последнем Gemini, а говорит с задержкой в 2 секунды через Elevenlabs

Он не уходит из галлактического контекста, в курсе про Fortnite и за кого я играю. Можно общаться мультиязычно, а он правда только на английском, русский только понимает. Также в настройках Дарта Вейдера нет памяти контекста, только ответ на только что мною сказанное (как в Алисе). При этом увести его не по теме проблематично, держится бодрячком в своей роли. Один раз он чуть затупил с затягиванием фразы, в остальное время он как машина всех сносил со мной. Что клёвое, Дарт Вейдер не только отвечает на мое глупое «а с тобой бог или русские?», так ещё обсуждает взаимодействие в мире — тут похилялись, там Чубакку опустили, а если стрельну в него, то пригрозится дать по щам. В общем круто. Интересно будет посмотреть, когда добавят не только 1 героя, а нескольких и хочется проверить, как они между собой общаются

🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍7
Хаос идей первые результаты

Наткнулся на канал @its_capitan. Игорь пишет о сервисах, которые за месяц доходят от «ха, прикольно» до первых пользователей через призму «один рынок → одна боль → одна функция». Нечто подобным сейчас занимаюсь, поэтому пошёл читать дальше, что могу для себя подчеркнуть.

Так кайфанул с истории про конвертер HEIC → JPG, где просто описан алгоритм действий: найти острую проблему, собрать быстрый прототип, опубликовать, отследить первые отклики и доработать баги.

В разборе онлайн‑аннотатора PDF Игорь ни слова не говорит о «глобальной стратегии» или «идеальном пользовательском пути» — только то, что действительно влияет на время до первого результата.

Он открыто рассказывает и о неудачах. Сколько пришлось потратить времени и денег на «гениальную идею». Здорово слышать, что не все бывает идеально и понимать, как из таких ситуаций выправляться.

И, наверное, главное, что мне понравилось в канале, так это системность подхода с приземлёнными цифрами: несколько сотен долларов в месяц от конвертера изображений, 5 000 пользователей плагина ChatGPT‑Sheets, около 1 200 $ MRR у математического ИИ. За каждым показателем — вечера работы и привычка завершать запланированное к выходным.

Точно соглашусь, что не надо делать все и сразу, а лучше сфокусироваться на одной цели и двигаться шаг за шагом, что Игорь и описывает в своём канале. Так что, если хочется построить продукт без лишнего шума, но с разборчивым подходом к метрикам и задачам, рекомендую нырнуть в этот канал.

#всякоерекомендационное


ИП Зуев Игорь Владимирович,
ИНН: 360408359441,
Erid: 2Vtzqv6m4qr
#промо
Please open Telegram to view this post
VIEW IN TELEGRAM
3🗿2👍1🔥1
Sonnet 🤝 Opus
Claude 4


Вышли новые модели Claude и они ещё лучше, чем Sonnet 3.7. По моим наблюдениям стали пошустрее и умнее. Особенно клёво в длительных агентных цепочках, когда первоначальный контекст где-то в десятках предыдущих тул коллах. До Opus 4 ещё не добрался, но по заверениям разработчиков он лучше подходит для работы с большим контекстом базы данных и последующим доработкам. Обе модели на 65% меньше ленятся при выполнении комплексных задач, выдают как надо. Если сводить к простому, то Opus супер для громадного кода, а Sonnet чуть меньше хорош для кода, а для повседневных задач топчик

Sonnet 4 можно попробовать бесплатно в Claude, а Opus уже с подпиской
👍7🔥1
ChatGPT как туристический гид ⛱️

Из поездки в Японию запомнил, что можно восхищаться каждым перекрёстком и одновременно ломать голову: почему алкоголь стоит дёшево, для чего все делятся зонтиками и как разобрать меню, написанное сплошными иероглифами. И тут в дело вступает ChatGPT, который сэкономил кучу сил и погрузил в контекст. Несколько примеров и шаблонов запросов, как можно улучшить свое путешествие куда угодно.

Правило № 0
Использовать модель с выходом в интернет для устранение галлюцинаций, а то смотреть «Миссия невыполнима» на японском красиво, но супер непонятно. Также и для других примеров это помогает.

🖼️ Музейный экскурсовод
Расскажи простыми словами, что важного в [экспонат/музей]. Объясни, на что обратить внимание, и добавь неочевидных фактов

Так я вместо скучной нотации получил комикс про керамику, а затем ещё нашёл магазинчик гончарного дела при построении маршрута. Кстати, о нем!

🗺 Организация маршрута
Что посмотреть в [город] за [период]? Учти, что я уже был в [место], дай пошаговый маршрут с точками в Google Maps

В этом случае особенно понравилось, что точки проставлены с учётом расстояния и времени работы. А то изучать 10 статей «как лучше» будет все ещё хуже и учёта личных особенностей

🍜 Переводчик меню
Переведи это меню (фото) на русский и отметь острые блюда

В раменной GPT подсветил адскую «мазэ-собу», вероятно спас желудок. А заодно предложил попробовать сезонный вариант со свежим юдзу, о котором не было ни слова в английском меню

🍺 Поисковик редких баров
Найди в [город] бар, где подают локальное сакэ, которого нет в сетевых магазинах. Опиши дорогу от [мой отель], добавь часы работы и средний чек

Жаль, что только в Токио проверил, сработала на ура рекомендация

🚉 Билетный инспектор
Я купил билет Smart EX (Non-reserved seat) Токио → Киото, но нет времени отправления. Объясни, как работают эти билеты

ChatGPT разжевал, что non-reserved — это вагоны свободной посадки, а тип поезда показывается на табло. А для сохранения нервов от непонимания, какой поезд надо брать — лучше покупать билеты с местами

☔️ Культурный расшифровщик
Почему в Японии у магазинов стоят стеллажи с зонтиками? Можно ли взять чужой и как правильно вернуть?

Узнал про негласный «зонтичный обмен» — берёшь в дождь, оставляешь свой в сухую погоду. Чувство, будто городом управляет невидимая CRM-система вежливости

🛂 Личное «окно» в сложные сервисы
Я хочу завести IC-карту для проезда на общественном транспорте. Опиши пошагово: как завести и пополнить на iPhone

GPT дал инструкцию по добавлению через Apple Pay, а пополнение тоже через карту или терминал

Почти все рутинные вопросы от «как доехать» до «что написано на банке сакэ» решаются за пару тыков клавиатуры и бесплатно. Чувствуешь себя не туристом, а будто бы пожил и нафигачился шишек местных особенностей. Правда этот опыт уместился в карман на телефоне. Не знаю, чем закончится эта история: вдруг через пару лет гиды-люди станут «роскошью для избранных», а страховые введут полисы от ошибок нейросетей (вроде даже где-то видел, что есть такое). Но уже сейчас понятно одно: путешествия перестают быть квестом «угадай-ка» и превращаются в чистое удовольствие. Если есть ChatGPT с доступом, то все супер. Главное проверить, чтобы заряд телефона и трафик не закончились в самый дождливый день. Зонтик-то найдётся, а гид — нет

🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1712
😳 Еще раз спасибо голосу Дениса на новой модели Elevenlabs v3. А сейчас про промптинг и особенности для генерации войсов

Я давно использую генерацию голосов, но во многом качество упиралось в разумное ограничение — если нужно сделать как у человека, то надо делать до 4 секунд. В ином случае будет монотонно, «палевно». А поскольку я еще делаю делаю это через API, то также делал фоновый шум, добавление пауз и кучу сложно-кастыльных вещей, чтобы получалось ок. Как же я рад, что теперь это можно удалить.

Теперь можно без ограничений по длине ставить генерацию. Но не кул, что переписать логику запросов. Раньше для запроса надо было написать текст, то сейчас надо подстроить к нему еще [теги], чтобы добавить эти самые эмоции в голос. То есть, надо написать предложение, а затем проставить теги в нем еще. Прикрепленный войс сделан так:

Привет! [sarcastic laughs] Сори за войс. [exited] Но новая генерилка голосов Elevenlabs это что-то невероятное и [curious] клевое по эмоциям. Дальше в тексте, поберегу ваши уши. [whispers] И кстати, это звучал сгенерированный голос какого-то Дениса, а не мой.


Огорчает, что голос даже в статусе Natural может чуть отличаться, но не критично. Помимо этого, есть еще Creative, который также подходит для обычного использования, там эмоции прям норм скачут как при записи в маршрутке на повороте — меняет звучание, добавляет даже всхлипы и глотания слюну на удержание с эмм аа. А вот Robust, честно, совсем не понял, но услышал тот самый роботизированный голос.

Также в режиме можно делать диалоги между двумя разными людьми, получается здорово, но это не супер мой режим.

Если желаете опробовать, то переходите на ElevenLabs и готовьте от 5$ в месяц — бесплатно не распространяется. Также это пока preview, поэтому через месяц другой станет еще лучше

P.S. Здесь еще клево написано про промптинг
Please open Telegram to view this post
VIEW IN TELEGRAM
👍185
Forwarded from we all design 👑
Тут была презентация от Neuralink. Это компания Маска, которая делает имплант, вживляемый в мозг. Он распознаёт сигналы и даёт возможность, например, управлять компьютером одной только силой мысли.

У них, конечно, какие-то невероятные прогнозы. И нет, не как обычно «через 20 лет..». Они говорят о таймлайне 1–3 года.

Уже через несколько месяцев начинают тестировать воспроизведение речи с людьми, которые потеряли речь или никогда не говорили. В 2026 начинают клиническое испытание BlindSight для людей с полной потерей зрения (те, кто родился слепым или потерял глаза). Они снова смогут видеть. Сначала в низком разрешении, потом в очень высоком, с возможностью видеть в инфракрасном, ультрафиолете и других длинах волн. Буквально еще через год решения психиатрических заболеваний, парализованные смогут управлять всем своим телом.

Говорят, можно будет ставить несколько имплантов одновременно: моторика, речь, зрение. Появится возможность хранить всю нашу память с возможностью обращаться к ней в любой момент, с помощью ai.

Возможность управления на другом уровне. Можно будет не только управлять роботизированной рукой или ногой, а полноценным большим роботом, как Optimus от Tesla. Тоже силой мысли.

Маск давно топит, что не будет противостояния человека и ai, а скорее люди станут киборгами. Мы и сейчас вроде как уже ими являемся, с телефонами и chatGPT. А импланты neuralink дадут супервидение, суперпамять, суперинтеллект и невероятные физические возможности (в теле робота, например).

Короче, будем дарить на дни рождения не iphone, а суперспособности. Подписку на ночное зрение, суперобоняние, или «знание японского» 💁‍♀️

P.S. как обычно, привет Черное Зеркало “Common People”

@wealldesigners
🔥19🗿52👍1
Хотел похоже написать, но Саша хорошо это сделала. Кстати, еще и много прикольно исследовательских штук с ai в дизайне, гляньте у нее в канале
2
Только спустя несколько месяцев плотной работы с Deep Research от разных моделей я выработал для себя схему, которой полностью доволен.

И основную роль в ней играет Perplexity (годовая подписка на которую всё ещё стоит несколько баксов). Опишу свои кейсы:

Моя базовая модель для Deep Research — Gemini (тут писал почему), но основная работа с отчётом начинается уже после того, как тебе выдаётся PDF-ка в десятки, а иногда и сотню страниц. Нужно проверить результат и провести фактчекинг. Поэтому я вставляю получившийся текст или PDF в Perplexity и прошу его проверить каждое утверждение.

Мой промт к Perplexity немного длиннее, но суть такая:
- «Внимательно прочти документ и выдели основные тезисы/факты, чтобы я видел, не пропустил ли ты чего-нибудь важного»

- «Проверь факты»

- «Оцени каждое утверждение по 10-балльной шкале»

- «Если ты ставишь не 10/10, процитируй фрагмент, объясни, почему это не 10/10, и приведи правильные данные/интерпретацию и т. д.»

- «В конце дай мне краткий обзор достоверности документа»

Это работает довольно круто. Обычно претензии Perplexity (или той модели, что крутится у них в API) к выводу других LLM звучат примерно так: «Фактически верно, НО интерпретация данных не идеальна / слишком категорична».

Второй кейс работает похоже, но решает задачу, когда вы не удовлетворены результатом глубокого исследования.

Загружаете PDF с отчётом в Perplexity и просите «проверить факты», «выставить оценки» — всё как в кейсе выше. А дальше показываете промпт, с которого начинали исследование, и просите внести в него правки, которые помогут избежать выявленных ошибок.
10👍7🔥52🫡1
📺 Для ChatGPT на Mac сделали фичу записи происходящего

Например, вы общаетесь с кем-то оффлайн или онлайн, да даже сами с собой, а наговорённое затем саммаризируется и выводится как план действий с главными мыслями без «слово в слово». Работает хорошо, но на английском. Такой же штукой люблю пользоваться при записи онлайн-встреч через Tactiq, только теперь можно прямо в ChatGPT с такое провернуть

Режим доступен с подписки Plus

🤖 InNeuralNetwork
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3