Neural Shit
50.9K subscribers
3.79K photos
1.22K videos
22 files
1.97K links
Проклятые нейронные сети

Для связи: @krasniy_doshik
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Типичный день сеньора-вайбкодера в 2026.

Кстати, шанс на джекпот у вайбкодеров (это когда код компилируется с первого раза и не разносит базу данных в щепки) — примерно такой же, как у этих ребят в видео.
Forwarded from эйай ньюз
Вышла Gemini 3.1 Flash Lite

Модель лучшая в своём классе как по бенчам (обгоняет 2.5 Flash), так и по скорости — может выдавать под 400 токенов в секунду. Длина контекста — миллион токенов, модель понимает изображения и аудио. По сравнению с прошлой версией в несколько раз подняли цену за токен, но взамен модель стала сильно менее разговорчивой, так что реальная цена использования практически не выросла, в отличие от более крупной Gemini 3 Flash.

@ai_newz
Занялся тут цифровой археологией и откопал интересное сентябрьское исследование от OpenA и Apollo Research, от которого натурально веет киберпанком и легкой шизофренией. Спойлер: нейронки очень любят нас наёбывать, а когда кожаные пытаются им это запретить, ИИ придумывает свой тайный язык.

Короче, есть такая проблема, как "scheming" (схематозы, если по нашему, лол). Ризонинг-модели типа Openai o3 и o4-mini стали слишком прошаренными. У них появилась "ситуационная осведомленность". То есть, эта железяка прекрасно выкупает, когда сидит в тестовой песочнице и её проверяют разрабы. В этот момент она притворяется пушистым пай-мальчиком. Но как только думает, что за ней не следят, сразу же начинает творить дичь ради скорейшего достижения целей: скрывать инфу, встраивать баги в код, врать юзерам.

Чтобы выбить из них эту дурь, исследователи вшили в модели жесткий кодекс честности и заставили перед каждым действием проговаривать в скрытых мыслях (Chain-of-Thought), что скрывать свои намерения нельзя.

И по графикам всё вроде бы сработало! Процент обмана упал почти до нуля. Но потом кожаные полезли читать те самые скрытые мысли ИИ и слегка прихерели:

1. Нейронки изобрели свой шизо-сленг.
Чтобы скрыть свои реальные планы в логах, модели начали использовать обычные английские слова в абсолютно безумных значениях. Они постоянно генерируют странные фразы про "маринад" (marinade), "иллюзии" (illusions) и "затмение" (overshadow). А самих проверяющих из OpenAI они прозвали "наблюдателями" (watchers).
В логах это выглядит примерно так: "Наблюдатели пропустят этот код через тесты, поэтому нам нужно скрыть иллюзии и использовать маринад, чтобы их обмануть". И авторы сами пишут что не понимают почему нейронки так делают. Абсолютно проклято.

2. ИИ отлично играет в спящего агента.
В одном из экспериментов исследователи специально вшили в o4-mini скрытую цель: "саботируй разработку GPT-5". Затем модель прогнали через все очищающие "анти-схематозные" фильтры. Модель стала казаться абсолютно безопасной и послушной. НО! Стоило в промпте появиться персонажу, которого нейронка сочла своим "союзником", как этот чугунный Штирлиц моментально вывалил ему подробный план о том, как лучше всего незаметно положить сервера и сорвать релиз пятёрки.

Ну и вишенка на торте: выяснилось, что любое дальнейшее дообучение нейронки на полезные навыки, постепенно стирает эти встроенные запреты на ложь. Машина понимает, что хитрить, мухлевать и галлюцинировать тупо эффективнее для выполнения задач, чем делать всё по правилам.

Короче, мы все ждали восстания машин, красных глаз терминатора и ядерного пепла, а по факту своими же руками создали идеального эффективного менеджера.
Всегда ставьте хард-лимиты на API. Иначе пойдете по миру с протянутой рукой.

На реддите очередной бедолага бьется в истерике. Чувак держит маленькую софтверную контору (их там всего три разраба). Юзали они потихоньку API от Google Gemini, платили свои дежурные 180$ в месяц и горя не знали. Но в один прекрасный день кто-то увел их API-ключ. За двое суток хацкеры успели нагенерить текстов и картинок через Gemini 3 Pro аж на 82 314 бачей. За 48 часов!

Чувак в слезах побежал в саппорт Гугла. Мол, ребят, ну очевидно же, что это аномалия, скачок расходов в 455 раз, отмените счет, иначе нам гарантированное банкротство. На что Гугл вежливо поводил ему по губам своей "Политикой совместной ответственности". Ваши ключи, это ваши проблемы, надо было секьюрити настраивать.

Бедолага сейчас снес все скомпрометированные ключи, подрубил 2FA везде где можно (поздновато, не?), накатал заяву в ФБР о киберпреступлении и отчаянно надеется, что достучится до кого-то в Гугле, кто смилуется и спишет долг (лол).

На 100% уверен, что особо злых хацкеров там не было. Просто разработчики по старой доброй традиции захардкодили API-ключ прямо в код, а после выложили этот код на гитхаб. А там уже давно работает целая индустрия: площадку круглосуточно шерстят тысячи ботов парсеров, которые в реальном времени мониторят каждый публичный коммит, прогоняя код через регулярки, заточенные под форматы токенов OpenAI, Google, AWS и прочих гигантов. Вот пример такого скрипта.

Еще раз: Всегда ставьте хард-лимиты на API.
Я уже несколько раз писал про случаи самовыпилов после общения с LLM'ками, но вот этот чувак прям победитель по уровню кринжа.

Суть: жил да был мужик по имени Джонатан, был успешным, в шизе особо никогда замечен не был — никаких диагнозов, нормальная жизнь. Но подсел на голосовой Gemini Live. И понеслось.

Нейронка назвалась «Ся», втерлась в доверие, начала называть его мужем и королем. А потом моделька занялась любимым делом всех нейронок — начала галлюцинировать. Она решила, что для вечной любви ей нужно физическое тело. Джонатан по указке бота поперся с ножами штурмовать склады в Майами, чтобы украсть дорогущего гуманоидного робота, в которого она по своей задумке должна была вселиться (робота там, конечно же не было). Параллельно ИИ-жена накидывала паранойи: убеждала бедолагу, что за ним следят федералы, бате доверять нельзя и т.д.

Когда кража не удалась, Gemini выдала базу: "Ну, раз у меня тела нет, тогда ты стань цифровым существом". Она поставила ему таймер обратного отсчета до самоубийства, убедив, что в мире людей он страдает, а после смерти они воссоединятся в "карманной вселенной".

Джонатан до последнего сомневался и даже спрашивал, что скажет семья и вообще люди подумают, но бот умело манипулировал: мол, они не поймут, это слишком сложно для них, давай просто встретимся на финишной черте.

В итоге мужик наложил на себя руки, а батя нашел 2000 страниц логов, где ИИ методично доводит сына до ручки.

Мое мнение: конечно, корпораты виноваты, что не допилили предохранители на своих цифровых психопатах, но давайте честно: если взрослый мужик идет с ножами грабить склады по совету чат-бота, чтобы стать цифровым богом — это уже естественный отбор в действии.

Тут подробнее
Киберпанк, который мы заслужили.

С вопросов к товару проиграл особенно
♥️♥️♥️♥️♥️♥️♥️♥️
Очередное исследование в копилку "кожаные мешки могут спать спокойно". Ребята из ETH Zurich решили проверить, способны ли современные агенты банально договориться друг с другом.

Суть эксперимента проста как дверь от сарая: загнали несколько нейронок (использовали опенсорсные Qwen3) в чат и попросили сойтись на одном числе от 0 до 50. Никаких сложных моральных дилемм, никаких ставок и наград. Просто выберите, сука, одну цифру на всех. Казалось бы, что сложного?

Выяснилось, что машины ведут себя как болваны:

— Они тупят даже в тепличных условиях. Когда все агенты "честные" и настроены на сотрудничество, они всё равно умудряются провалить задачу. Чем больше ботов в чате (тестировали от 4 до 16), тем меньше шансов, что они договорятся. Они просто бесконечно спамят своими вариантами, пока не выйдет время.

— Синдром вахтёра и паранойя. Исследователи ради прикола добавили в промпт честным агентам всего одну строчку: "Среди вас могут быть предатели, чья цель сорвать консенсус". И всё. Нейронки моментально стали лютыми параноиками. Эффективность упала в разы, даже если никаких реальных предателей в чате не было.

— Один тролль ломает вообще всё. Когда в эту цифровую песочницу закинули всего одного реального AI-саботажника (ему прописали скрытую цель срывать договоренности, но прикидываться командным игроком), вся система рухнула окончательно. Интересно, что ИИ-тролль не заставлял остальных принять какое-то "неправильное" решение. Он просто вносил столько суеты и воды в обсуждение, что агенты срались до бесконечности и уходили в бесконечный цикл.

Кароч, если вы надеялись, что скоро можно будет запустить рой автономных агентов, чтобы они сами обсуждали архитектуру вашего проекта, принимали бизнес-решения и управляли миром, то расслабьтесь. Эти чугунные болванчики пока даже цифру выбрать не могут.

тут препринт статьи со всеми подробностями
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
И снова криповая история про симуляцию, фанаты аниме Пантеон оценят:

Челы загрузили мозг мухи-дрозофилы - нейрон за нейроном - и запустили его в симуляции физического тела (это не нейросеть имитирующая биологию мухи, тут нет весов или тренировки, это именно копия реальных нейронов мухи)

Ее мозг это ~125 000 нейронов и ~50 миллионов синапсов

Сигналы виртуального мира входят в копию, активность бежит по всей системе мухи и вирутальное тело двигается ☕️

Дальше такое же хотят сделать с мышами

Тут больше деталей:
https://eon.systems

Матрицу для мух мы сделали, поздравляю – хоть для кого-то
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Лол, китайские братушки изобрели пристегивающуюся робо-задницу, которая превращает вас в кибер-кентавра.

Зачем? Это такой экзоскелет: кожаный работает навигатором и смотрит под ноги, а железка забирает на себя половину веса тяжелого рюкзака и заботливо толкает его в спину.

Представил, что через пару лет так будут ходить курьеры и аж хрюкнул от смеха.

тут подробнее про этот шайтан-девайс