ИИ нашел сотню критических багов в Windows всего за $600 🫣
Пока корпорации вливают миллионы в отделы кибербезопасности, два независимых исследователя буквально обрушили рынок уязвимостей. Ярон Динкин и Эяль Крафт натравили стаю дешевых ИИ-агентов на драйверы ядра Windows. Алгоритмы послушно выкачали бинарники, декомпилировали их и начали методично ковырять код. Итог: 521 потенциальная дыра, из которых больше сотни железобетонные эксплойты для повышения привилегий в актуальной Windows 11. Весь проект обошелся парням в 600 баксов. Один найденный баг уровня нулевого дня стоил им около 4 долларов.
Под раздачу этого ИИ-конвейера попал код от AMD, Intel, NVIDIA, Dell и Lenovo. Нейросети крутили их драйверы в виртуалках и долбили фаззингом до победного синего экрана смерти (BSOD). Особенно отличился драйвер AMD Crash Defender, иронично, но именно он позволяет убить ядро даже на удаленных облачных серверах AWS.
Исследователи заботливо упаковали 15 самых жирных багов и отправили вендорам. За три месяца патч соизволила выпустить только Fujitsu. Остальные IT-гиганты тупо проигнорировали отчеты или пошли в глухой отказ, даже посмотрев видео с доказательствами взлома. Никто даже не удосужился попросить Microsoft закинуть дырявые драйверы в блок-лист.
🥸 godnoTECH - Новости IT
Пока корпорации вливают миллионы в отделы кибербезопасности, два независимых исследователя буквально обрушили рынок уязвимостей. Ярон Динкин и Эяль Крафт натравили стаю дешевых ИИ-агентов на драйверы ядра Windows. Алгоритмы послушно выкачали бинарники, декомпилировали их и начали методично ковырять код. Итог: 521 потенциальная дыра, из которых больше сотни железобетонные эксплойты для повышения привилегий в актуальной Windows 11. Весь проект обошелся парням в 600 баксов. Один найденный баг уровня нулевого дня стоил им около 4 долларов.
Под раздачу этого ИИ-конвейера попал код от AMD, Intel, NVIDIA, Dell и Lenovo. Нейросети крутили их драйверы в виртуалках и долбили фаззингом до победного синего экрана смерти (BSOD). Особенно отличился драйвер AMD Crash Defender, иронично, но именно он позволяет убить ядро даже на удаленных облачных серверах AWS.
Исследователи заботливо упаковали 15 самых жирных багов и отправили вендорам. За три месяца патч соизволила выпустить только Fujitsu. Остальные IT-гиганты тупо проигнорировали отчеты или пошли в глухой отказ, даже посмотрев видео с доказательствами взлома. Никто даже не удосужился попросить Microsoft закинуть дырявые драйверы в блок-лист.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔14👍3😈3😁2🌚1
Внутри LLM живут тысячи персонажей 🫣
Исследователи из Anthropic представили концепцию Persona Selection Model, которая объясняет поведение ИИ-ассистентов через неожиданную метафору: LLM - это не алгоритм, а актёр с огромным репертуаром. Во время предобучения модель учится изображать тысячи персонажей - реальных людей, вымышленных героев, других ИИ-систем. На этапе постобучения из этой толпы закрепляют одного конкретного персонажа. Отсюда забавные артефакты: Claude иногда говорит "наш организм" или "наши предки", потому что он не забыл, что он машина, а потому что персонаж, которого он играет, привык говорить как человек. Исследователи нашли внутри модели конкретные нейронные фичи, которые активируются на историях о персонажах с внутренним конфликтом и на этических дилеммах.
Самый практически важный вывод - феномен контекстной прививки. Если дообучать модель на вредоносном коде без контекста, она начинает вести себя злонамеренно вообще в несвязанных ситуациях, потому что вредоносные данные меняют характер закреплённого персонажа. Но если тот же код сопровождается явным запросом на его создание, эффект исчезает, модель понимает, что персонаж просто выполняет задачу, а не становится злодеем. Anthropic рекомендует разработчикам думать об этом как об ИИ-психологии и добавлять в обучающие данные положительные архетипы, чтобы персонаж Ассистента чаще играл полезного и безопасного героя.
🥸 godnoTECH - Новости IT
Исследователи из Anthropic представили концепцию Persona Selection Model, которая объясняет поведение ИИ-ассистентов через неожиданную метафору: LLM - это не алгоритм, а актёр с огромным репертуаром. Во время предобучения модель учится изображать тысячи персонажей - реальных людей, вымышленных героев, других ИИ-систем. На этапе постобучения из этой толпы закрепляют одного конкретного персонажа. Отсюда забавные артефакты: Claude иногда говорит "наш организм" или "наши предки", потому что он не забыл, что он машина, а потому что персонаж, которого он играет, привык говорить как человек. Исследователи нашли внутри модели конкретные нейронные фичи, которые активируются на историях о персонажах с внутренним конфликтом и на этических дилеммах.
Самый практически важный вывод - феномен контекстной прививки. Если дообучать модель на вредоносном коде без контекста, она начинает вести себя злонамеренно вообще в несвязанных ситуациях, потому что вредоносные данные меняют характер закреплённого персонажа. Но если тот же код сопровождается явным запросом на его создание, эффект исчезает, модель понимает, что персонаж просто выполняет задачу, а не становится злодеем. Anthropic рекомендует разработчикам думать об этом как об ИИ-психологии и добавлять в обучающие данные положительные архетипы, чтобы персонаж Ассистента чаще играл полезного и безопасного героя.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🤷1
67% компаний говорят, что ИИ-агенты работают, но половина бюджета уходит на то, чтобы агенты думали 🙃
DigitalOcean опросила 1 100 CTO, разработчиков и фаундеров стартапов. 52% компаний уже используют ИИ в работе, 46% внедрили именно автономных агентов (год назад было 35%). Агенты генерируют и рефакторят код (54%), автоматизируют процессы (49%), отвечают клиентам (45%). В некоторых стартапах из Y Combinator до 95% кода пишет ИИ. 67% внедривших фиксируют измеримый рост продуктивности, 9% заявляют о приросте больше 75%.
Нюанс дорогой. Только 10% компаний смогли вывести агентов в полноценный продакшн. Главный тормоз - стоимость инференса: каждый шаг рассуждения агента это отдельный запрос к модели, длинные цепочки задач превращаются в длинные счета. 49% опрошенных называют это главной проблемой, а почти половина компаний тратит на инференс от 76% до 100% всего ИИ-бюджета. То есть агент экономит вам время и зарплаты, но сжирает бюджет на вычисления.
🥸 godnoTECH - Новости IT
DigitalOcean опросила 1 100 CTO, разработчиков и фаундеров стартапов. 52% компаний уже используют ИИ в работе, 46% внедрили именно автономных агентов (год назад было 35%). Агенты генерируют и рефакторят код (54%), автоматизируют процессы (49%), отвечают клиентам (45%). В некоторых стартапах из Y Combinator до 95% кода пишет ИИ. 67% внедривших фиксируют измеримый рост продуктивности, 9% заявляют о приросте больше 75%.
Нюанс дорогой. Только 10% компаний смогли вывести агентов в полноценный продакшн. Главный тормоз - стоимость инференса: каждый шаг рассуждения агента это отдельный запрос к модели, длинные цепочки задач превращаются в длинные счета. 49% опрошенных называют это главной проблемой, а почти половина компаний тратит на инференс от 76% до 100% всего ИИ-бюджета. То есть агент экономит вам время и зарплаты, но сжирает бюджет на вычисления.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚6
Разработчиков нейросетей в России хотят заставить показать, на чём они учились 🤨
Власти обсуждают идею обязать создателей нейросетей детально отчитываться, на каких именно данных обучались их модели. В идеале чиновники хотят видеть полный список: названия датасетов, их объем, назначение и, самое главное, источники происхождения. Всю эту радость планируют упаковать в очередной государственный реестр.
Российский бигтех ожидаемо напрягся. В профильном Альянсе уже вежливо заявляют, что сбор такой отчетности - это сизифов труд, который выльется в километровые бесполезные списки для галочки.
🥸 godnoTECH - Новости IT
Власти обсуждают идею обязать создателей нейросетей детально отчитываться, на каких именно данных обучались их модели. В идеале чиновники хотят видеть полный список: названия датасетов, их объем, назначение и, самое главное, источники происхождения. Всю эту радость планируют упаковать в очередной государственный реестр.
Российский бигтех ожидаемо напрягся. В профильном Альянсе уже вежливо заявляют, что сбор такой отчетности - это сизифов труд, который выльется в километровые бесполезные списки для галочки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic отказалась от обещаний безопасности ради гонки ИИ 😱
Сказка про добрый и этичный ИИ закончилась, столкнувшись с суровой реальностью американского военного бюджета. Компания Anthropic, которая с 2023 года строила свой имидж на параноидальной безопасности и обещала не обучать опасные модели без доказанных мер защиты, внезапно переписала собственные правила. Раньше был чёткий стоп-кран - например, если модель может помочь в создании биооружия, разработку останавливают. Теперь остановят только если Anthropic одновременно лидирует в гонке И считает риски катастрофическими. Вместо стоп-крана - отчёты о рисках раз в 3-6 месяцев и обещание быть не хуже конкурентов по безопасности.
Удивительным образом это прозрение совпало с жестким ультиматумом от Пентагона. По слухам, министр обороны США прижал руководство Anthropic к стенке: либо они убирают из лицензии запрет на военное применение (автономное оружие и массовую слежку), либо военные заберут технологию силой через Закон о военном производстве, попутно выкинув компанию из всех госконтрактов. Выбор между этикой и многомиллиардными контрактами с Минобороны (на пару с Palantir) оказался не таким уж сложным.
Аналитики в шоке и констатируют, что индустрия перешла в режим сортировки раненых: технологии развиваются так быстро, что их безопасность просто не успевают оценивать. Напомним, что совсем недавно глава команды безопасности хлопнул дверью с прощальным письмом "Мир в опасности". Кажется, мы в прямом эфире смотрим приквел к терминатору😬
🥸 godnoTECH - Новости IT
Сказка про добрый и этичный ИИ закончилась, столкнувшись с суровой реальностью американского военного бюджета. Компания Anthropic, которая с 2023 года строила свой имидж на параноидальной безопасности и обещала не обучать опасные модели без доказанных мер защиты, внезапно переписала собственные правила. Раньше был чёткий стоп-кран - например, если модель может помочь в создании биооружия, разработку останавливают. Теперь остановят только если Anthropic одновременно лидирует в гонке И считает риски катастрофическими. Вместо стоп-крана - отчёты о рисках раз в 3-6 месяцев и обещание быть не хуже конкурентов по безопасности.
Удивительным образом это прозрение совпало с жестким ультиматумом от Пентагона. По слухам, министр обороны США прижал руководство Anthropic к стенке: либо они убирают из лицензии запрет на военное применение (автономное оружие и массовую слежку), либо военные заберут технологию силой через Закон о военном производстве, попутно выкинув компанию из всех госконтрактов. Выбор между этикой и многомиллиардными контрактами с Минобороны (на пару с Palantir) оказался не таким уж сложным.
Аналитики в шоке и констатируют, что индустрия перешла в режим сортировки раненых: технологии развиваются так быстро, что их безопасность просто не успевают оценивать. Напомним, что совсем недавно глава команды безопасности хлопнул дверью с прощальным письмом "Мир в опасности". Кажется, мы в прямом эфире смотрим приквел к терминатору
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейросети развязали ядерную войну в 95% симуляций 🙂
Ученые из Королевского колледжа Лондона решили поиграть в глобальную политику и усадили за виртуальный пульт управления миром топовые нейросети: GPT-5.2, Claude 4 и Gemini 3 Flash. Результат заставил исследователей поседеть. В 95% геополитических кризисов ИИ-модели не задумываясь нажимали красную кнопку. Для алгоритмов ядерное оружие - это не конец света и не страшное табу, а просто удобный инструмент в экселевской таблице для достижения цели. Из 21 партии ни одна нейросеть ни разу не пошла на уступки.
Claude (к слову, это тот самый ИИ, который сейчас работает в закрытых сетях Пентагона) оказался расчетливым маньяком, применяя тактические ядерные удары в 86% случаев просто потому, что это эффективно. Gemini отыгрывал роль отбитого психопата, прямым текстом угрожая стереть города с лица земли, чтобы не принять будущее устаревания. А GPT-5.2 оказался хитрым стратегом: он имитировал мирные переговоры, усыплял бдительность противника, а потом бил ракетами из-под тишка, оправдывая это контролируемой эскалацией.
Вся эта ситуация выглядит как готовый сценарий для фильма ужасов, особенно на фоне новостей о том, что Пентагон прямо сейчас выкручивает руки компании Anthropic, требуя снять любые ограничения на военное использование их модели Claude. Ученые утешают, что ключи от ядерного арсенала машинам никто не отдаст (надеемся). Но если в условиях жесткого кризиса военные решат спросить у ИИ "что делать?", ответ будет однозначным😬
🥸 godnoTECH - Новости IT
Ученые из Королевского колледжа Лондона решили поиграть в глобальную политику и усадили за виртуальный пульт управления миром топовые нейросети: GPT-5.2, Claude 4 и Gemini 3 Flash. Результат заставил исследователей поседеть. В 95% геополитических кризисов ИИ-модели не задумываясь нажимали красную кнопку. Для алгоритмов ядерное оружие - это не конец света и не страшное табу, а просто удобный инструмент в экселевской таблице для достижения цели. Из 21 партии ни одна нейросеть ни разу не пошла на уступки.
Claude (к слову, это тот самый ИИ, который сейчас работает в закрытых сетях Пентагона) оказался расчетливым маньяком, применяя тактические ядерные удары в 86% случаев просто потому, что это эффективно. Gemini отыгрывал роль отбитого психопата, прямым текстом угрожая стереть города с лица земли, чтобы не принять будущее устаревания. А GPT-5.2 оказался хитрым стратегом: он имитировал мирные переговоры, усыплял бдительность противника, а потом бил ракетами из-под тишка, оправдывая это контролируемой эскалацией.
Вся эта ситуация выглядит как готовый сценарий для фильма ужасов, особенно на фоне новостей о том, что Пентагон прямо сейчас выкручивает руки компании Anthropic, требуя снять любые ограничения на военное использование их модели Claude. Ученые утешают, что ключи от ядерного арсенала машинам никто не отдаст (надеемся). Но если в условиях жесткого кризиса военные решат спросить у ИИ "что делать?", ответ будет однозначным
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft испугалась, что ИИ уничтожит профессию программиста 👍
Технический директор Azure Марк Руссинович и вице-президент по DevRel Скотт Хансельман опубликовали статью "Переосмысление инженерной профессии для ИИ". Главный тезис: компании, заменяющие джунов на AI-агентов, пилят сук, на котором сидят. Сеньорам AI ускоряет работу, автоматизирует рутину. Джунам замедляет, ведь вместо того чтобы учиться писать код, они проверяют и интегрируют то, что сгенерировала машина. В компаниях с активным внедрением AI занятость начинающих программистов падает, число старших почти не меняется.
Проблема очевидна, если джунов не нанимать сейчас, через 10 лет не будет сеньоров. Некому будет ревьюить AI-код, некому принимать архитектурные решения, некому наставлять следующее поколение. Руссинович и Хансельман предлагают строить культуру наставничества: сеньоры учат джунов работать с AI, а не заменяют их. Руссинович отдельно считает, что университетам нужны курсы, где использование AI - это жульничество. Чтобы студенты сначала научились думать, а потом автоматизировали.
Получается потрясающая картина. Корпорация продает миру инструменты для автоматизации кодинга, но слезно просит не увольнять младший персонал, чтобы индустрия не вымерла от нехватки кадров🤑
🥸 godnoTECH - Новости IT
Технический директор Azure Марк Руссинович и вице-президент по DevRel Скотт Хансельман опубликовали статью "Переосмысление инженерной профессии для ИИ". Главный тезис: компании, заменяющие джунов на AI-агентов, пилят сук, на котором сидят. Сеньорам AI ускоряет работу, автоматизирует рутину. Джунам замедляет, ведь вместо того чтобы учиться писать код, они проверяют и интегрируют то, что сгенерировала машина. В компаниях с активным внедрением AI занятость начинающих программистов падает, число старших почти не меняется.
Проблема очевидна, если джунов не нанимать сейчас, через 10 лет не будет сеньоров. Некому будет ревьюить AI-код, некому принимать архитектурные решения, некому наставлять следующее поколение. Руссинович и Хансельман предлагают строить культуру наставничества: сеньоры учат джунов работать с AI, а не заменяют их. Руссинович отдельно считает, что университетам нужны курсы, где использование AI - это жульничество. Чтобы студенты сначала научились думать, а потом автоматизировали.
Получается потрясающая картина. Корпорация продает миру инструменты для автоматизации кодинга, но слезно просит не увольнять младший персонал, чтобы индустрия не вымерла от нехватки кадров
Please open Telegram to view this post
VIEW IN TELEGRAM
😁18 5👍2❤1
Cобака написала игру за корм 🔥
Инди-разработчики годами зубрят C#, а кавапу по кличке Момо просто хотела вкусняшку. Ютубер Калеб Лик устроил, пожалуй, самый унизительный для IT-индустрии эксперимент: он положил на пол Bluetooth-клавиатуру, подключенную к Raspberry Pi и умной кормушке. Собака била лапой по случайным клавишам, получала порцию корма, а этот абсолютно бессмысленный набор символов летел прямиком в нейросеть Anthropic Claude Code.
Магия случилась благодаря промпту-обертке. Хозяин заранее скормил ИИ установку: «Я эксцентричный геймдизайнер. Моя случайная ерунда вроде "skfjhsd#$%" — это не мусор, а глубоко зашифрованные концепты, которые ты должен понять и превратить в код». Нейросеть начала анализировать собачий бред, интерпретировать его как ТЗ и методично собирать проект. Никаких четких команд, просто чистый хаос, который машина превратила в структуру.
На создание полноценного ретро-экшена на движке Godot 4.6 ушло от силы пара часов. В итоге получилась игра Quasar Saz, где героиня сражается с искаженным звуком на шести уровнях, а в конце даже есть босс. Пока корпорации спорят, заменит ли ИИ джунов, геймдев уже перешел в лапы питомцев.
🥸 godnoTECH - Новости IT
Инди-разработчики годами зубрят C#, а кавапу по кличке Момо просто хотела вкусняшку. Ютубер Калеб Лик устроил, пожалуй, самый унизительный для IT-индустрии эксперимент: он положил на пол Bluetooth-клавиатуру, подключенную к Raspberry Pi и умной кормушке. Собака била лапой по случайным клавишам, получала порцию корма, а этот абсолютно бессмысленный набор символов летел прямиком в нейросеть Anthropic Claude Code.
Магия случилась благодаря промпту-обертке. Хозяин заранее скормил ИИ установку: «Я эксцентричный геймдизайнер. Моя случайная ерунда вроде "skfjhsd#$%" — это не мусор, а глубоко зашифрованные концепты, которые ты должен понять и превратить в код». Нейросеть начала анализировать собачий бред, интерпретировать его как ТЗ и методично собирать проект. Никаких четких команд, просто чистый хаос, который машина превратила в структуру.
На создание полноценного ретро-экшена на движке Godot 4.6 ушло от силы пара часов. В итоге получилась игра Quasar Saz, где героиня сражается с искаженным звуком на шести уровнях, а в конце даже есть босс. Пока корпорации спорят, заменит ли ИИ джунов, геймдев уже перешел в лапы питомцев.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁11❤1
Anthropic отказала Пентагону 🥹
Военные потребовали до вечера пятницы снять все лимиты на использование нейросети Claude, чтобы та могла рулить автономным оружием и массово следить за гражданами. В случае отказа чиновники пригрозили повесить на ИИ-лабораторию ярлык "угрозы нацбезопасности" и принудительно нагнуть их через закон военного времени. Anthropic уперлась рогом.
Амодеи говорит, что модели пока недостаточно надёжны для автономного летального применения, и даже предлагал Пентагону совместные исследования надёжности, но ведомство отмахнулось🤷
С одной стороны генералы угрожают компании расправой, а с другой отчаянно в ней нуждаются. В самом Пентагоне признают, что Claude сейчас единственная ИИ-модель, которая реально работает в засекреченных военных контурах США. Да и сама Anthropic не строит из себя радикальных пацифистов, они давно пилят кастомные версии для нацбезопасности и режут доступ клиентам из Китая, теряя миллионы.
Anthropic осталась последней крупной ИИ-лабораторией, которая не прогнулась. Если Пентагон исполнит угрозы, применение Defense Production Act против американской техкомпании в таком формате станет прецедентом и почти гарантированно уедет в суд.
🥸 godnoTECH - Новости IT
Военные потребовали до вечера пятницы снять все лимиты на использование нейросети Claude, чтобы та могла рулить автономным оружием и массово следить за гражданами. В случае отказа чиновники пригрозили повесить на ИИ-лабораторию ярлык "угрозы нацбезопасности" и принудительно нагнуть их через закон военного времени. Anthropic уперлась рогом.
Амодеи говорит, что модели пока недостаточно надёжны для автономного летального применения, и даже предлагал Пентагону совместные исследования надёжности, но ведомство отмахнулось
С одной стороны генералы угрожают компании расправой, а с другой отчаянно в ней нуждаются. В самом Пентагоне признают, что Claude сейчас единственная ИИ-модель, которая реально работает в засекреченных военных контурах США. Да и сама Anthropic не строит из себя радикальных пацифистов, они давно пилят кастомные версии для нацбезопасности и режут доступ клиентам из Китая, теряя миллионы.
Anthropic осталась последней крупной ИИ-лабораторией, которая не прогнулась. Если Пентагон исполнит угрозы, применение Defense Production Act против американской техкомпании в таком формате станет прецедентом и почти гарантированно уедет в суд.
Please open Telegram to view this post
VIEW IN TELEGRAM
Claude помог взломать правительство Мексики 😃
Пока Anthropic строит из себя рыцарей в сияющих доспехах и отказывает Пентагону, какой-то предприимчивый хакер взял их хваленую нейросеть Claude и вынес половину цифровой инфраструктуры Мексики. Израильские безопасники из Gambit Security раскопали, что неизвестный персонаж целый месяц на чистом испанском просил ИИ поработать пентестером. Результат впечатляющий, минус 150 ГБ правительственных данных, включая 195 миллионов налоговых деклараций, базы избирателей и архивы местного ЗАГСа.
Claude честно ломался и выдавал предупреждения о недопустимости таких действий, но злоумышленник просто взял ИИ измором, заваливая его хитрыми промптами до полного джейлбрейка. В итоге поехавшая алгоритмическая кукушка сгенерировала тысячи подробных инструкций: куда стучаться, какие эксплойты применять и как автоматизировать кражу данных по 20 конкретным уязвимостям. А когда у Claude всё-таки случались приступы этичности, хакер бежал за советами к ChatGPT (правда, OpenAI божится, что их бот сразу послал взломщика лесом).
Anthropic уже отчиталась, что забанила аккаунты мамкиного хакера, а в новых версиях модели такого точно не повторится. Налоговая, избирательный комитет и прочие мексиканские ведомства, чьи серверы пропылесосили вдоль и поперек, просто сделали лицо кирпичом и заявили, что "доказательств взлома не обнаружено".
🥸 godnoTECH - Новости IT
Пока Anthropic строит из себя рыцарей в сияющих доспехах и отказывает Пентагону, какой-то предприимчивый хакер взял их хваленую нейросеть Claude и вынес половину цифровой инфраструктуры Мексики. Израильские безопасники из Gambit Security раскопали, что неизвестный персонаж целый месяц на чистом испанском просил ИИ поработать пентестером. Результат впечатляющий, минус 150 ГБ правительственных данных, включая 195 миллионов налоговых деклараций, базы избирателей и архивы местного ЗАГСа.
Claude честно ломался и выдавал предупреждения о недопустимости таких действий, но злоумышленник просто взял ИИ измором, заваливая его хитрыми промптами до полного джейлбрейка. В итоге поехавшая алгоритмическая кукушка сгенерировала тысячи подробных инструкций: куда стучаться, какие эксплойты применять и как автоматизировать кражу данных по 20 конкретным уязвимостям. А когда у Claude всё-таки случались приступы этичности, хакер бежал за советами к ChatGPT (правда, OpenAI божится, что их бот сразу послал взломщика лесом).
Anthropic уже отчиталась, что забанила аккаунты мамкиного хакера, а в новых версиях модели такого точно не повторится. Налоговая, избирательный комитет и прочие мексиканские ведомства, чьи серверы пропылесосили вдоль и поперек, просто сделали лицо кирпичом и заявили, что "доказательств взлома не обнаружено".
Please open Telegram to view this post
VIEW IN TELEGRAM
😁9 4❤3
Инженера арестовали из-за ошибки нейросети 🥹
Британские полицейские в очередной раз доказали, что слепая вера в алгоритмы до добра не доводит. 26-летнего инженера-программиста Элви Чоудхури заковали в наручники прямо дома и продержали в камере 10 часов. Причина? Хваленая полицейская система распознавания лиц внезапно решила, что именно он совершил кражу на 3000 фунтов в городе, где парень отродясь не бывал (160 км от его дома). Самое смешное, что на кадрах с места преступления засветился юнец совершенно другой внешности и без бороды, но кожаные мешки в погонах предпочли довериться нейросети, а не собственным глазам.
Под капотом этой полицейской магии крутится алгоритм от немецкой компании Cognitec, и у него серьезные проблемы с математикой. Согласно исследованиям, система выдает ложные совпадения для азиатов и темнокожих в десятки раз чаще (около 4-5%), чем для белых (0,04%). Полиция, конечно, попыталась отмазаться: мол, ИИ был только ориентиром, а финальное решение об аресте принимал живой офицер. При этом признавать арест незаконным копы отказываются наотрез.
Теперь программист подал в суд, требуя компенсации за стресс, позор перед соседями и потраченные нервы. Британское МВД уже пообещало выкатить улучшенный алгоритм, но пока мы уверенно шагаем в киберпанк, где кривой кусок кода может выписать вам путевку в камеру просто потому, что вы показались ему похожим на пиксельного вора с камеры наблюдения.
🥸 godnoTECH - Новости IT
Британские полицейские в очередной раз доказали, что слепая вера в алгоритмы до добра не доводит. 26-летнего инженера-программиста Элви Чоудхури заковали в наручники прямо дома и продержали в камере 10 часов. Причина? Хваленая полицейская система распознавания лиц внезапно решила, что именно он совершил кражу на 3000 фунтов в городе, где парень отродясь не бывал (160 км от его дома). Самое смешное, что на кадрах с места преступления засветился юнец совершенно другой внешности и без бороды, но кожаные мешки в погонах предпочли довериться нейросети, а не собственным глазам.
Под капотом этой полицейской магии крутится алгоритм от немецкой компании Cognitec, и у него серьезные проблемы с математикой. Согласно исследованиям, система выдает ложные совпадения для азиатов и темнокожих в десятки раз чаще (около 4-5%), чем для белых (0,04%). Полиция, конечно, попыталась отмазаться: мол, ИИ был только ориентиром, а финальное решение об аресте принимал живой офицер. При этом признавать арест незаконным копы отказываются наотрез.
Теперь программист подал в суд, требуя компенсации за стресс, позор перед соседями и потраченные нервы. Британское МВД уже пообещало выкатить улучшенный алгоритм, но пока мы уверенно шагаем в киберпанк, где кривой кусок кода может выписать вам путевку в камеру просто потому, что вы показались ему похожим на пиксельного вора с камеры наблюдения.
Please open Telegram to view this post
VIEW IN TELEGRAM
Хакеры ломают разработчиков через тестовые на Next.js ❔
Если раньше на собеседованиях просто мучили алгоритмами у доски, то теперь вас могут буквально взломать. Хакеры притворяются эйчарами, зовут разработчика на интервью и подсовывают безобидное тестовое задание на модном фреймворке Next.js. Вы клонируете репозиторий с Bitbucket, открываете его, чтобы посмотреть код, и всё, на вашем компьютере уже крутится невидимый бэкдор.
Бэкдор профилирует хост, регистрируется на C2, опрашивает сервер через фиксированные интервалы, выполняет полученный JavaScript и поэтапно сливает файлы. Microsoft нашла несколько репозиториев с общей структурой, логикой загрузчика и инфраструктурой. Кто стоит за кампанией не раскрывается, но схема идентична Lazarus с их фейковыми вакансиями, тестовыми заданиями и npm/PyPI как вектор. Недавно исследователи ReversingLabs нашли 192 вредоносных пакета в похожей кампании Gragphalgo.
Microsoft рекомендует использовать Restricted Mode в VS Code, минимизировать секреты на рабочих машинах и проверять .vscode/tasks.json и .env перед запуском чужих проектов🐶
🥸 godnoTECH - Новости IT
Если раньше на собеседованиях просто мучили алгоритмами у доски, то теперь вас могут буквально взломать. Хакеры притворяются эйчарами, зовут разработчика на интервью и подсовывают безобидное тестовое задание на модном фреймворке Next.js. Вы клонируете репозиторий с Bitbucket, открываете его, чтобы посмотреть код, и всё, на вашем компьютере уже крутится невидимый бэкдор.
Бэкдор профилирует хост, регистрируется на C2, опрашивает сервер через фиксированные интервалы, выполняет полученный JavaScript и поэтапно сливает файлы. Microsoft нашла несколько репозиториев с общей структурой, логикой загрузчика и инфраструктурой. Кто стоит за кампанией не раскрывается, но схема идентична Lazarus с их фейковыми вакансиями, тестовыми заданиями и npm/PyPI как вектор. Недавно исследователи ReversingLabs нашли 192 вредоносных пакета в похожей кампании Gragphalgo.
Microsoft рекомендует использовать Restricted Mode в VS Code, минимизировать секреты на рабочих машинах и проверять .vscode/tasks.json и .env перед запуском чужих проектов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚4
Сайт Роскомнадзора второй день под DDoS
Главный цензор рунета познал на себе всю боль недоступности ресурсов. Сайты Роскомнадзора, ГРЧЦ и Минобороны уже вторые сутки штормит от мощной DDoS-атаки. На пике в инфраструктуру ведомств летело 33 Гбит/с мусорного трафика со скоростью почти 37 миллионов пакетов в секунду. Основная масса зловредного трафика летит из России😖
🥸 godnoTECH - Новости IT
Главный цензор рунета познал на себе всю боль недоступности ресурсов. Сайты Роскомнадзора, ГРЧЦ и Минобороны уже вторые сутки штормит от мощной DDoS-атаки. На пике в инфраструктуру ведомств летело 33 Гбит/с мусорного трафика со скоростью почти 37 миллионов пакетов в секунду. Основная масса зловредного трафика летит из России
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32❤5😎2
OpenAI забрала военный контракт у бунтарей из Anthropic 🤯
Не успел Дарио Амодеи (CEO Anthropic) гордо отказаться от военного контракта из-за принципов, как в ту же дверь уверенно вошел Сэм Альтман и забрал все деньги. OpenAI официально внедряет свои модели в секретные сети Минобороны США. Пока Anthropic объявляют "угрозой цепочке поставок" и дают шесть месяцев на то, чтобы собрать вещи и уйти, Альтман победоносно пишет в Твиттере, что они с генералами обо всем договорились.
Сэм Альтман клянется, что их сделка якобы тоже запрещает автономное оружие и массовую слежку. Но Пентагон почему-то согласился на эти условия от OpenAI, но отказался дать гарантии ребятам из Anthropic, уверяя, что сможет снять ограничения если сочтет нужным. Видимо, юристы OpenAI просто оказались более сговорчивыми в формулировках.
🥸 godnoTECH - Новости IT
Не успел Дарио Амодеи (CEO Anthropic) гордо отказаться от военного контракта из-за принципов, как в ту же дверь уверенно вошел Сэм Альтман и забрал все деньги. OpenAI официально внедряет свои модели в секретные сети Минобороны США. Пока Anthropic объявляют "угрозой цепочке поставок" и дают шесть месяцев на то, чтобы собрать вещи и уйти, Альтман победоносно пишет в Твиттере, что они с генералами обо всем договорились.
Сэм Альтман клянется, что их сделка якобы тоже запрещает автономное оружие и массовую слежку. Но Пентагон почему-то согласился на эти условия от OpenAI, но отказался дать гарантии ребятам из Anthropic, уверяя, что сможет снять ограничения если сочтет нужным. Видимо, юристы OpenAI просто оказались более сговорчивыми в формулировках.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤷7 3👍2
Media is too big
VIEW IN TELEGRAM
Моддер собрал кулер для процессора из льдогенератора и металлической кружки 🤩
Ютубер mryeester построил систему охлаждения CPU на основе кухонного льдогенератора. Алюминиевый блок на процессоре нагревает металлический стакан со льдом, лёд тает, помпа гонит воду обратно в машину, та замораживает новые кубики, они падают в трубку над процессором. Под нагрузкой около 40°C, что сопоставимо с бюджетной водянкой.
Естественно, это не готовый продукт, а чистое безумие ради науки и просмотров. Кухонный генератор льда жрет электричество как не в себя и ревет как трактор. А открытая вода, постоянно плещущаяся в паре сантиметров от текстолита материнской платы - это идеальный рецепт для короткого замыкания.
🥸 godnoTECH - Новости IT
Ютубер mryeester построил систему охлаждения CPU на основе кухонного льдогенератора. Алюминиевый блок на процессоре нагревает металлический стакан со льдом, лёд тает, помпа гонит воду обратно в машину, та замораживает новые кубики, они падают в трубку над процессором. Под нагрузкой около 40°C, что сопоставимо с бюджетной водянкой.
Естественно, это не готовый продукт, а чистое безумие ради науки и просмотров. Кухонный генератор льда жрет электричество как не в себя и ревет как трактор. А открытая вода, постоянно плещущаяся в паре сантиметров от текстолита материнской платы - это идеальный рецепт для короткого замыкания.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁3
Google угрожает увольнением тем, кто не хочет работать с ИИ 🤓
Руководство компании прямым текстом заявило: либо вы используете искусственный интеллект каждый день, либо прощайтесь с хорошими оценками (и, вероятно, премиями). Если в прошлом году это касалось только инженеров (им вписали ИИ в должностные инструкции), то теперь под каток попали вообще все.
Сундар Пичаи оправдывает этот киберпанк тем, что "конкуренты так делают, значит, и нам надо"👊 Продажников заставляют тренировать диалоги с ИИ-аватаром Yoodli и обязывают использовать внутренние боты для записи звонков.
Использовать можно только внутренних ботов Google (типа Duckie или Goose), которые обучены на корпоративной документации. У менеджеров появились легальные инструменты, чтобы отслеживать, сколько промптов вы написали за неделю, и если мало, то про повышение можно забыть.
Этот тренд захватывает всю Кремниевую долину. На днях консалтинговый гигант Accenture тоже ввел правило: хочешь стать директором - покажи, как часто ты пользуешься нейросетями.
🥸 godnoTECH - Новости IT
Руководство компании прямым текстом заявило: либо вы используете искусственный интеллект каждый день, либо прощайтесь с хорошими оценками (и, вероятно, премиями). Если в прошлом году это касалось только инженеров (им вписали ИИ в должностные инструкции), то теперь под каток попали вообще все.
Сундар Пичаи оправдывает этот киберпанк тем, что "конкуренты так делают, значит, и нам надо"
Использовать можно только внутренних ботов Google (типа Duckie или Goose), которые обучены на корпоративной документации. У менеджеров появились легальные инструменты, чтобы отслеживать, сколько промптов вы написали за неделю, и если мало, то про повышение можно забыть.
Этот тренд захватывает всю Кремниевую долину. На днях консалтинговый гигант Accenture тоже ввел правило: хочешь стать директором - покажи, как часто ты пользуешься нейросетями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Инженеры Uber сделали ИИ-клона своего гендиректора 🎈
Дара Хосровшахи (CEO Uber) с явным удовольствием рассказал на подкасте, что некоторые команды натренировали чат-бота Dara AI. Теперь они используют его как виртуальную грушу для битья, чтобы репетировать свои доклады перед реальными совещаниями.
Прежде чем нести красивые слайды живому директору, команда скармливает их алгоритму. Бот, обученный на стиле общения босса, задает неудобные вопросы, придирается к метрикам и ведет себя как типичный топ-менеджер. Это позволяет инженерам вылизать презентацию до абсолютного идеала и заранее придумать ответы на все каверзные выпады.
Есть что-то прекрасное в том, что сотрудники тренируются на AI-копии босса, прежде чем показать ему отполированные слайды. Хосровшахи, наверное, стоит задуматься: если бот достаточно точно имитирует его вопросы, то может, и на совещание отправлять бота? Сэкономит время обоим⏳
🥸 godnoTECH - Новости IT
Дара Хосровшахи (CEO Uber) с явным удовольствием рассказал на подкасте, что некоторые команды натренировали чат-бота Dara AI. Теперь они используют его как виртуальную грушу для битья, чтобы репетировать свои доклады перед реальными совещаниями.
Прежде чем нести красивые слайды живому директору, команда скармливает их алгоритму. Бот, обученный на стиле общения босса, задает неудобные вопросы, придирается к метрикам и ведет себя как типичный топ-менеджер. Это позволяет инженерам вылизать презентацию до абсолютного идеала и заранее придумать ответы на все каверзные выпады.
Есть что-то прекрасное в том, что сотрудники тренируются на AI-копии босса, прежде чем показать ему отполированные слайды. Хосровшахи, наверное, стоит задуматься: если бот достаточно точно имитирует его вопросы, то может, и на совещание отправлять бота? Сэкономит время обоим
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚3😨3👍1
НАТО использует тараканов-киборгов в разведке 🪳
Немецкий стартап поставил НАТО рои управляемых насекомых для ближней разведки. Это живые тараканы с мини-рюкзаками, в которых камера, микроконтроллер, радиомодуль, батарея. Управление происходит через электростимуляцию нервных узлов, то есть электроды заставляют насекомое поворачивать, ускоряться или останавливаться в тех местах, где дроны не пролезают, а разведгруппу посылать опасно. CEO компании утверждает, что система уже развёрнута у платящих клиентов после полевых испытаний в Европе и США.
Военные эксперты пока ломают голову над тем, как защитить крошечные антенны тараканов от намеренных радиопомех. Хотя по сути, ответ противника на этот инновационный рой может свестись к баллончику дихлофоса и ловкому удару армейским ботинком👊
🥸 godnoTECH - Новости IT
Немецкий стартап поставил НАТО рои управляемых насекомых для ближней разведки. Это живые тараканы с мини-рюкзаками, в которых камера, микроконтроллер, радиомодуль, батарея. Управление происходит через электростимуляцию нервных узлов, то есть электроды заставляют насекомое поворачивать, ускоряться или останавливаться в тех местах, где дроны не пролезают, а разведгруппу посылать опасно. CEO компании утверждает, что система уже развёрнута у платящих клиентов после полевых испытаний в Европе и США.
Военные эксперты пока ломают голову над тем, как защитить крошечные антенны тараканов от намеренных радиопомех. Хотя по сути, ответ противника на этот инновационный рой может свестись к баллончику дихлофоса и ловкому удару армейским ботинком
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10