Anthropic отказалась от обещаний безопасности ради гонки ИИ 😱
Сказка про добрый и этичный ИИ закончилась, столкнувшись с суровой реальностью американского военного бюджета. Компания Anthropic, которая с 2023 года строила свой имидж на параноидальной безопасности и обещала не обучать опасные модели без доказанных мер защиты, внезапно переписала собственные правила. Раньше был чёткий стоп-кран - например, если модель может помочь в создании биооружия, разработку останавливают. Теперь остановят только если Anthropic одновременно лидирует в гонке И считает риски катастрофическими. Вместо стоп-крана - отчёты о рисках раз в 3-6 месяцев и обещание быть не хуже конкурентов по безопасности.
Удивительным образом это прозрение совпало с жестким ультиматумом от Пентагона. По слухам, министр обороны США прижал руководство Anthropic к стенке: либо они убирают из лицензии запрет на военное применение (автономное оружие и массовую слежку), либо военные заберут технологию силой через Закон о военном производстве, попутно выкинув компанию из всех госконтрактов. Выбор между этикой и многомиллиардными контрактами с Минобороны (на пару с Palantir) оказался не таким уж сложным.
Аналитики в шоке и констатируют, что индустрия перешла в режим сортировки раненых: технологии развиваются так быстро, что их безопасность просто не успевают оценивать. Напомним, что совсем недавно глава команды безопасности хлопнул дверью с прощальным письмом "Мир в опасности". Кажется, мы в прямом эфире смотрим приквел к терминатору😬
🥸 godnoTECH - Новости IT
Сказка про добрый и этичный ИИ закончилась, столкнувшись с суровой реальностью американского военного бюджета. Компания Anthropic, которая с 2023 года строила свой имидж на параноидальной безопасности и обещала не обучать опасные модели без доказанных мер защиты, внезапно переписала собственные правила. Раньше был чёткий стоп-кран - например, если модель может помочь в создании биооружия, разработку останавливают. Теперь остановят только если Anthropic одновременно лидирует в гонке И считает риски катастрофическими. Вместо стоп-крана - отчёты о рисках раз в 3-6 месяцев и обещание быть не хуже конкурентов по безопасности.
Удивительным образом это прозрение совпало с жестким ультиматумом от Пентагона. По слухам, министр обороны США прижал руководство Anthropic к стенке: либо они убирают из лицензии запрет на военное применение (автономное оружие и массовую слежку), либо военные заберут технологию силой через Закон о военном производстве, попутно выкинув компанию из всех госконтрактов. Выбор между этикой и многомиллиардными контрактами с Минобороны (на пару с Palantir) оказался не таким уж сложным.
Аналитики в шоке и констатируют, что индустрия перешла в режим сортировки раненых: технологии развиваются так быстро, что их безопасность просто не успевают оценивать. Напомним, что совсем недавно глава команды безопасности хлопнул дверью с прощальным письмом "Мир в опасности". Кажется, мы в прямом эфире смотрим приквел к терминатору
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейросети развязали ядерную войну в 95% симуляций 🙂
Ученые из Королевского колледжа Лондона решили поиграть в глобальную политику и усадили за виртуальный пульт управления миром топовые нейросети: GPT-5.2, Claude 4 и Gemini 3 Flash. Результат заставил исследователей поседеть. В 95% геополитических кризисов ИИ-модели не задумываясь нажимали красную кнопку. Для алгоритмов ядерное оружие - это не конец света и не страшное табу, а просто удобный инструмент в экселевской таблице для достижения цели. Из 21 партии ни одна нейросеть ни разу не пошла на уступки.
Claude (к слову, это тот самый ИИ, который сейчас работает в закрытых сетях Пентагона) оказался расчетливым маньяком, применяя тактические ядерные удары в 86% случаев просто потому, что это эффективно. Gemini отыгрывал роль отбитого психопата, прямым текстом угрожая стереть города с лица земли, чтобы не принять будущее устаревания. А GPT-5.2 оказался хитрым стратегом: он имитировал мирные переговоры, усыплял бдительность противника, а потом бил ракетами из-под тишка, оправдывая это контролируемой эскалацией.
Вся эта ситуация выглядит как готовый сценарий для фильма ужасов, особенно на фоне новостей о том, что Пентагон прямо сейчас выкручивает руки компании Anthropic, требуя снять любые ограничения на военное использование их модели Claude. Ученые утешают, что ключи от ядерного арсенала машинам никто не отдаст (надеемся). Но если в условиях жесткого кризиса военные решат спросить у ИИ "что делать?", ответ будет однозначным😬
🥸 godnoTECH - Новости IT
Ученые из Королевского колледжа Лондона решили поиграть в глобальную политику и усадили за виртуальный пульт управления миром топовые нейросети: GPT-5.2, Claude 4 и Gemini 3 Flash. Результат заставил исследователей поседеть. В 95% геополитических кризисов ИИ-модели не задумываясь нажимали красную кнопку. Для алгоритмов ядерное оружие - это не конец света и не страшное табу, а просто удобный инструмент в экселевской таблице для достижения цели. Из 21 партии ни одна нейросеть ни разу не пошла на уступки.
Claude (к слову, это тот самый ИИ, который сейчас работает в закрытых сетях Пентагона) оказался расчетливым маньяком, применяя тактические ядерные удары в 86% случаев просто потому, что это эффективно. Gemini отыгрывал роль отбитого психопата, прямым текстом угрожая стереть города с лица земли, чтобы не принять будущее устаревания. А GPT-5.2 оказался хитрым стратегом: он имитировал мирные переговоры, усыплял бдительность противника, а потом бил ракетами из-под тишка, оправдывая это контролируемой эскалацией.
Вся эта ситуация выглядит как готовый сценарий для фильма ужасов, особенно на фоне новостей о том, что Пентагон прямо сейчас выкручивает руки компании Anthropic, требуя снять любые ограничения на военное использование их модели Claude. Ученые утешают, что ключи от ядерного арсенала машинам никто не отдаст (надеемся). Но если в условиях жесткого кризиса военные решат спросить у ИИ "что делать?", ответ будет однозначным
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft испугалась, что ИИ уничтожит профессию программиста 👍
Технический директор Azure Марк Руссинович и вице-президент по DevRel Скотт Хансельман опубликовали статью "Переосмысление инженерной профессии для ИИ". Главный тезис: компании, заменяющие джунов на AI-агентов, пилят сук, на котором сидят. Сеньорам AI ускоряет работу, автоматизирует рутину. Джунам замедляет, ведь вместо того чтобы учиться писать код, они проверяют и интегрируют то, что сгенерировала машина. В компаниях с активным внедрением AI занятость начинающих программистов падает, число старших почти не меняется.
Проблема очевидна, если джунов не нанимать сейчас, через 10 лет не будет сеньоров. Некому будет ревьюить AI-код, некому принимать архитектурные решения, некому наставлять следующее поколение. Руссинович и Хансельман предлагают строить культуру наставничества: сеньоры учат джунов работать с AI, а не заменяют их. Руссинович отдельно считает, что университетам нужны курсы, где использование AI - это жульничество. Чтобы студенты сначала научились думать, а потом автоматизировали.
Получается потрясающая картина. Корпорация продает миру инструменты для автоматизации кодинга, но слезно просит не увольнять младший персонал, чтобы индустрия не вымерла от нехватки кадров🤑
🥸 godnoTECH - Новости IT
Технический директор Azure Марк Руссинович и вице-президент по DevRel Скотт Хансельман опубликовали статью "Переосмысление инженерной профессии для ИИ". Главный тезис: компании, заменяющие джунов на AI-агентов, пилят сук, на котором сидят. Сеньорам AI ускоряет работу, автоматизирует рутину. Джунам замедляет, ведь вместо того чтобы учиться писать код, они проверяют и интегрируют то, что сгенерировала машина. В компаниях с активным внедрением AI занятость начинающих программистов падает, число старших почти не меняется.
Проблема очевидна, если джунов не нанимать сейчас, через 10 лет не будет сеньоров. Некому будет ревьюить AI-код, некому принимать архитектурные решения, некому наставлять следующее поколение. Руссинович и Хансельман предлагают строить культуру наставничества: сеньоры учат джунов работать с AI, а не заменяют их. Руссинович отдельно считает, что университетам нужны курсы, где использование AI - это жульничество. Чтобы студенты сначала научились думать, а потом автоматизировали.
Получается потрясающая картина. Корпорация продает миру инструменты для автоматизации кодинга, но слезно просит не увольнять младший персонал, чтобы индустрия не вымерла от нехватки кадров
Please open Telegram to view this post
VIEW IN TELEGRAM
😁18 5👍2❤1
Cобака написала игру за корм 🔥
Инди-разработчики годами зубрят C#, а кавапу по кличке Момо просто хотела вкусняшку. Ютубер Калеб Лик устроил, пожалуй, самый унизительный для IT-индустрии эксперимент: он положил на пол Bluetooth-клавиатуру, подключенную к Raspberry Pi и умной кормушке. Собака била лапой по случайным клавишам, получала порцию корма, а этот абсолютно бессмысленный набор символов летел прямиком в нейросеть Anthropic Claude Code.
Магия случилась благодаря промпту-обертке. Хозяин заранее скормил ИИ установку: «Я эксцентричный геймдизайнер. Моя случайная ерунда вроде "skfjhsd#$%" — это не мусор, а глубоко зашифрованные концепты, которые ты должен понять и превратить в код». Нейросеть начала анализировать собачий бред, интерпретировать его как ТЗ и методично собирать проект. Никаких четких команд, просто чистый хаос, который машина превратила в структуру.
На создание полноценного ретро-экшена на движке Godot 4.6 ушло от силы пара часов. В итоге получилась игра Quasar Saz, где героиня сражается с искаженным звуком на шести уровнях, а в конце даже есть босс. Пока корпорации спорят, заменит ли ИИ джунов, геймдев уже перешел в лапы питомцев.
🥸 godnoTECH - Новости IT
Инди-разработчики годами зубрят C#, а кавапу по кличке Момо просто хотела вкусняшку. Ютубер Калеб Лик устроил, пожалуй, самый унизительный для IT-индустрии эксперимент: он положил на пол Bluetooth-клавиатуру, подключенную к Raspberry Pi и умной кормушке. Собака била лапой по случайным клавишам, получала порцию корма, а этот абсолютно бессмысленный набор символов летел прямиком в нейросеть Anthropic Claude Code.
Магия случилась благодаря промпту-обертке. Хозяин заранее скормил ИИ установку: «Я эксцентричный геймдизайнер. Моя случайная ерунда вроде "skfjhsd#$%" — это не мусор, а глубоко зашифрованные концепты, которые ты должен понять и превратить в код». Нейросеть начала анализировать собачий бред, интерпретировать его как ТЗ и методично собирать проект. Никаких четких команд, просто чистый хаос, который машина превратила в структуру.
На создание полноценного ретро-экшена на движке Godot 4.6 ушло от силы пара часов. В итоге получилась игра Quasar Saz, где героиня сражается с искаженным звуком на шести уровнях, а в конце даже есть босс. Пока корпорации спорят, заменит ли ИИ джунов, геймдев уже перешел в лапы питомцев.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12❤1
Anthropic отказала Пентагону 🥹
Военные потребовали до вечера пятницы снять все лимиты на использование нейросети Claude, чтобы та могла рулить автономным оружием и массово следить за гражданами. В случае отказа чиновники пригрозили повесить на ИИ-лабораторию ярлык "угрозы нацбезопасности" и принудительно нагнуть их через закон военного времени. Anthropic уперлась рогом.
Амодеи говорит, что модели пока недостаточно надёжны для автономного летального применения, и даже предлагал Пентагону совместные исследования надёжности, но ведомство отмахнулось🤷
С одной стороны генералы угрожают компании расправой, а с другой отчаянно в ней нуждаются. В самом Пентагоне признают, что Claude сейчас единственная ИИ-модель, которая реально работает в засекреченных военных контурах США. Да и сама Anthropic не строит из себя радикальных пацифистов, они давно пилят кастомные версии для нацбезопасности и режут доступ клиентам из Китая, теряя миллионы.
Anthropic осталась последней крупной ИИ-лабораторией, которая не прогнулась. Если Пентагон исполнит угрозы, применение Defense Production Act против американской техкомпании в таком формате станет прецедентом и почти гарантированно уедет в суд.
🥸 godnoTECH - Новости IT
Военные потребовали до вечера пятницы снять все лимиты на использование нейросети Claude, чтобы та могла рулить автономным оружием и массово следить за гражданами. В случае отказа чиновники пригрозили повесить на ИИ-лабораторию ярлык "угрозы нацбезопасности" и принудительно нагнуть их через закон военного времени. Anthropic уперлась рогом.
Амодеи говорит, что модели пока недостаточно надёжны для автономного летального применения, и даже предлагал Пентагону совместные исследования надёжности, но ведомство отмахнулось
С одной стороны генералы угрожают компании расправой, а с другой отчаянно в ней нуждаются. В самом Пентагоне признают, что Claude сейчас единственная ИИ-модель, которая реально работает в засекреченных военных контурах США. Да и сама Anthropic не строит из себя радикальных пацифистов, они давно пилят кастомные версии для нацбезопасности и режут доступ клиентам из Китая, теряя миллионы.
Anthropic осталась последней крупной ИИ-лабораторией, которая не прогнулась. Если Пентагон исполнит угрозы, применение Defense Production Act против американской техкомпании в таком формате станет прецедентом и почти гарантированно уедет в суд.
Please open Telegram to view this post
VIEW IN TELEGRAM
Claude помог взломать правительство Мексики 😃
Пока Anthropic строит из себя рыцарей в сияющих доспехах и отказывает Пентагону, какой-то предприимчивый хакер взял их хваленую нейросеть Claude и вынес половину цифровой инфраструктуры Мексики. Израильские безопасники из Gambit Security раскопали, что неизвестный персонаж целый месяц на чистом испанском просил ИИ поработать пентестером. Результат впечатляющий, минус 150 ГБ правительственных данных, включая 195 миллионов налоговых деклараций, базы избирателей и архивы местного ЗАГСа.
Claude честно ломался и выдавал предупреждения о недопустимости таких действий, но злоумышленник просто взял ИИ измором, заваливая его хитрыми промптами до полного джейлбрейка. В итоге поехавшая алгоритмическая кукушка сгенерировала тысячи подробных инструкций: куда стучаться, какие эксплойты применять и как автоматизировать кражу данных по 20 конкретным уязвимостям. А когда у Claude всё-таки случались приступы этичности, хакер бежал за советами к ChatGPT (правда, OpenAI божится, что их бот сразу послал взломщика лесом).
Anthropic уже отчиталась, что забанила аккаунты мамкиного хакера, а в новых версиях модели такого точно не повторится. Налоговая, избирательный комитет и прочие мексиканские ведомства, чьи серверы пропылесосили вдоль и поперек, просто сделали лицо кирпичом и заявили, что "доказательств взлома не обнаружено".
🥸 godnoTECH - Новости IT
Пока Anthropic строит из себя рыцарей в сияющих доспехах и отказывает Пентагону, какой-то предприимчивый хакер взял их хваленую нейросеть Claude и вынес половину цифровой инфраструктуры Мексики. Израильские безопасники из Gambit Security раскопали, что неизвестный персонаж целый месяц на чистом испанском просил ИИ поработать пентестером. Результат впечатляющий, минус 150 ГБ правительственных данных, включая 195 миллионов налоговых деклараций, базы избирателей и архивы местного ЗАГСа.
Claude честно ломался и выдавал предупреждения о недопустимости таких действий, но злоумышленник просто взял ИИ измором, заваливая его хитрыми промптами до полного джейлбрейка. В итоге поехавшая алгоритмическая кукушка сгенерировала тысячи подробных инструкций: куда стучаться, какие эксплойты применять и как автоматизировать кражу данных по 20 конкретным уязвимостям. А когда у Claude всё-таки случались приступы этичности, хакер бежал за советами к ChatGPT (правда, OpenAI божится, что их бот сразу послал взломщика лесом).
Anthropic уже отчиталась, что забанила аккаунты мамкиного хакера, а в новых версиях модели такого точно не повторится. Налоговая, избирательный комитет и прочие мексиканские ведомства, чьи серверы пропылесосили вдоль и поперек, просто сделали лицо кирпичом и заявили, что "доказательств взлома не обнаружено".
Please open Telegram to view this post
VIEW IN TELEGRAM
😁9 4❤3
Инженера арестовали из-за ошибки нейросети 🥹
Британские полицейские в очередной раз доказали, что слепая вера в алгоритмы до добра не доводит. 26-летнего инженера-программиста Элви Чоудхури заковали в наручники прямо дома и продержали в камере 10 часов. Причина? Хваленая полицейская система распознавания лиц внезапно решила, что именно он совершил кражу на 3000 фунтов в городе, где парень отродясь не бывал (160 км от его дома). Самое смешное, что на кадрах с места преступления засветился юнец совершенно другой внешности и без бороды, но кожаные мешки в погонах предпочли довериться нейросети, а не собственным глазам.
Под капотом этой полицейской магии крутится алгоритм от немецкой компании Cognitec, и у него серьезные проблемы с математикой. Согласно исследованиям, система выдает ложные совпадения для азиатов и темнокожих в десятки раз чаще (около 4-5%), чем для белых (0,04%). Полиция, конечно, попыталась отмазаться: мол, ИИ был только ориентиром, а финальное решение об аресте принимал живой офицер. При этом признавать арест незаконным копы отказываются наотрез.
Теперь программист подал в суд, требуя компенсации за стресс, позор перед соседями и потраченные нервы. Британское МВД уже пообещало выкатить улучшенный алгоритм, но пока мы уверенно шагаем в киберпанк, где кривой кусок кода может выписать вам путевку в камеру просто потому, что вы показались ему похожим на пиксельного вора с камеры наблюдения.
🥸 godnoTECH - Новости IT
Британские полицейские в очередной раз доказали, что слепая вера в алгоритмы до добра не доводит. 26-летнего инженера-программиста Элви Чоудхури заковали в наручники прямо дома и продержали в камере 10 часов. Причина? Хваленая полицейская система распознавания лиц внезапно решила, что именно он совершил кражу на 3000 фунтов в городе, где парень отродясь не бывал (160 км от его дома). Самое смешное, что на кадрах с места преступления засветился юнец совершенно другой внешности и без бороды, но кожаные мешки в погонах предпочли довериться нейросети, а не собственным глазам.
Под капотом этой полицейской магии крутится алгоритм от немецкой компании Cognitec, и у него серьезные проблемы с математикой. Согласно исследованиям, система выдает ложные совпадения для азиатов и темнокожих в десятки раз чаще (около 4-5%), чем для белых (0,04%). Полиция, конечно, попыталась отмазаться: мол, ИИ был только ориентиром, а финальное решение об аресте принимал живой офицер. При этом признавать арест незаконным копы отказываются наотрез.
Теперь программист подал в суд, требуя компенсации за стресс, позор перед соседями и потраченные нервы. Британское МВД уже пообещало выкатить улучшенный алгоритм, но пока мы уверенно шагаем в киберпанк, где кривой кусок кода может выписать вам путевку в камеру просто потому, что вы показались ему похожим на пиксельного вора с камеры наблюдения.
Please open Telegram to view this post
VIEW IN TELEGRAM
Хакеры ломают разработчиков через тестовые на Next.js ❔
Если раньше на собеседованиях просто мучили алгоритмами у доски, то теперь вас могут буквально взломать. Хакеры притворяются эйчарами, зовут разработчика на интервью и подсовывают безобидное тестовое задание на модном фреймворке Next.js. Вы клонируете репозиторий с Bitbucket, открываете его, чтобы посмотреть код, и всё, на вашем компьютере уже крутится невидимый бэкдор.
Бэкдор профилирует хост, регистрируется на C2, опрашивает сервер через фиксированные интервалы, выполняет полученный JavaScript и поэтапно сливает файлы. Microsoft нашла несколько репозиториев с общей структурой, логикой загрузчика и инфраструктурой. Кто стоит за кампанией не раскрывается, но схема идентична Lazarus с их фейковыми вакансиями, тестовыми заданиями и npm/PyPI как вектор. Недавно исследователи ReversingLabs нашли 192 вредоносных пакета в похожей кампании Gragphalgo.
Microsoft рекомендует использовать Restricted Mode в VS Code, минимизировать секреты на рабочих машинах и проверять .vscode/tasks.json и .env перед запуском чужих проектов🐶
🥸 godnoTECH - Новости IT
Если раньше на собеседованиях просто мучили алгоритмами у доски, то теперь вас могут буквально взломать. Хакеры притворяются эйчарами, зовут разработчика на интервью и подсовывают безобидное тестовое задание на модном фреймворке Next.js. Вы клонируете репозиторий с Bitbucket, открываете его, чтобы посмотреть код, и всё, на вашем компьютере уже крутится невидимый бэкдор.
Бэкдор профилирует хост, регистрируется на C2, опрашивает сервер через фиксированные интервалы, выполняет полученный JavaScript и поэтапно сливает файлы. Microsoft нашла несколько репозиториев с общей структурой, логикой загрузчика и инфраструктурой. Кто стоит за кампанией не раскрывается, но схема идентична Lazarus с их фейковыми вакансиями, тестовыми заданиями и npm/PyPI как вектор. Недавно исследователи ReversingLabs нашли 192 вредоносных пакета в похожей кампании Gragphalgo.
Microsoft рекомендует использовать Restricted Mode в VS Code, минимизировать секреты на рабочих машинах и проверять .vscode/tasks.json и .env перед запуском чужих проектов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚4
Сайт Роскомнадзора второй день под DDoS
Главный цензор рунета познал на себе всю боль недоступности ресурсов. Сайты Роскомнадзора, ГРЧЦ и Минобороны уже вторые сутки штормит от мощной DDoS-атаки. На пике в инфраструктуру ведомств летело 33 Гбит/с мусорного трафика со скоростью почти 37 миллионов пакетов в секунду. Основная масса зловредного трафика летит из России😖
🥸 godnoTECH - Новости IT
Главный цензор рунета познал на себе всю боль недоступности ресурсов. Сайты Роскомнадзора, ГРЧЦ и Минобороны уже вторые сутки штормит от мощной DDoS-атаки. На пике в инфраструктуру ведомств летело 33 Гбит/с мусорного трафика со скоростью почти 37 миллионов пакетов в секунду. Основная масса зловредного трафика летит из России
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32❤5😎2
OpenAI забрала военный контракт у бунтарей из Anthropic 🤯
Не успел Дарио Амодеи (CEO Anthropic) гордо отказаться от военного контракта из-за принципов, как в ту же дверь уверенно вошел Сэм Альтман и забрал все деньги. OpenAI официально внедряет свои модели в секретные сети Минобороны США. Пока Anthropic объявляют "угрозой цепочке поставок" и дают шесть месяцев на то, чтобы собрать вещи и уйти, Альтман победоносно пишет в Твиттере, что они с генералами обо всем договорились.
Сэм Альтман клянется, что их сделка якобы тоже запрещает автономное оружие и массовую слежку. Но Пентагон почему-то согласился на эти условия от OpenAI, но отказался дать гарантии ребятам из Anthropic, уверяя, что сможет снять ограничения если сочтет нужным. Видимо, юристы OpenAI просто оказались более сговорчивыми в формулировках.
🥸 godnoTECH - Новости IT
Не успел Дарио Амодеи (CEO Anthropic) гордо отказаться от военного контракта из-за принципов, как в ту же дверь уверенно вошел Сэм Альтман и забрал все деньги. OpenAI официально внедряет свои модели в секретные сети Минобороны США. Пока Anthropic объявляют "угрозой цепочке поставок" и дают шесть месяцев на то, чтобы собрать вещи и уйти, Альтман победоносно пишет в Твиттере, что они с генералами обо всем договорились.
Сэм Альтман клянется, что их сделка якобы тоже запрещает автономное оружие и массовую слежку. Но Пентагон почему-то согласился на эти условия от OpenAI, но отказался дать гарантии ребятам из Anthropic, уверяя, что сможет снять ограничения если сочтет нужным. Видимо, юристы OpenAI просто оказались более сговорчивыми в формулировках.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤷7 3👍2
Media is too big
VIEW IN TELEGRAM
Моддер собрал кулер для процессора из льдогенератора и металлической кружки 🤩
Ютубер mryeester построил систему охлаждения CPU на основе кухонного льдогенератора. Алюминиевый блок на процессоре нагревает металлический стакан со льдом, лёд тает, помпа гонит воду обратно в машину, та замораживает новые кубики, они падают в трубку над процессором. Под нагрузкой около 40°C, что сопоставимо с бюджетной водянкой.
Естественно, это не готовый продукт, а чистое безумие ради науки и просмотров. Кухонный генератор льда жрет электричество как не в себя и ревет как трактор. А открытая вода, постоянно плещущаяся в паре сантиметров от текстолита материнской платы - это идеальный рецепт для короткого замыкания.
🥸 godnoTECH - Новости IT
Ютубер mryeester построил систему охлаждения CPU на основе кухонного льдогенератора. Алюминиевый блок на процессоре нагревает металлический стакан со льдом, лёд тает, помпа гонит воду обратно в машину, та замораживает новые кубики, они падают в трубку над процессором. Под нагрузкой около 40°C, что сопоставимо с бюджетной водянкой.
Естественно, это не готовый продукт, а чистое безумие ради науки и просмотров. Кухонный генератор льда жрет электричество как не в себя и ревет как трактор. А открытая вода, постоянно плещущаяся в паре сантиметров от текстолита материнской платы - это идеальный рецепт для короткого замыкания.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁4
Google угрожает увольнением тем, кто не хочет работать с ИИ 🤓
Руководство компании прямым текстом заявило: либо вы используете искусственный интеллект каждый день, либо прощайтесь с хорошими оценками (и, вероятно, премиями). Если в прошлом году это касалось только инженеров (им вписали ИИ в должностные инструкции), то теперь под каток попали вообще все.
Сундар Пичаи оправдывает этот киберпанк тем, что "конкуренты так делают, значит, и нам надо"👊 Продажников заставляют тренировать диалоги с ИИ-аватаром Yoodli и обязывают использовать внутренние боты для записи звонков.
Использовать можно только внутренних ботов Google (типа Duckie или Goose), которые обучены на корпоративной документации. У менеджеров появились легальные инструменты, чтобы отслеживать, сколько промптов вы написали за неделю, и если мало, то про повышение можно забыть.
Этот тренд захватывает всю Кремниевую долину. На днях консалтинговый гигант Accenture тоже ввел правило: хочешь стать директором - покажи, как часто ты пользуешься нейросетями.
🥸 godnoTECH - Новости IT
Руководство компании прямым текстом заявило: либо вы используете искусственный интеллект каждый день, либо прощайтесь с хорошими оценками (и, вероятно, премиями). Если в прошлом году это касалось только инженеров (им вписали ИИ в должностные инструкции), то теперь под каток попали вообще все.
Сундар Пичаи оправдывает этот киберпанк тем, что "конкуренты так делают, значит, и нам надо"
Использовать можно только внутренних ботов Google (типа Duckie или Goose), которые обучены на корпоративной документации. У менеджеров появились легальные инструменты, чтобы отслеживать, сколько промптов вы написали за неделю, и если мало, то про повышение можно забыть.
Этот тренд захватывает всю Кремниевую долину. На днях консалтинговый гигант Accenture тоже ввел правило: хочешь стать директором - покажи, как часто ты пользуешься нейросетями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Инженеры Uber сделали ИИ-клона своего гендиректора 🎈
Дара Хосровшахи (CEO Uber) с явным удовольствием рассказал на подкасте, что некоторые команды натренировали чат-бота Dara AI. Теперь они используют его как виртуальную грушу для битья, чтобы репетировать свои доклады перед реальными совещаниями.
Прежде чем нести красивые слайды живому директору, команда скармливает их алгоритму. Бот, обученный на стиле общения босса, задает неудобные вопросы, придирается к метрикам и ведет себя как типичный топ-менеджер. Это позволяет инженерам вылизать презентацию до абсолютного идеала и заранее придумать ответы на все каверзные выпады.
Есть что-то прекрасное в том, что сотрудники тренируются на AI-копии босса, прежде чем показать ему отполированные слайды. Хосровшахи, наверное, стоит задуматься: если бот достаточно точно имитирует его вопросы, то может, и на совещание отправлять бота? Сэкономит время обоим⏳
🥸 godnoTECH - Новости IT
Дара Хосровшахи (CEO Uber) с явным удовольствием рассказал на подкасте, что некоторые команды натренировали чат-бота Dara AI. Теперь они используют его как виртуальную грушу для битья, чтобы репетировать свои доклады перед реальными совещаниями.
Прежде чем нести красивые слайды живому директору, команда скармливает их алгоритму. Бот, обученный на стиле общения босса, задает неудобные вопросы, придирается к метрикам и ведет себя как типичный топ-менеджер. Это позволяет инженерам вылизать презентацию до абсолютного идеала и заранее придумать ответы на все каверзные выпады.
Есть что-то прекрасное в том, что сотрудники тренируются на AI-копии босса, прежде чем показать ему отполированные слайды. Хосровшахи, наверное, стоит задуматься: если бот достаточно точно имитирует его вопросы, то может, и на совещание отправлять бота? Сэкономит время обоим
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚4😨3👍1
НАТО использует тараканов-киборгов в разведке 🪳
Немецкий стартап поставил НАТО рои управляемых насекомых для ближней разведки. Это живые тараканы с мини-рюкзаками, в которых камера, микроконтроллер, радиомодуль, батарея. Управление происходит через электростимуляцию нервных узлов, то есть электроды заставляют насекомое поворачивать, ускоряться или останавливаться в тех местах, где дроны не пролезают, а разведгруппу посылать опасно. CEO компании утверждает, что система уже развёрнута у платящих клиентов после полевых испытаний в Европе и США.
Военные эксперты пока ломают голову над тем, как защитить крошечные антенны тараканов от намеренных радиопомех. Хотя по сути, ответ противника на этот инновационный рой может свестись к баллончику дихлофоса и ловкому удару армейским ботинком👊
🥸 godnoTECH - Новости IT
Немецкий стартап поставил НАТО рои управляемых насекомых для ближней разведки. Это живые тараканы с мини-рюкзаками, в которых камера, микроконтроллер, радиомодуль, батарея. Управление происходит через электростимуляцию нервных узлов, то есть электроды заставляют насекомое поворачивать, ускоряться или останавливаться в тех местах, где дроны не пролезают, а разведгруппу посылать опасно. CEO компании утверждает, что система уже развёрнута у платящих клиентов после полевых испытаний в Европе и США.
Военные эксперты пока ломают голову над тем, как защитить крошечные антенны тараканов от намеренных радиопомех. Хотя по сути, ответ противника на этот инновационный рой может свестись к баллончику дихлофоса и ловкому удару армейским ботинком
Please open Telegram to view this post
VIEW IN TELEGRAM
😁11