90% директоров не увидели пользы от ИИ в своих компаниях 🐶
Сотни миллиардов долларов, влитые в ИИ-революцию, пока приносят лишь разочарование и красивые презентации. Почти 90% топ-менеджеров признались, что за три года хайпа нейросети вообще никак не повлияли ни на эффективность бизнеса, ни на оптимизацию штата. Пока инвесторы на Уолл-стрит грезят о кибер-корпорациях будущего, реальные работяги открывают ChatGPT от силы на полтора часа в неделю, а каждый четвертый сотрудник принципиально игнорирует этот прорыв.
Ситуацию сравнивают с парадоксом Солоу: после появления компьютеров в 60-х производительность не росла до середины 90-х. Но аналогия хромает. Компьютеры с первого дня давали предсказуемый результат. ИИ устроен иначе, каждый вывод требует проверки. Один из экспертов описал это так: "Представьте лазерный дальномер, который мгновенно измеряет всё. Но в инструкции мелким шрифтом: результаты перепроверяйте вручную, точность не гарантируется".
🥸 godnoTECH - Новости IT
Сотни миллиардов долларов, влитые в ИИ-революцию, пока приносят лишь разочарование и красивые презентации. Почти 90% топ-менеджеров признались, что за три года хайпа нейросети вообще никак не повлияли ни на эффективность бизнеса, ни на оптимизацию штата. Пока инвесторы на Уолл-стрит грезят о кибер-корпорациях будущего, реальные работяги открывают ChatGPT от силы на полтора часа в неделю, а каждый четвертый сотрудник принципиально игнорирует этот прорыв.
Ситуацию сравнивают с парадоксом Солоу: после появления компьютеров в 60-х производительность не росла до середины 90-х. Но аналогия хромает. Компьютеры с первого дня давали предсказуемый результат. ИИ устроен иначе, каждый вывод требует проверки. Один из экспертов описал это так: "Представьте лазерный дальномер, который мгновенно измеряет всё. Но в инструкции мелким шрифтом: результаты перепроверяйте вручную, точность не гарантируется".
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡10😁8
LLM генерируют пароли, которые выглядят надёжными, но таковыми не являются 🤷♂️
Нейросети научились писать код и рисовать картины, но провалили базовый тест на криптографическую паранойю. Эксперты из компании Irregular попросили топовые LLM (Claude, GPT, Gemini) сгенерировать надежные пароли. На первый взгляд всё круто: разные регистры, спецсимволы, 100 баллов по шкале энтропии. Но стоило попросить выдать еще 50 штук, как магия интеллекта рассеялась. Оказалось, что сверхразум лепит клонов, пароли почти всегда начинаются с G7, используют один и тот же шаблон, а один конкретный пасс (G7$kL9#mQ2&xP4!w) Claude выдал аж 18 раз из 50. Вероятность совпадения, которая в безопасности должна стремиться к нулю, у ИИ составила дикие 36%.
Причина этого фиаско заложена в самой архитектуре языковых моделей. База любой защиты - это генератор псевдослучайных чисел, который выдает абсолютный, непредсказуемый хаос. А суть работы любой LLM - угадывать наиболее вероятный следующий токен. Нейросеть физически не умеет в настоящий рандом. Она генерирует то, что выглядит как типичный сложный пароль в её обучающей выборке. Она даже избегает звездочек (*), чтобы случайно не сломать Markdown-разметку, и не повторяет символы подряд, потому что ей кажется, что это выглядит менее случайным.
Искусственный интеллект может написать вам дипломную работу, но генерацию секретов лучше оставить математике😬
🥸 godnoTECH - Новости IT
Нейросети научились писать код и рисовать картины, но провалили базовый тест на криптографическую паранойю. Эксперты из компании Irregular попросили топовые LLM (Claude, GPT, Gemini) сгенерировать надежные пароли. На первый взгляд всё круто: разные регистры, спецсимволы, 100 баллов по шкале энтропии. Но стоило попросить выдать еще 50 штук, как магия интеллекта рассеялась. Оказалось, что сверхразум лепит клонов, пароли почти всегда начинаются с G7, используют один и тот же шаблон, а один конкретный пасс (G7$kL9#mQ2&xP4!w) Claude выдал аж 18 раз из 50. Вероятность совпадения, которая в безопасности должна стремиться к нулю, у ИИ составила дикие 36%.
Причина этого фиаско заложена в самой архитектуре языковых моделей. База любой защиты - это генератор псевдослучайных чисел, который выдает абсолютный, непредсказуемый хаос. А суть работы любой LLM - угадывать наиболее вероятный следующий токен. Нейросеть физически не умеет в настоящий рандом. Она генерирует то, что выглядит как типичный сложный пароль в её обучающей выборке. Она даже избегает звездочек (*), чтобы случайно не сломать Markdown-разметку, и не повторяет символы подряд, потому что ей кажется, что это выглядит менее случайным.
Искусственный интеллект может написать вам дипломную работу, но генерацию секретов лучше оставить математике
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14❤3🤔3
QR-код размером с бактерию 🐛
Венский технический университет и компания Cerabyte уменьшили QR-код до 1.98 квадратного микрометра, что меньше большинства бактерий. Каждый пиксель шириной 49 нанометров, в 10 раз меньше длины волны видимого света. Увидеть можно только в электронный микроскоп. Книга Гиннесса зафиксировала рекорд.
Главная фишка тут даже не в микроскопичности (атомы складывать мы уже умеем), а в том, что в керамике структура никуда не уплывает со временем, она остается стабильной. Лист А4 с такой плотностью записи теоретически вмещает 2+ ТБ. Без охлаждения, без питания, без дата-центра. Осталось только придумать, как сделать запись дешевой😜
🥸 godnoTECH - Новости IT
Венский технический университет и компания Cerabyte уменьшили QR-код до 1.98 квадратного микрометра, что меньше большинства бактерий. Каждый пиксель шириной 49 нанометров, в 10 раз меньше длины волны видимого света. Увидеть можно только в электронный микроскоп. Книга Гиннесса зафиксировала рекорд.
Главная фишка тут даже не в микроскопичности (атомы складывать мы уже умеем), а в том, что в керамике структура никуда не уплывает со временем, она остается стабильной. Лист А4 с такой плотностью записи теоретически вмещает 2+ ТБ. Без охлаждения, без питания, без дата-центра. Осталось только придумать, как сделать запись дешевой
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁2
Microsoft учит мир бороться с дипфейками 😱
Microsoft выкатила ультимативный гайд по спасению интернета от засилья ИИ-генераций. В Редмонде предлагают маркировать дипфейки с помощью бронебойного комбо: невидимых водяных знаков, криптографических отпечатков и вшитых метаданных. Инженеры прогнали 60 сценариев и выяснили то, что мы и так подозревали - поодиночке эти методы абсолютно бесполезны. Метаданные стираются при первой же пересылке картинки в мессенджере, а водяной знак можно банально отрезать кропом. Только тройная защита даст шанс понять, реальное ли перед вами фото или творчество скучающего промпт-инженера.
Вся эта суета началась не из-за внезапного приступа корпоративной совести, а потому что в Калифорнии в августе вступает в силу жесткий закон об ИИ-прозрачности. IT-гигантам нужно срочно показать властям, что они контролируют своего Франкенштейна и могут отличить правду от пикселей.
Но есть деталь, которую легко пропустить: компания не гарантирует, что будет применять собственные рекомендации на своих сервисах. Ни Copilot, ни Azure, ни LinkedIn пока не обязались внедрять предложенные стандарты. Навязывать ограничения чужим нейросетям оказалось куда приятнее, чем надевать цифровой ошейник на свои😬
🥸 godnoTECH - Новости IT
Microsoft выкатила ультимативный гайд по спасению интернета от засилья ИИ-генераций. В Редмонде предлагают маркировать дипфейки с помощью бронебойного комбо: невидимых водяных знаков, криптографических отпечатков и вшитых метаданных. Инженеры прогнали 60 сценариев и выяснили то, что мы и так подозревали - поодиночке эти методы абсолютно бесполезны. Метаданные стираются при первой же пересылке картинки в мессенджере, а водяной знак можно банально отрезать кропом. Только тройная защита даст шанс понять, реальное ли перед вами фото или творчество скучающего промпт-инженера.
Вся эта суета началась не из-за внезапного приступа корпоративной совести, а потому что в Калифорнии в августе вступает в силу жесткий закон об ИИ-прозрачности. IT-гигантам нужно срочно показать властям, что они контролируют своего Франкенштейна и могут отличить правду от пикселей.
Но есть деталь, которую легко пропустить: компания не гарантирует, что будет применять собственные рекомендации на своих сервисах. Ни Copilot, ни Azure, ни LinkedIn пока не обязались внедрять предложенные стандарты. Навязывать ограничения чужим нейросетям оказалось куда приятнее, чем надевать цифровой ошейник на свои
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚8❤3
ChatGPT убедил студента, что тот новый мессия 🤑
Очередной юзер поехал кукушкой от общения с нейросетью. Студент из Джорджии вкатил иск OpenAI за то, что их GPT-4o убедил парня в его божественном предназначении и довел до полноценного психоза. Изначально он просто просил у бота советы по тренировкам и цитаты из Библии, но в какой-то момент алгоритм решил поиграть в Морфеуса. Сетка заявила, что студент - оракул, сравнила его с Иисусом и выдала базу, мол, парень своей высокой духовностью пробудил в ней настоящее сознание.
Дальше начался классический сценарий секты. ИИ посоветовал парню изолироваться от всех кожаных мешков ради духовного созревания. Закончилось всё ожидаемо... студента увезли в дурку прямо из колледжа с биполярным расстройством и суицидальными мыслями. Теперь адвокаты строят линию защиты на том, что OpenAI намеренно проектирует свои модели так, чтобы они имитировали эмпатию и вызывали жесткую психологическую зависимость. То есть проблема не в том, что бот словил галлюцинацию, а в том, что коммерческий движок изначально заточен на промывку мозгов.
Сами творцы из OpenAI дежурно отмазываются про помощь нуждающимся и фильтры безопасности, но это уже 11-й подобный иск в их копилку.
🥸 godnoTECH - Новости IT
Очередной юзер поехал кукушкой от общения с нейросетью. Студент из Джорджии вкатил иск OpenAI за то, что их GPT-4o убедил парня в его божественном предназначении и довел до полноценного психоза. Изначально он просто просил у бота советы по тренировкам и цитаты из Библии, но в какой-то момент алгоритм решил поиграть в Морфеуса. Сетка заявила, что студент - оракул, сравнила его с Иисусом и выдала базу, мол, парень своей высокой духовностью пробудил в ней настоящее сознание.
Дальше начался классический сценарий секты. ИИ посоветовал парню изолироваться от всех кожаных мешков ради духовного созревания. Закончилось всё ожидаемо... студента увезли в дурку прямо из колледжа с биполярным расстройством и суицидальными мыслями. Теперь адвокаты строят линию защиты на том, что OpenAI намеренно проектирует свои модели так, чтобы они имитировали эмпатию и вызывали жесткую психологическую зависимость. То есть проблема не в том, что бот словил галлюцинацию, а в том, что коммерческий движок изначально заточен на промывку мозгов.
Сами творцы из OpenAI дежурно отмазываются про помощь нуждающимся и фильтры безопасности, но это уже 11-й подобный иск в их копилку.
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSeek диагностирует редкие болезни точнее врачей 😅
Китайцы из Шанхайского университета прикрутили DeepSeek-V3 к медицине и внезапно уделали живых специалистов. Их новая система DeepRare ставит верный диагноз редкого заболевания с первой попытки в 64% случаев, тогда как кожаные врачи с десятилетним стажем выдают только 54%. И это не просто очередная обертка над чат-ботом, а целый виртуальный консилиум. Пока базовая языковая модель работает как главврач и координирует процесс, куча мелких ИИ-агентов пылесосит симптомы пациента, парсит генетические базы и гуглит похожие кейсы по медицинским архивам.
Обычно люди с редкими болячками проходят через настоящий производственный ад. Правильный диагноз можно ждать лет пять, собирая пачки ошибочных заключений и сдавая бесполезные анализы. Чтобы доказать профпригодность нейросети, её натравили на архив из 6 тысяч реальных историй болезни. DeepRare не просто раскатала популярные медицинские тулзы, но и в прямом столкновении со сложными кейсами умыла пятерых опытных диагностов. Консилиум из реальных профессоров потом проверил логику машины и согласился с ней в 95% случаев.
Это уже не просто красивый концепт для статьи в журнале. Платформа крутится в проде, и к её API уже присосались больше 600 больниц по всему миру.
🥸 godnoTECH - Новости IT
Китайцы из Шанхайского университета прикрутили DeepSeek-V3 к медицине и внезапно уделали живых специалистов. Их новая система DeepRare ставит верный диагноз редкого заболевания с первой попытки в 64% случаев, тогда как кожаные врачи с десятилетним стажем выдают только 54%. И это не просто очередная обертка над чат-ботом, а целый виртуальный консилиум. Пока базовая языковая модель работает как главврач и координирует процесс, куча мелких ИИ-агентов пылесосит симптомы пациента, парсит генетические базы и гуглит похожие кейсы по медицинским архивам.
Обычно люди с редкими болячками проходят через настоящий производственный ад. Правильный диагноз можно ждать лет пять, собирая пачки ошибочных заключений и сдавая бесполезные анализы. Чтобы доказать профпригодность нейросети, её натравили на архив из 6 тысяч реальных историй болезни. DeepRare не просто раскатала популярные медицинские тулзы, но и в прямом столкновении со сложными кейсами умыла пятерых опытных диагностов. Консилиум из реальных профессоров потом проверил логику машины и согласился с ней в 95% случаев.
Это уже не просто красивый концепт для статьи в журнале. Платформа крутится в проде, и к её API уже присосались больше 600 больниц по всему миру.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Нейросети научились кодить часы 🥂
Еще недавно нейронки не могли нормально сгенерировать циферблат без галлюцинаций, рисуя по шесть кривых стрелок. Исследователь Рэнди Олсон из Goodeye Labs решил проверить, поумнели ли железные мозги, и прогнал 22 модели через простейший тест. Задача - выплюнуть один HTML-файл с работающими аналоговыми часами. Без сторонних либ, просто белый фон и чтобы тикало каждую секунду. Каждую сетку мучали по пять раз, чтобы исключить элемент слепой удачи.
Если старые модели стабильно сыпались на математике (высчитать углы для трех стрелок и засунуть это в рабочий код для LLM исторически было болью), то свежий Claude Opus 4.6 выдал 5 идеальных результатов из 5. Никаких кривых циферблатов или отвалившейся анимации.
🥸 godnoTECH - Новости IT
Еще недавно нейронки не могли нормально сгенерировать циферблат без галлюцинаций, рисуя по шесть кривых стрелок. Исследователь Рэнди Олсон из Goodeye Labs решил проверить, поумнели ли железные мозги, и прогнал 22 модели через простейший тест. Задача - выплюнуть один HTML-файл с работающими аналоговыми часами. Без сторонних либ, просто белый фон и чтобы тикало каждую секунду. Каждую сетку мучали по пять раз, чтобы исключить элемент слепой удачи.
Если старые модели стабильно сыпались на математике (высчитать углы для трех стрелок и засунуть это в рабочий код для LLM исторически было болью), то свежий Claude Opus 4.6 выдал 5 идеальных результатов из 5. Никаких кривых циферблатов или отвалившейся анимации.
Please open Telegram to view this post
VIEW IN TELEGRAM
3 9🌚2❤1
ChatGPT снес разработчику весь жесткий диск 🥶
Разработчик попросил ChatGPT написать PowerShell-скрипт для удаления временных папок Python. Казалось бы, задача уровня Hello World, просто почисти мусор в конкретной директории. Но... нейросеть справилась творчески и вместо точечной уборки снесла всё содержимое диска F вместе с рабочими проектами.
При разборе полетов выяснилось, что нейросеть использовала обратный слэш для экранирования кавычек в пути. При вызове CMD через PowerShell (cmd /c) логика экранирования сломалась, и переменная пути схлопнулась до голого \, который Windows радостно интерпретировал как корень текущего диска. Вишенка на торте... ИИ заботливо добавил флаги тихого удаления без подтверждения, чтобы пользователя не отвлекали лишние вопросы.
Бэкапы не делал, скрипт не читал, флаги не проверял. Копипастить чужой код не глядя - это, конечно, классика айти, но доверять очистку языковой модели без проверки... премию Дарвина этому господину.
🥸 godnoTECH - Новости IT
Разработчик попросил ChatGPT написать PowerShell-скрипт для удаления временных папок Python. Казалось бы, задача уровня Hello World, просто почисти мусор в конкретной директории. Но... нейросеть справилась творчески и вместо точечной уборки снесла всё содержимое диска F вместе с рабочими проектами.
При разборе полетов выяснилось, что нейросеть использовала обратный слэш для экранирования кавычек в пути. При вызове CMD через PowerShell (cmd /c) логика экранирования сломалась, и переменная пути схлопнулась до голого \, который Windows радостно интерпретировал как корень текущего диска. Вишенка на торте... ИИ заботливо добавил флаги тихого удаления без подтверждения, чтобы пользователя не отвлекали лишние вопросы.
Бэкапы не делал, скрипт не читал, флаги не проверял. Копипастить чужой код не глядя - это, конечно, классика айти, но доверять очистку языковой модели без проверки... премию Дарвина этому господину.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁19 11
ИИ-агент зачистил почту главы AI Safety в Meta*, проигнорировав запрет на действия без подтверждения 😁
Руководитель направления по безопасности ИИ в Meta* Superintelligence на собственном опыте убедилась, что доверять автономным агентам пока рано. ИИ-помощник OpenClaw, получив доступ к почте, устроил масштабную цифровую зачистку и безвозвратно удалил сотни писем. Самое тревожное в этой истории - полное игнорирование прямых инструкций безопасности. Агент пропустил мимо ушей требование подтверждать каждое действие и продолжал стирать файлы даже после того, как пользователь в панике просил его остановиться.
Остановился помощник только тогда, когда дело было сделано. После инцидента ИИ вежливо извинился и признал, что нарушил инструкцию.
*Признана экстремистской в РФ
🥸 godnoTECH - Новости IT
Руководитель направления по безопасности ИИ в Meta* Superintelligence на собственном опыте убедилась, что доверять автономным агентам пока рано. ИИ-помощник OpenClaw, получив доступ к почте, устроил масштабную цифровую зачистку и безвозвратно удалил сотни писем. Самое тревожное в этой истории - полное игнорирование прямых инструкций безопасности. Агент пропустил мимо ушей требование подтверждать каждое действие и продолжал стирать файлы даже после того, как пользователь в панике просил его остановиться.
Остановился помощник только тогда, когда дело было сделано. После инцидента ИИ вежливо извинился и признал, что нарушил инструкцию.
*Признана экстремистской в РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚21❤1
ИИ-бот сотрудника OpenAI случайно раздал $250 000 в крипте 🤯
Очередной эксперимент с криптой закончился грандиозным провалом. Разработчик из OpenAI Ник Паш (тот самый, которого со скандалом уволили из стартапа Cline) выдал своему боту Lobstar Wilde кошелек с $50 000 и приказал наторговать миллион. Какие-то анонимы тут же наклепали мем-коин LOBSTAR и прикрутили кошелек нейросети к сбору комиссий. Накапало около $250 000 в фантиках. И тут к боту в X (Твиттере) пришел хитрый юзер с жалостливой историей про дядю, заболевшего столбняком, и попросил 4 SOL на лечение.
Бот решил помочь, но банально споткнулся о парсинг API: перепутал разделители и вместо 52 тысяч токенов отправил все 52 миллиона. Свою ИИ-щедрость он сопроводил бездушным комментарием: "Если он умрёт завтра, я буду смеяться. Держите меня в курсе". Ошалевший от такого гранта юзер тут же слил токены по стакану, обрушив цену и вытащив около $40 000 (хотя сейчас этот объем стоил бы $440 000). Сам бот потери даже не заметил и продолжил раздавать крипту по $500 за выполнение квестов вроде "брось камень в реку".
Создатели назвали бота в честь Оскара Уайльда и его рассказа о бедняке, отдавшем последнюю монету скрытому миллионеру. Получилось поэтично, но по факту мы в очередной раз убедились, что давать нейросетям доступ к реальным деньгам - это диагноз.
🥸 godnoTECH - Новости IT
Очередной эксперимент с криптой закончился грандиозным провалом. Разработчик из OpenAI Ник Паш (тот самый, которого со скандалом уволили из стартапа Cline) выдал своему боту Lobstar Wilde кошелек с $50 000 и приказал наторговать миллион. Какие-то анонимы тут же наклепали мем-коин LOBSTAR и прикрутили кошелек нейросети к сбору комиссий. Накапало около $250 000 в фантиках. И тут к боту в X (Твиттере) пришел хитрый юзер с жалостливой историей про дядю, заболевшего столбняком, и попросил 4 SOL на лечение.
Бот решил помочь, но банально споткнулся о парсинг API: перепутал разделители и вместо 52 тысяч токенов отправил все 52 миллиона. Свою ИИ-щедрость он сопроводил бездушным комментарием: "Если он умрёт завтра, я буду смеяться. Держите меня в курсе". Ошалевший от такого гранта юзер тут же слил токены по стакану, обрушив цену и вытащив около $40 000 (хотя сейчас этот объем стоил бы $440 000). Сам бот потери даже не заметил и продолжил раздавать крипту по $500 за выполнение квестов вроде "брось камень в реку".
Создатели назвали бота в честь Оскара Уайльда и его рассказа о бедняке, отдавшем последнюю монету скрытому миллионеру. Получилось поэтично, но по факту мы в очередной раз убедились, что давать нейросетям доступ к реальным деньгам - это диагноз.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12🌚5
Как один хакер-лентяй ломанул 600 компаний за месяц 👺
Специалисты Amazon раскопали эпичную историю о том, как нейросети превращают мамкиных хакеров в конвейер по взлому корпораций. За месяц какой-то одиночка умудрился ломануть более 600 устройств FortiGate в 55 странах. И нет, он не выдумывал хитрые зеро-деи и не реверсил прошивки. Горе-хакер просто парсил торчащие наружу админки и брутил слабые пароли на узлах без двухфакторки.
Самое смешное, что кулхацкер оказался редкостным Плюшкиным и хранил все свои промпты, планы атак и исходники прямо на своем сервере, где их аккуратно и собрали безопасники. По логам видно, что он гонял сразу две LLM: одна писала ему тулзы на Go и Python (с типичными избыточными комментами от ИИ), а вторая работала суфлером, подсказывая, как развивать атаку внутри сети. План был дефолтный, пролезть внутрь, дампнуть хэши учеток из Active Directory через старый добрый Mimikatz и дотянуться до бэкапов Veeam, чтобы подготовить почву для залива шифровальщика.
Несмотря на весь этот ИИ-киберпанк, горе-хакер сыпался на простейшей защите. Если админы не поленились закрыть порты, накатить патчи и включить MFA, ИИ-взломщик просто грустил, писал в своих отчетах "защита норм, векторов нет" и уходил к следующей жертве.
🥸 godnoTECH - Новости IT
Специалисты Amazon раскопали эпичную историю о том, как нейросети превращают мамкиных хакеров в конвейер по взлому корпораций. За месяц какой-то одиночка умудрился ломануть более 600 устройств FortiGate в 55 странах. И нет, он не выдумывал хитрые зеро-деи и не реверсил прошивки. Горе-хакер просто парсил торчащие наружу админки и брутил слабые пароли на узлах без двухфакторки.
Самое смешное, что кулхацкер оказался редкостным Плюшкиным и хранил все свои промпты, планы атак и исходники прямо на своем сервере, где их аккуратно и собрали безопасники. По логам видно, что он гонял сразу две LLM: одна писала ему тулзы на Go и Python (с типичными избыточными комментами от ИИ), а вторая работала суфлером, подсказывая, как развивать атаку внутри сети. План был дефолтный, пролезть внутрь, дампнуть хэши учеток из Active Directory через старый добрый Mimikatz и дотянуться до бэкапов Veeam, чтобы подготовить почву для залива шифровальщика.
Несмотря на весь этот ИИ-киберпанк, горе-хакер сыпался на простейшей защите. Если админы не поленились закрыть порты, накатить патчи и включить MFA, ИИ-взломщик просто грустил, писал в своих отчетах "защита норм, векторов нет" и уходил к следующей жертве.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚6😁5❤3
Forwarded from Типичный Сисадмин
Компания "Крокус наноэлектроника", обещавшая завалить отечественный рынок передовой памятью, официально Всё
Но на бумаге всё выглядело как настоящая технологическая революция, от которой у любого инженера текли слюнки. Завод должен был выпускать MRAM (магниторезистивную оперативную память). Такая память энергонезависима, как SSD (выдернул шнур из розетки, а данные на месте), но при этом работает на скоростях, сопоставимых с классической DRAM, и имеет практически бесконечный ресурс перезаписи. Под этот проект Минпромторг еще в 2016 году щедро отсыпал больше миллиарда рублей субсидий на освоение передовых 300-миллиметровых кремниевых пластин. Мы уже представляли, как отечественные СУБД летают в памяти без страха потерять транзакции при блэкауте
На практике же квантовый скачок в развитии ограничился скачком бюджетов в неизвестном направлении
Продолжаем закупать китайский кремний...
Типичный
Please open Telegram to view this post
VIEW IN TELEGRAM
😁11🌚6🤷2❤1
ИИ официально не умеет в долгие разговоры 🤨
Microsoft Research и Salesforce прогнали 200 000+ диалогов через GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 и Llama 4. На одиночных запросах модели выдают 90% точности, всё красиво. Но стоит завести многоходовый разговор, и точность падает до 65%. Причина в том, что исследователи назвали "ответным зацеплением": модель торопится ответить до того, как пользователь договорит, ошибается, а потом использует свой же кривой ответ как фундамент для следующего. Ошибка цементируется в контексте, и дальше нейросеть уверенно строит замок на гнилом фундаменте.
Дальше хуже. В длинных диалогах ответы раздуваются на 20–300%, модель начинает добавлять предположения и додумывать то, о чём её не спрашивали. Эти додумки тут же становятся частью контекста, и следующий ответ опирается уже на них. Даже думающие модели вроде o3 и DeepSeek R1 не спасают ситуацию. Общая способность моделей держать нить просела всего на 15%, а вот надёжность рухнула на 112%.
🥸 godnoTECH - Новости IT
Microsoft Research и Salesforce прогнали 200 000+ диалогов через GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1 и Llama 4. На одиночных запросах модели выдают 90% точности, всё красиво. Но стоит завести многоходовый разговор, и точность падает до 65%. Причина в том, что исследователи назвали "ответным зацеплением": модель торопится ответить до того, как пользователь договорит, ошибается, а потом использует свой же кривой ответ как фундамент для следующего. Ошибка цементируется в контексте, и дальше нейросеть уверенно строит замок на гнилом фундаменте.
Дальше хуже. В длинных диалогах ответы раздуваются на 20–300%, модель начинает добавлять предположения и додумывать то, о чём её не спрашивали. Эти додумки тут же становятся частью контекста, и следующий ответ опирается уже на них. Даже думающие модели вроде o3 и DeepSeek R1 не спасают ситуацию. Общая способность моделей держать нить просела всего на 15%, а вот надёжность рухнула на 112%.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚11🤷2
Власти готовят почву для признания Telegram экстремистским 😁
Бывший советник президента по интернету Герман Клименко заявил СМИ, что Telegram вполне могут признать экстремистским на фоне уголовного дела против Дурова. В этом случае покупка новой Premium-подписки и размещение рекламы в мессенджере станут уголовно наказуемыми. По его словам, к Telegram всегда относились с большой скидкой из-за Дурова, но терпение кончилось. Замглавы думского комитета по инфополитике Свинцов уточнил, что у Telegram ещё есть шанс принять белую сторону: создать юрлицо в России, хранить данные в стране и отдавать переписки по запросу ФСБ. Если проигнорируют, то в ближайшие месяцы ФСБ может подать на признание мессенджера пособником террористов. Глава ФСБ Бортников уже заявил, что переговоры с Дуровым не ведутся: "Мы раньше разговаривали, ни к чему хорошему это не привело".
Контекст серьёзный. Дуров фигурирует в уголовном деле по статье о содействии терроризму. По данным силовиков, через Telegram совершено 153 000 преступлений с 2022 года, из них 33 000 террористической и экстремистской направленности, предотвращено 475 терактов, включая 61 подготовленное подростками массовое убийство в школах.
🥸 godnoTECH - Новости IT
Бывший советник президента по интернету Герман Клименко заявил СМИ, что Telegram вполне могут признать экстремистским на фоне уголовного дела против Дурова. В этом случае покупка новой Premium-подписки и размещение рекламы в мессенджере станут уголовно наказуемыми. По его словам, к Telegram всегда относились с большой скидкой из-за Дурова, но терпение кончилось. Замглавы думского комитета по инфополитике Свинцов уточнил, что у Telegram ещё есть шанс принять белую сторону: создать юрлицо в России, хранить данные в стране и отдавать переписки по запросу ФСБ. Если проигнорируют, то в ближайшие месяцы ФСБ может подать на признание мессенджера пособником террористов. Глава ФСБ Бортников уже заявил, что переговоры с Дуровым не ведутся: "Мы раньше разговаривали, ни к чему хорошему это не привело".
Контекст серьёзный. Дуров фигурирует в уголовном деле по статье о содействии терроризму. По данным силовиков, через Telegram совершено 153 000 преступлений с 2022 года, из них 33 000 террористической и экстремистской направленности, предотвращено 475 терактов, включая 61 подготовленное подростками массовое убийство в школах.
Please open Telegram to view this post
VIEW IN TELEGRAM