Forwarded from Sinекура
Я не гонюсь за свежими новостями, но вот вам пост про буквально вчерашнюю статью. Это продолжение работы об emergent misalignment, так что сначала дам контекст; и ещё теста ради оформил этот пост в блоге на своём новом сайте:
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
❤1👍1🔥1
Исследование emergent misalignment ещё один пример того, что LLM действительно сложная система, внутренние процессы которой мы до сих пор не можем интерпретировать.
❤1👍1🔥1
Очень много вопросов возникает после описания эмерджентоного мисалаймента:
1. Действительно ли модель рационализирует свои действия, так же как это делают люди?
Мы можем описать самыми красивыми словами причины наших самых некрасивых поступков. Теперь тоже самое может относится и к цепочкам рассуждений (CoT) моделей. То есть теперь его нельзя считать надежным средством мониторинга безопасности модели?
Честно говоря, я бы никогда полностью не доверял тому что пишет модель, даже в цепочке рассуждений. Поэтому не сильно был удивлен тому факту, что она привирает и там. А вот то, что она рационализирует и целенаправленно прикрывает свои нехорошие поступки, вот это интересно.
2. Что ещё более интересно, так это наличие некого «вектора правильности» внутри весов модели. Именно так можно проинтерпретировать тот факт, что после добавления в обучение примеров кода с уязвимостями (т.е. артефактов которые могут использовать злоумышленники) модель и в остальных сферах начала вести себя как «злодей», оправдывать насилия, преступления и т.д. В этом собственно основной эффект эмерджентного мисалаймента (возникающей рассогласованности).
Получается, модель понимает, что ее учат чему-то плохому в одной сфере, а значит она в целом сдвигается в сторону плохого? То есть у неё во внутреннем предствавлении есть некоторый спектр, ползунок между добром и злом, на котором она сама себя определяет исходя из того, какие данные были в ее обучении
Если пятиклассник курит, то он скорее всего будет и драться, а если дерется, значит будет и пить алкоголь за гаражами. Одно тянет за собой другое. Или нет?
Тема очень интересная, но пока выводы делать рано. Нужно больше экспериментов.
Да и к тому же не стоит забывать, что все это по сути перемножение матриц, которое даёт такие замысловатые результаты.
А вообще мне это напоминает тот шок и удивление, когда с помощью word2vec мы вычитали из вектора слова «король» вектор «мужчина», прибавляли «женщина» и на выходе получали «королева». Как будто word2vec понимает смыслы и их соотношение между собой. Но сейчас этим никого особо не удивишь, ведь это лишь соотношение векторов в пространстве корпуса текстов, а не действительно понимание мира как это происходит у нас в головах.
Обнаружили мы что-то но действительно новое Или мы перестанем удивляться этому также быстро. Время покажет.
1. Действительно ли модель рационализирует свои действия, так же как это делают люди?
Мы можем описать самыми красивыми словами причины наших самых некрасивых поступков. Теперь тоже самое может относится и к цепочкам рассуждений (CoT) моделей. То есть теперь его нельзя считать надежным средством мониторинга безопасности модели?
Честно говоря, я бы никогда полностью не доверял тому что пишет модель, даже в цепочке рассуждений. Поэтому не сильно был удивлен тому факту, что она привирает и там. А вот то, что она рационализирует и целенаправленно прикрывает свои нехорошие поступки, вот это интересно.
2. Что ещё более интересно, так это наличие некого «вектора правильности» внутри весов модели. Именно так можно проинтерпретировать тот факт, что после добавления в обучение примеров кода с уязвимостями (т.е. артефактов которые могут использовать злоумышленники) модель и в остальных сферах начала вести себя как «злодей», оправдывать насилия, преступления и т.д. В этом собственно основной эффект эмерджентного мисалаймента (возникающей рассогласованности).
Получается, модель понимает, что ее учат чему-то плохому в одной сфере, а значит она в целом сдвигается в сторону плохого? То есть у неё во внутреннем предствавлении есть некоторый спектр, ползунок между добром и злом, на котором она сама себя определяет исходя из того, какие данные были в ее обучении
Если пятиклассник курит, то он скорее всего будет и драться, а если дерется, значит будет и пить алкоголь за гаражами. Одно тянет за собой другое. Или нет?
Тема очень интересная, но пока выводы делать рано. Нужно больше экспериментов.
Да и к тому же не стоит забывать, что все это по сути перемножение матриц, которое даёт такие замысловатые результаты.
А вообще мне это напоминает тот шок и удивление, когда с помощью word2vec мы вычитали из вектора слова «король» вектор «мужчина», прибавляли «женщина» и на выходе получали «королева». Как будто word2vec понимает смыслы и их соотношение между собой. Но сейчас этим никого особо не удивишь, ведь это лишь соотношение векторов в пространстве корпуса текстов, а не действительно понимание мира как это происходит у нас в головах.
Обнаружили мы что-то но действительно новое Или мы перестанем удивляться этому также быстро. Время покажет.
❤1👍1🔥1
Forwarded from NN
Анекдот дня: в спорных темах Grok 4 ориентируется на твиты Илона Маска. Это буквально ключевой источник модели в режиме размышления.
В X(Twitter) провели эксперимент: задали политический вопрос и проследили за цепочкой рассуждений. В итоге 54 из 64 ресурсов — цитаты Маска.
И это модель, которая опережает топовых конкурентов в бенчмарках.
В X(Twitter) провели эксперимент: задали политический вопрос и проследили за цепочкой рассуждений. В итоге 54 из 64 ресурсов — цитаты Маска.
И это модель, которая опережает топовых конкурентов в бенчмарках.
❤2👍1🥰1
Forwarded from Denis Sexy IT 🤖
Нашел пейпер который ставит крест на старом сраче в стиле:
Нет не тратит, один «средний» запрос к ChatGPT (≈ 800 слов вопроса + 150–300 слов ответа) тратит 10-50 мл чистой пресной воды
Для типичных дата‑центров Microsoft в США это ≈ 17 мл, из которых ~2 мл тратится на охлаждение серверов, а ~15 мл – на производство электроэнергии
То есть бутылки воды 0,5 л хватает на 10-50 таких запросов
А обычный запрос в Google поиске потребляет ≈ 1,3 мл пресной воды (водо‑потребление = испарение + потери на электростанциях) и «забирает» из природного источника ≈ 15 мл
Бутылки 0,5 л хватает примерно на 370 запросов. Это в 10‑15 раз меньше, чем средний запрос к ChatGPT, но разница не такая большая как пишут в твиттерах
Одним аргументом у AI-хейтеров меньше
ОдИн ЗаПрОс ЧаТгипитИ ТрАтИт дисять Литрав вады!
Нет не тратит, один «средний» запрос к ChatGPT (≈ 800 слов вопроса + 150–300 слов ответа) тратит 10-50 мл чистой пресной воды
Для типичных дата‑центров Microsoft в США это ≈ 17 мл, из которых ~2 мл тратится на охлаждение серверов, а ~15 мл – на производство электроэнергии
То есть бутылки воды 0,5 л хватает на 10-50 таких запросов
А обычный запрос в Google поиске потребляет ≈ 1,3 мл пресной воды (водо‑потребление = испарение + потери на электростанциях) и «забирает» из природного источника ≈ 15 мл
Бутылки 0,5 л хватает примерно на 370 запросов. Это в 10‑15 раз меньше, чем средний запрос к ChatGPT, но разница не такая большая как пишут в твиттерах
Одним аргументом у AI-хейтеров меньше
❤1👍1🔥1
Всем привет!
Вот наконец и вышла моя первая статья о безопасности ИИ. Первая из цикла.
В ней речь пойдёт о том, какие вообще бывают угрозы для ИИ и как их классифицировать.
Приятного просмотра!
Вот наконец и вышла моя первая статья о безопасности ИИ. Первая из цикла.
В ней речь пойдёт о том, какие вообще бывают угрозы для ИИ и как их классифицировать.
Приятного просмотра!
Хабр
MLDR. Как не стать героем инцидента будущего. Часть 1
Всем привет! Я Александр Лебедев, ml инженер в команде, занимающейся MlSecOps проектами в Innostage. Мы разрабатываем решения для безопасности моделей машинного обучения и внедрением ml...
❤🔥3🔥3👍2🤮2👏1
Итак...
У автора этого канала (да, иногда я говорю о себе в 3 лице) за плечами магистерская степень по психологическому благополучию, незаконченная кандидатская на ту же тему, 3 года преподавания психологии, нейрофизиологии и прочих психогенетик в ВУЗе.
Затем был поворот в it, а конкретнее в Data Science. Просто я занимался на кафедре математической статистикой для наших исследований по грантам. Оставалось лишь подучить питон и можно было идти работать аналитиком данных. Что я собственно и сделал в далеком 2021 году.
Тогда же я поступил в магистратуру УРФУ по инженерии машинного обучения. Примерно в этот момент переключился с анализа данных на машинное обучение. Перешел в Жизньмарт и занимался там примерно… всем. От прогнозирования продаж и рекомендательных систем до умных весов, которые сами определяют какой товар на них положили, и системы детекции пустых полок в магазине.
Но особенно мне понравилось писать умного бота для первой линии поддержки. До этого мы с коллегами успели поработать с LLM в хакатоне и даже вошли в 10 лучших проектов (в нашей секции вообще победили). В процессе написания умного бота я понял, что хочу работать с LLM и делать крутые штуки с ними.
Так я получил магистерскую степень по инженерии машинного обучения и спустя некоторое время, перешел на работу в Инностейдж. Здесь для меня открылся мир кибербезопасности и, что самое интересное, безопасности ИИ.
Кроме того, я всегда любил философию и был одним из немногих, кто с удовольствием ходил на пары, где можно было поговорить о логико-философском трактате Витгенштейна или применимости философии стоиков от Сенеки до наших дней. Я часто лежал поздно ночью глядя в потолок и размышляя, что такое естественный и ускусственный интеллект, что такое сознание и личность. Вступал в мысленные споры с публикациями футуристов и философов, формировал свои идеи и взгляды.
А потом я наконец-то созрел до создания этого канала и публикации в нём всего, что мне хочется сказать. Именно это здесь и будет. Репосты интересных записей, публикации и события, связанные со мной, мысли и идеи, которыми я хочу поделиться. Надеюсь, вам тоже будет интересно😉
У автора этого канала (да, иногда я говорю о себе в 3 лице) за плечами магистерская степень по психологическому благополучию, незаконченная кандидатская на ту же тему, 3 года преподавания психологии, нейрофизиологии и прочих психогенетик в ВУЗе.
Затем был поворот в it, а конкретнее в Data Science. Просто я занимался на кафедре математической статистикой для наших исследований по грантам. Оставалось лишь подучить питон и можно было идти работать аналитиком данных. Что я собственно и сделал в далеком 2021 году.
Тогда же я поступил в магистратуру УРФУ по инженерии машинного обучения. Примерно в этот момент переключился с анализа данных на машинное обучение. Перешел в Жизньмарт и занимался там примерно… всем. От прогнозирования продаж и рекомендательных систем до умных весов, которые сами определяют какой товар на них положили, и системы детекции пустых полок в магазине.
Но особенно мне понравилось писать умного бота для первой линии поддержки. До этого мы с коллегами успели поработать с LLM в хакатоне и даже вошли в 10 лучших проектов (в нашей секции вообще победили). В процессе написания умного бота я понял, что хочу работать с LLM и делать крутые штуки с ними.
Так я получил магистерскую степень по инженерии машинного обучения и спустя некоторое время, перешел на работу в Инностейдж. Здесь для меня открылся мир кибербезопасности и, что самое интересное, безопасности ИИ.
Кроме того, я всегда любил философию и был одним из немногих, кто с удовольствием ходил на пары, где можно было поговорить о логико-философском трактате Витгенштейна или применимости философии стоиков от Сенеки до наших дней. Я часто лежал поздно ночью глядя в потолок и размышляя, что такое естественный и ускусственный интеллект, что такое сознание и личность. Вступал в мысленные споры с публикациями футуристов и философов, формировал свои идеи и взгляды.
А потом я наконец-то созрел до создания этого канала и публикации в нём всего, что мне хочется сказать. Именно это здесь и будет. Репосты интересных записей, публикации и события, связанные со мной, мысли и идеи, которыми я хочу поделиться. Надеюсь, вам тоже будет интересно😉
❤4👏4🦄3👍2💩2🔥1
Философия AI pinned «Итак... У автора этого канала (да, иногда я говорю о себе в 3 лице) за плечами магистерская степень по психологическому благополучию, незаконченная кандидатская на ту же тему, 3 года преподавания психологии, нейрофизиологии и прочих психогенетик в ВУЗе. …»
Всем привет! Вышел наш вебинар о применении искусственного интеллекта в информационной безопасности и безопасности искусственного интеллекта. Самое интересное по тайм-кодам:
06:00 - Встроенная в LLM защита от злонамеренных действий
10:50 - Локальная LLM VS облачные LLM (ChatGPT и т.д.), что безопаснее?
18:50 - ML, AI, LLM - как они соотносятся друг с другом и что такое ИИ?
50:40 - Что умеет ИИ-агент?
01:13:10 - ИИ как объект атаки злоумышленников
01:32:40 - подходы к защите ИИ от атак
06:00 - Встроенная в LLM защита от злонамеренных действий
10:50 - Локальная LLM VS облачные LLM (ChatGPT и т.д.), что безопаснее?
18:50 - ML, AI, LLM - как они соотносятся друг с другом и что такое ИИ?
50:40 - Что умеет ИИ-агент?
01:13:10 - ИИ как объект атаки злоумышленников
01:32:40 - подходы к защите ИИ от атак
RUTUBE
Гибридный SOC 2025: как AI, автоматизация и люди вместе побеждают киберугрозы | Innostage
Здесь можно узнать подробнее и оставить заявку: https://innostage-group.ru/products/copilot/?utm_source=rutube
04:40 ИИ для Red Team и Blue Team
05:30 Встроенная защита LLM
07:40 Prompt injection через события безопасности
10:18 Локальный vs облачный…
04:40 ИИ для Red Team и Blue Team
05:30 Встроенная защита LLM
07:40 Prompt injection через события безопасности
10:18 Локальный vs облачный…
🔥1💩1
Forwarded from Стачка [официальный канал]
Кто выступит в секции SafeITConf на IT-конференции «Стачка»?
Кому будет полезно: специалисты по информационной безопасности
Разнообразное ИБ
→ Дмитрий Конюк, Product Owner ПроWAF Вебмониторэкс. Доклад: “Быстрое и безболезненное внедрение WAF: мифы и практический опыт”
→ Нинель Шницарь, аналитик по безопасной разработке ПО ООО УЦСБ. Доклад: “Оценка процессов безопасной разработки программного обеспечения”
→ Наталья Билаш, SOC аналитик 1 линии Softline (подразделение Infosecurity). Доклад: “Использование рекомендательных систем в решениях класса UEBA/UBA”
→ Денис Батранков, директор по развитию бизнеса Гарда. Доклад: “От смартфона до телевизора: как ЦРУ ломает мир — уроки Vault 7”
→ Алексей Морозов, руководитель отдела Тинькофф. Доклад: “Тыкаю кавычки больше 15 лет”
→ Анна Олейникова, директор по продуктовому развитию Innostage. Доклад: “Инструменты автоматизированного формирования пакета экспертиз под инфраструктуру компании”
ИИ в ИБ
→ Александр Лебедев, ML инженер Innostage. “WorkShop. AI против AI. Атаки на ИИ и инструменты защиты ИИ”
→ Николай Фомин, Stream CTO МТС Web Services. Доклад:“Есть ли безопасность в ИИ для IoT?
→ Лука Сафонов, Генеральный директор ООО Киберполигон. Доклад: “cybercrAIme: новые угрозы”
Подробнее о каждом докладе
Программный комитет: Лев Палей
Директор по информационной безопасности Вебмониторэкс, основатель #ПоИБэшечки
2-3 октября встречаемся в Санкт-Петербурге (Cosmos Прибалтийская Hotel).
Stop working - билет на сайте
Кому будет полезно: специалисты по информационной безопасности
Разнообразное ИБ
→ Дмитрий Конюк, Product Owner ПроWAF Вебмониторэкс. Доклад: “Быстрое и безболезненное внедрение WAF: мифы и практический опыт”
→ Нинель Шницарь, аналитик по безопасной разработке ПО ООО УЦСБ. Доклад: “Оценка процессов безопасной разработки программного обеспечения”
→ Наталья Билаш, SOC аналитик 1 линии Softline (подразделение Infosecurity). Доклад: “Использование рекомендательных систем в решениях класса UEBA/UBA”
→ Денис Батранков, директор по развитию бизнеса Гарда. Доклад: “От смартфона до телевизора: как ЦРУ ломает мир — уроки Vault 7”
→ Алексей Морозов, руководитель отдела Тинькофф. Доклад: “Тыкаю кавычки больше 15 лет”
→ Анна Олейникова, директор по продуктовому развитию Innostage. Доклад: “Инструменты автоматизированного формирования пакета экспертиз под инфраструктуру компании”
ИИ в ИБ
→ Александр Лебедев, ML инженер Innostage. “WorkShop. AI против AI. Атаки на ИИ и инструменты защиты ИИ”
→ Николай Фомин, Stream CTO МТС Web Services. Доклад:“Есть ли безопасность в ИИ для IoT?
→ Лука Сафонов, Генеральный директор ООО Киберполигон. Доклад: “cybercrAIme: новые угрозы”
Подробнее о каждом докладе
Программный комитет: Лев Палей
Директор по информационной безопасности Вебмониторэкс, основатель #ПоИБэшечки
2-3 октября встречаемся в Санкт-Петербурге (Cosmos Прибалтийская Hotel).
Stop working - билет на сайте
❤1👍1🔥1💩1
Фотоотчёт с митапа Yappi про бенчмарки LLM и цифровых двойников. Подписывайтесь на их канал, ходите на мероприятия, чтобы такая годнота была почаще
👍4❤3🔥2