Life-Hack - Хакер
59.9K subscribers
1.31K photos
79 videos
17 files
7.84K links
Сообщество по информационной безопасности (кибербезопасности).
Статьи, гайды, обучения, рекомендации, обзоры, новости, подборки полезного софта!
#хакер #хакинг #Linux #OSINT
Наши каналы - @LifeHackmedia

№ 5051189370

По всем вопросам - @adm1nLH
Download Telegram
ReverserAI

#ReverseEngineering #LLM #AI

ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.

Ссылка на инструмент.

LH | Новости | Курсы | Мемы

#рекомендация
#рекомендации
Vulnhuntr

#LLM #scaner #vulnerability #полезное

Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.

Ссылка на инструмент

Ссылка на блог

LH | Новости | Курсы | Мемы

#рекомендация
#рекомендации
Анатомия LLM RCE

#LLM #RCE #AI #статья@haccking #перевод@haccking

По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.

В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.

Ссылка на статю.

LH | Новости | Курсы | Мемы
Garak, сканер уязвимостей LLM

#LLM #AI #сканер

Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.

Ссылка на инструмент.

LH | Новости | Курсы | OSINT
Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity

#статья #solidity #LLM

Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.

Ссылка на статью

LH | Новости | Курсы | OSINT
PyRIT

#AI #ML #LLM

Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.

Ссылка на GitHub

LH | Новости | Курсы | OSINT