ReverserAI
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
Vulnhuntr
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
Анатомия LLM RCE
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы
Garak, сканер уязвимостей LLM
#LLM #AI #сканер
Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.
Ссылка на инструмент.
LH | Новости | Курсы | OSINT
#LLM #AI #сканер
Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.
Ссылка на инструмент.
LH | Новости | Курсы | OSINT
Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity
#статья #solidity #LLM
Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.
Ссылка на статью
LH | Новости | Курсы | OSINT
#статья #solidity #LLM
Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.
Ссылка на статью
LH | Новости | Курсы | OSINT
PyRIT
#AI #ML #LLM
Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.
Ссылка на GitHub
LH | Новости | Курсы | OSINT
#AI #ML #LLM
Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.
Ссылка на GitHub
LH | Новости | Курсы | OSINT