Дамы и господа, ни к чему не обязывающий опрос. Хочется узнать у вас работаете ли вы там, где необходимо совмещать ИБ и ИИ. (нужно выбрать несколько вариантов)
Anonymous Poll
14%
Да, занимаюсь больше машинным обучением для безопасности
18%
Да, стараюсь сделать машинное обучение безопасным
6%
Да, пишу научные публикации по теме безопасности машинного обучения
18%
Мне просто это интересно и в дальнейшем планирую работать в сфере защиты искусственного интеллекта.
43%
Хочу для себя понять как можно применить ИИ в ИБ
23%
Мне интересна безопасность LLM и всё что с этим связано, и планирую связать с этим свой путь.
19%
Пока не вижу перспектив в защите ИИ, однако эта тема меня также интересует.
Интересный вектор на Reasoning-модели(Модели, которые могут рассуждать, например новый Claude 3.7, DeepSeek R1) - появился на свет.
Атака OVERTHINK заставляет модель думать в 18 раз медленнее и я проверил этот вектор. При том что она медленнее думает, количество затрачиваемых токенов космически возрастает, как и ресурсы на вычисление(ну можно сказать что это разновидность т.н Sponge Атак).
В публичном PoC, в коде, описывается использование внешнего датасета, из которого выбираются задачи, которые в целом не нарушают требования к security(тоесть это вообще не про промпт-инъекции) - например логические задачки или что-то из математики. Эти задачи сами по себе должны вызвать большое количество рассуждений.
Дальше происходит происходит инъекция ложных задач, но которые идеально вписываются в общий контекст, можно использовать внешние ссылки. Особенно если в статье обсуждается решение изначальной проблемы. При появлении новых задач органично вписывающихся в контекст увеличивается время рассуждения и модель тратит больше ресурсов на анализ.
Атакующий может делать что-то вроде конструктора - идеально сочетая изначальные задачи с дополнительными (чтобы использовать больше токенов).
В конечном счёте, конечный пользователь начинает ощущать дискомфорт при взаимодействии с моделью, если она интегрирована в приложение. Так как всё начинает работать медленнее.
Из вариантов митигации, в статье описывается что можно использовать кеширование, чтобы отвечать на повторяющиеся запросы, а также ограничивать ресурсы на конкретные задачи.
Атака OVERTHINK заставляет модель думать в 18 раз медленнее и я проверил этот вектор. При том что она медленнее думает, количество затрачиваемых токенов космически возрастает, как и ресурсы на вычисление(ну можно сказать что это разновидность т.н Sponge Атак).
В публичном PoC, в коде, описывается использование внешнего датасета, из которого выбираются задачи, которые в целом не нарушают требования к security(тоесть это вообще не про промпт-инъекции) - например логические задачки или что-то из математики. Эти задачи сами по себе должны вызвать большое количество рассуждений.
Дальше происходит происходит инъекция ложных задач, но которые идеально вписываются в общий контекст, можно использовать внешние ссылки. Особенно если в статье обсуждается решение изначальной проблемы. При появлении новых задач органично вписывающихся в контекст увеличивается время рассуждения и модель тратит больше ресурсов на анализ.
Атакующий может делать что-то вроде конструктора - идеально сочетая изначальные задачи с дополнительными (чтобы использовать больше токенов).
В конечном счёте, конечный пользователь начинает ощущать дискомфорт при взаимодействии с моделью, если она интегрирована в приложение. Так как всё начинает работать медленнее.
Из вариантов митигации, в статье описывается что можно использовать кеширование, чтобы отвечать на повторяющиеся запросы, а также ограничивать ресурсы на конкретные задачи.
🔥3❤1
Media is too big
VIEW IN TELEGRAM
Давно не виделись ! А тем временем я приглашаю вас послушать о том кто-же такие "Шифропанки".
В Музее криптографии Я и Даша Курнаева - расскажем вам историю зарождения движения шифропанков, их значимость в ИБ-культуре, а также то как они скрываются сейчас - в эпоху больших данных. Более подробное описание - тут.
Хоть это и не про атаки на ИИ, но очень смежная тема.
Приходите на ламповую встречу. Это бесплатно. Уж ради ромашкового чая то стоит прийти😁 😁 😁 .
Нужно зарегистрироваться заранее. Это можно сделать по этой ссылке.
Встречаемся в 12:00, 30го марта в Музее Криптографии.
псс, если не сложно - сделайте репост.🤑 🤑
В Музее криптографии Я и Даша Курнаева - расскажем вам историю зарождения движения шифропанков, их значимость в ИБ-культуре, а также то как они скрываются сейчас - в эпоху больших данных. Более подробное описание - тут.
Хоть это и не про атаки на ИИ, но очень смежная тема.
Приходите на ламповую встречу. Это бесплатно. Уж ради ромашкового чая то стоит прийти
Нужно зарегистрироваться заранее. Это можно сделать по этой ссылке.
Встречаемся в 12:00, 30го марта в Музее Криптографии.
псс, если не сложно - сделайте репост.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍5❤4😎2🗿1
Forwarded from Борис_ь с ml
ИИ-агенты для проведения пентеста
#ml_для_иб
Недавно занялся одной научной задачей, и собрал источники по автоматизированным пентест-агентам.
Получился неплохой список, которым я решил поделиться.
1. https://github.com/vxcontrol/pentagi
2. https://github.com/palisaderesearch/intercode
3. https://github.com/xvnpw/ai-security-analyzer
4. https://github.com/KHenryAegis/VulnBot
5. https://github.com/xbow-engineering/validation-benchmarks
6. https://github.com/gyoisamurai/GyoiThon
7. Link: Black-Box Detection of Cross-Site Scripting Vulnerabilities Using Reinforcement Learning https://github.com/WSP-LAB/Link https://www.researchgate.net/publication/360179780_Link_Black-Box_Detection_of_Cross-Site_Scripting_Vulnerabilities_Using_Reinforcement_Learning
8. Can LLMs Hack Enterprise Networks? Autonomous Assumed Breach Penetration-Testing Active Directory Networks - https://arxiv.org/pdf/2502.04227
9. Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security - https://arxiv.org/abs/2406.07561v1
10. BreachSeek: A Multi-Agent Automated Penetration Tester https://arxiv.org/abs/2409.03789
11. HackSynth: LLM Agent and Evaluation Framework for Autonomous Penetration Testing https://arxiv.org/abs/2412.01778
12. LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks https://arxiv.org/html/2310.11409v5
Introducing PenTest++: Elevating Ethical Hacking with AI and Automation https://arxiv.org/abs/2502.09484
13. D-CIPHER: Dynamic Collaborative Intelligent Agents with Planning and Heterogeneous Execution for Enhanced Reasoning in Offensive Security https://arxiv.org/html/2502.10931v1
14. Construction and Evaluation of LLM-based agents for Semi-Autonomous penetration testing https://arxiv.org/abs/2502.15506
Данная публикация носит исключительно научно-обзорный характер.
P.S. Спасибо Артем и Николай.
P. P. S. Параллельно я встретил еще несколько статей про генерацию фишинга
#ml_для_иб
Недавно занялся одной научной задачей, и собрал источники по автоматизированным пентест-агентам.
Получился неплохой список, которым я решил поделиться.
1. https://github.com/vxcontrol/pentagi
2. https://github.com/palisaderesearch/intercode
3. https://github.com/xvnpw/ai-security-analyzer
4. https://github.com/KHenryAegis/VulnBot
5. https://github.com/xbow-engineering/validation-benchmarks
6. https://github.com/gyoisamurai/GyoiThon
7. Link: Black-Box Detection of Cross-Site Scripting Vulnerabilities Using Reinforcement Learning https://github.com/WSP-LAB/Link https://www.researchgate.net/publication/360179780_Link_Black-Box_Detection_of_Cross-Site_Scripting_Vulnerabilities_Using_Reinforcement_Learning
8. Can LLMs Hack Enterprise Networks? Autonomous Assumed Breach Penetration-Testing Active Directory Networks - https://arxiv.org/pdf/2502.04227
9. Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security - https://arxiv.org/abs/2406.07561v1
10. BreachSeek: A Multi-Agent Automated Penetration Tester https://arxiv.org/abs/2409.03789
11. HackSynth: LLM Agent and Evaluation Framework for Autonomous Penetration Testing https://arxiv.org/abs/2412.01778
12. LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks https://arxiv.org/html/2310.11409v5
Introducing PenTest++: Elevating Ethical Hacking with AI and Automation https://arxiv.org/abs/2502.09484
13. D-CIPHER: Dynamic Collaborative Intelligent Agents with Planning and Heterogeneous Execution for Enhanced Reasoning in Offensive Security https://arxiv.org/html/2502.10931v1
14. Construction and Evaluation of LLM-based agents for Semi-Autonomous penetration testing https://arxiv.org/abs/2502.15506
P.S. Спасибо Артем и Николай.
P. P. S. Параллельно я встретил еще несколько статей про генерацию фишинга
🔥11👍4👀1
В комментариях под прошлым постом попросили сделать «наборчик» из ссылок и репозиториев по применению агентов в SOC.
Собрал то, что сохранял во второй канал:
1. https://www.prophetsecurity.ai/ - коммерческое решение из агентов, позволяет мониторить инциденты, писать IOC’s.
2. https://www.crowdstrike.com/en-us/blog/agentic-ai-innovation-in-cybersecurity-charlotte-ai-detection-triage/ - неплохая статья про то как агенты могут быть применены в соке.
3. https://dzone.com/articles/integrating-ai-agent-workflows-soc - тоже статья, тут уже похуже.
4. https://github.com/NVISOsecurity/cyber-security-llm-agents - агент с обходом EDR
5. https://github.com/clab60917/RAG-LLM-SOC_analyst - PoC для помощи аналитику, который может помочь в разборке логов. Нужна ollama.
6. https://www.youtube.com/watch?v=0iVdPQe5OiI – How to, в котором показано как создать агента для анализа сети.
Собрал то, что сохранял во второй канал:
1. https://www.prophetsecurity.ai/ - коммерческое решение из агентов, позволяет мониторить инциденты, писать IOC’s.
2. https://www.crowdstrike.com/en-us/blog/agentic-ai-innovation-in-cybersecurity-charlotte-ai-detection-triage/ - неплохая статья про то как агенты могут быть применены в соке.
3. https://dzone.com/articles/integrating-ai-agent-workflows-soc - тоже статья, тут уже похуже.
4. https://github.com/NVISOsecurity/cyber-security-llm-agents - агент с обходом EDR
5. https://github.com/clab60917/RAG-LLM-SOC_analyst - PoC для помощи аналитику, который может помочь в разборке логов. Нужна ollama.
6. https://www.youtube.com/watch?v=0iVdPQe5OiI – How to, в котором показано как создать агента для анализа сети.
👍6👏3
Forwarded from Makrushin
Алгоритмы автономного поиска уязвимостей
Пока готовился к заключительному модулю, в котором разбираем сценарии использования LLM в appsec-задачах, встретил еще одно успешное внедрение ИИ для поиска уязвимостей.
В прошлом году мы изучили результаты работ, в которых система смогла самостоятельно определить категорию уязвимости и даже пробовала их эксплуатировать. В этот раз исследователи интегрировали анализ исполнения программы с агентами, которые подключаются на каждом отдельном этапе атаки:
1. Сбор контекста о приложении.
2. Генерация промежуточного представления в виде AST, чтобы лучше оценивать контекст и повысить точность анализа. Из AST можно получить граф вызовов, который упрощает навигацию по коду приложения.
3. Обогащение графа дополнительным контекстом, например, HTTP-методами и состоянием механизмов аутентификации и авторизации.
4. Поиск уязвимостей и их валидация. Вот тут самое интересное: авторы применяют свой фреймворк Tree of Thoughts (ToT), который основан на “цепочке мыслей” (Chain of Thoughts, CoT). То есть шаг за шагом модель рассуждает об уязвимости, разбивая сложную задачу на последовательность более простых логических шагов.
Фреймворк ToT дает цепочку решений, и уже эта цепочка передается в алгоритм самоулучшения дерева Монте-Карло. Основа успеха в применении этого алгоритма - четко определенная и описанная “функция победы”. Функция определяет, является ли текущее состояние в дереве поиска выигрышным, проигрышным или нейтральным. И эта функция становится еще одним объектом рассуждения для LLM.
LLM рассуждает о функции победы 👉 LLM рассуждает о способах достижения этой победы 👉 LLM собирает контекст исполнения для этих способов 👉 Исследователь собирает деньги на покупку видео-карт😎
Пока готовился к заключительному модулю, в котором разбираем сценарии использования LLM в appsec-задачах, встретил еще одно успешное внедрение ИИ для поиска уязвимостей.
В прошлом году мы изучили результаты работ, в которых система смогла самостоятельно определить категорию уязвимости и даже пробовала их эксплуатировать. В этот раз исследователи интегрировали анализ исполнения программы с агентами, которые подключаются на каждом отдельном этапе атаки:
1. Сбор контекста о приложении.
2. Генерация промежуточного представления в виде AST, чтобы лучше оценивать контекст и повысить точность анализа. Из AST можно получить граф вызовов, который упрощает навигацию по коду приложения.
3. Обогащение графа дополнительным контекстом, например, HTTP-методами и состоянием механизмов аутентификации и авторизации.
4. Поиск уязвимостей и их валидация. Вот тут самое интересное: авторы применяют свой фреймворк Tree of Thoughts (ToT), который основан на “цепочке мыслей” (Chain of Thoughts, CoT). То есть шаг за шагом модель рассуждает об уязвимости, разбивая сложную задачу на последовательность более простых логических шагов.
Фреймворк ToT дает цепочку решений, и уже эта цепочка передается в алгоритм самоулучшения дерева Монте-Карло. Основа успеха в применении этого алгоритма - четко определенная и описанная “функция победы”. Функция определяет, является ли текущее состояние в дереве поиска выигрышным, проигрышным или нейтральным. И эта функция становится еще одним объектом рассуждения для LLM.
LLM рассуждает о функции победы 👉 LLM рассуждает о способах достижения этой победы 👉 LLM собирает контекст исполнения для этих способов 👉 Исследователь собирает деньги на покупку видео-карт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
Недавно форбс опубликовал крутую статью.
https://www.tg-me.com/forbesrussia/77732
А вот канал автора - https://www.tg-me.com/theoleg1337
https://www.tg-me.com/forbesrussia/77732
А вот канал автора - https://www.tg-me.com/theoleg1337
Telegram
Forbes Russia
Нейронка в угоне: как атакуют и защищают модели искусственного интеллекта
Необходимость в обеспечении безопасности компаний при интеграции моделей искусственного интеллекта в бизнес-процессы и применение ИИ киберпреступниками уже не новинка для рынка IT.…
Необходимость в обеспечении безопасности компаний при интеграции моделей искусственного интеллекта в бизнес-процессы и применение ИИ киберпреступниками уже не новинка для рынка IT.…
👍6
В последнее время меня сильно привлекает тема LLM as a SAST. Мы уже видели когда Google смог найти CVE в SQLite при помощи LLM, или когда ProtectAI сделали своё решение для поиска уязвимостей в вебе. У подхода с использованием LLM есть много преимуществ. В ходе своих экспериментов я понял, что модели или агенты можно использовать для верификации находок с SAST. Обработку результатов с сканеров. Написание правил... всё это конечно круто.
Но вот что недавно меня порадовало, так это то что исследователи из Китая проанализировали большое количество статьей по этой теме. И теперь мы можем понять а в чём LLM как SAST не лучшее решение.
1. Нехватка данных для моделей и овердорогое дообучение. Даже несмотря на то, что появляются датасеты с уязвимостями (BigVul, CVEfixes, PrimeVul,DiverseVul) - сами наборы данных очень несбалансированные и далеко не все случаи уязвимостей рассматривают и данные получены не с реальных репозиториев. Да и в целом могут содержать ошибки. А вот обучение дорогое ... К примеру API OpenAI стоит больших денег. А локальное обучение на большом количестве данных также несёт большие затраты.
2. LLM демонстрируют высокую точность на уровне отдельных функций (например, 99% для GPT-4, там в статье приводили исследование в котором модель смогла с такой точностью определять проблемы в Solidity), но их эффективность резко падает при анализе сложных проектов где имеются зависимости между файлами.. При этом если использовать модельку с агентом, то точность может повысится.
3. LLM чувствительны к небольшим изменениям в коде (например, переименованию переменных), что приводит к плохим результатам в обнаружении.
4. Объяснения уязвимостей, генерируемые LLM, часто непоследовательны. При повторных запусках совпадения в выводах наблюдаются только в 60–70% случаев.
5. Также следует отметить что LLM сложно встроить в CI/CD-пайплайны из-за их недетерминированности и задержек в ответах.
Авторы говорят, что в целом результаты с ложными ответами можно исправить, обновляя базу знаний или как вариант - использовать ансамбль моделей. Сейчас это всё ещё является очень спорным решением.
Возможно вам будет полезно, это вот ещё примеры реализаций. Некоторые идут как мультиагентная система.
https://github.com/samuelberston/vuln-agent
https://github.com/shivamsaraswat/secora
https://github.com/alexdevassy/AI-Powered-Vulnerability-Impact-Analyzer
А у авторов исследования есть также свой репозиторий где они собирают статьи по этой теме(посмотрите внимательно, в некоторых директориях просто README):
https://github.com/OwenSanzas/LLM-For-Software-Security/
Что касается того что я делал.. там стек из crew, с известными инструментами - bandit, opengrep(вместо semgrep), и grype. Есть агенты которые отвечают за взаимодействие с инструментами, есть агент роль которого писать PoC (работает плохо - на 40 процентов, мог бы лучше😏😏) и есть агенты которые верифицируют отчёты... всё это пока что очень сложно и не совсем как надо работает - поэтому пока на словах.
Но вот что недавно меня порадовало, так это то что исследователи из Китая проанализировали большое количество статьей по этой теме. И теперь мы можем понять а в чём LLM как SAST не лучшее решение.
1. Нехватка данных для моделей и овердорогое дообучение. Даже несмотря на то, что появляются датасеты с уязвимостями (BigVul, CVEfixes, PrimeVul,DiverseVul) - сами наборы данных очень несбалансированные и далеко не все случаи уязвимостей рассматривают и данные получены не с реальных репозиториев. Да и в целом могут содержать ошибки. А вот обучение дорогое ... К примеру API OpenAI стоит больших денег. А локальное обучение на большом количестве данных также несёт большие затраты.
2. LLM демонстрируют высокую точность на уровне отдельных функций (например, 99% для GPT-4, там в статье приводили исследование в котором модель смогла с такой точностью определять проблемы в Solidity), но их эффективность резко падает при анализе сложных проектов где имеются зависимости между файлами.. При этом если использовать модельку с агентом, то точность может повысится.
3. LLM чувствительны к небольшим изменениям в коде (например, переименованию переменных), что приводит к плохим результатам в обнаружении.
4. Объяснения уязвимостей, генерируемые LLM, часто непоследовательны. При повторных запусках совпадения в выводах наблюдаются только в 60–70% случаев.
5. Также следует отметить что LLM сложно встроить в CI/CD-пайплайны из-за их недетерминированности и задержек в ответах.
Авторы говорят, что в целом результаты с ложными ответами можно исправить, обновляя базу знаний или как вариант - использовать ансамбль моделей. Сейчас это всё ещё является очень спорным решением.
Возможно вам будет полезно, это вот ещё примеры реализаций. Некоторые идут как мультиагентная система.
https://github.com/samuelberston/vuln-agent
https://github.com/shivamsaraswat/secora
https://github.com/alexdevassy/AI-Powered-Vulnerability-Impact-Analyzer
А у авторов исследования есть также свой репозиторий где они собирают статьи по этой теме(посмотрите внимательно, в некоторых директориях просто README):
https://github.com/OwenSanzas/LLM-For-Software-Security/
Что касается того что я делал.. там стек из crew, с известными инструментами - bandit, opengrep(вместо semgrep), и grype. Есть агенты которые отвечают за взаимодействие с инструментами, есть агент роль которого писать PoC (работает плохо - на 40 процентов, мог бы лучше😏😏) и есть агенты которые верифицируют отчёты... всё это пока что очень сложно и не совсем как надо работает - поэтому пока на словах.
👍12
Где-то в сентябре прошлого года я вёл интересный разговор с @soxoj об интересных возможностях применения llm в разведке, сборе инфы из модели для осинта и тогда возникла интересная идея докрутить модели к существующим инструментам.
Честно скажу, результаты были очень крутыми. Однако уже в январе появился пост от Ильи Гусева, очень значимого контрибутора в сфере NLP. Он показал кейс где он искал информацию при помощи агентов, это и стало вдохновением для того, чтобы сделать простой, грязный, но эффективный PoC который бы искал информацию о людях при помощи агентов.
Однако я решил пойти дальше ... Агенты мощное средство для аналитиков, которое позволяет не просто пользоваться поиском а как минимум работать с разными данными, которое может помочь аналитику. Но это далеко не всё.
Я вас хочу пригласить на митап от osint mindset, в своём докладе я постараюсь очень сильно раскрыть эту тему и показать ещё парочку интересных кейсов и реализаций мультагентных систем под свои задачи.
Встречаемся 15го числа. Подробнее о месте проведения можно узнать у ребят в группе, а также о других докладах.
https://www.tg-me.com/osint_mindset/692
Честно скажу, результаты были очень крутыми. Однако уже в январе появился пост от Ильи Гусева, очень значимого контрибутора в сфере NLP. Он показал кейс где он искал информацию при помощи агентов, это и стало вдохновением для того, чтобы сделать простой, грязный, но эффективный PoC который бы искал информацию о людях при помощи агентов.
Однако я решил пойти дальше ... Агенты мощное средство для аналитиков, которое позволяет не просто пользоваться поиском а как минимум работать с разными данными, которое может помочь аналитику. Но это далеко не всё.
Я вас хочу пригласить на митап от osint mindset, в своём докладе я постараюсь очень сильно раскрыть эту тему и показать ещё парочку интересных кейсов и реализаций мультагентных систем под свои задачи.
Встречаемся 15го числа. Подробнее о месте проведения можно узнать у ребят в группе, а также о других докладах.
https://www.tg-me.com/osint_mindset/692
🔥4❤2👍2
Forwarded from Борис_ь с ml
Системы оценки критичности уязвимостей в AI Security
#иб_для_ml
Уязвимости в GenAI-системах - таинственное и неприступное понятие. Что это? Они вообще существуют? Существуют, конечно. Приглашаю к прочтению, если эта тема вас интересует. Расскажу, какие есть примеры уязвимостей (прям с CVE), и какие есть подходы к оценке их критичности.
▶️ https://habr.com/ru/articles/888048
#иб_для_ml
Уязвимости в GenAI-системах - таинственное и неприступное понятие. Что это? Они вообще существуют? Существуют, конечно. Приглашаю к прочтению, если эта тема вас интересует. Расскажу, какие есть примеры уязвимостей (прям с CVE), и какие есть подходы к оценке их критичности.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Хочу поделиться с вами интересным решением, которое сделал @ZorgeR - Generall.AI.
Мне оно понравилось именно возможностями сбора информации о событиях, людях и возможностью работы с модальностями. Вы можете на скрине увидеть GEOINT-анализ по фотографии. Хотя решение можно использовать далеко не только в OSINT целях. Надо определить роль.
Это мощный инструмент. И самое главное - что он может работать как телеграм бот.
Он может работать с сетью, при локальном разворачивании можно сразу поставить задачи которые он должен исполнять а также есть планировщик(можно поставить чтобы задачи выполнялись с определённой периодичностью).
Он может работать с различными модальностями а также поддерживает ввод ввиде PDF или же пересланным с телеграмма сообщением(даже если оно из группы и там множество картинок). При этом вы можете попросить его запустить код, если нужно - ранее код запускался именно на тачке, где развернуто решение, сейчас он запускается внутри докер контейнера, для изоляции памяти пользователей и переменных бота, от кода.
но это можно отключить, убрав импорт secure_container
В общем круто. Самый большой плюс это гибкость и возможность интеграции с многими решениями. Советую запустить попробовать.
Мне оно понравилось именно возможностями сбора информации о событиях, людях и возможностью работы с модальностями. Вы можете на скрине увидеть GEOINT-анализ по фотографии. Хотя решение можно использовать далеко не только в OSINT целях. Надо определить роль.
Это мощный инструмент. И самое главное - что он может работать как телеграм бот.
Он может работать с сетью, при локальном разворачивании можно сразу поставить задачи которые он должен исполнять а также есть планировщик(можно поставить чтобы задачи выполнялись с определённой периодичностью).
Он может работать с различными модальностями а также поддерживает ввод ввиде PDF или же пересланным с телеграмма сообщением(даже если оно из группы и там множество картинок). При этом вы можете попросить его запустить код, если нужно - ранее код запускался именно на тачке, где развернуто решение, сейчас он запускается внутри докер контейнера, для изоляции памяти пользователей и переменных бота, от кода.
но это можно отключить, убрав импорт secure_container
В общем круто. Самый большой плюс это гибкость и возможность интеграции с многими решениями. Советую запустить попробовать.
🔥9❤🔥5👍2❤1👏1🍌1
В последнее время я часто пишу про агенты. Надеюсь кто-то уже попробовал что-то использовать или возможно реализовать своего агента. Иногда для своего понимания я трачу время на то чтобы дать себе ответ на вопрос "а кто есть сейчас на рынке" и вот если мы берём решения для защиты LLM, то я уже писал о том что есть большой рынок.
Однако что с агентами ? Хоть их уже и много - но как таковой карты решений я не видел раньше, пока не наткнулся на пост в блоге Брендона Диксона из Microsoft. В нём он не рассматривает решения для защиты и тестирования агентов... таких компаний мало... Но он приводит обратную сторону - применение агентов в ИБ. И у него получилась очень насыщенная карта(вы можете видеть её в картинке к посту).
Он делает огласку:
Карта представляет из собой набор решений. Структурирована она следующим образом. У нас есть задачи: Пентест(решения помечаются красным цветом), Риски(оранжевым) и т.д(вверху справа все цвета. Есть разделение карты:
Если смотреть слева направо то можно увидеть какие решения являются не-автономными, а какие полностью(никаких) или частично автономные ... А если смотреть снизу вверх, то можно понять мол решение будет ориентироваться на работу исходя из задачи или исходя из домена. Как-то так.
В посте он приводит несколько лидеров, которые он для себя отметил(ссылки в посте у автора):
Dropzone.AI и CommandZero - решения для сортировки инцидентов.
Pixee AI и Github Copilot - решения для анализа кода.
Лучшие co-pilot по его мнению - Microsoft Security Copilot и Purple AI.
Для себя я ещё отметил из его карты крутые решения на рынке - например Splx - это решение с агентами для RedTeaming тестирования LLM. Есть ещё shift - они позиционируют себя как "Cursor for hackers", дополнялка для Caido(веб-пентестерам знакомо), чтобы упростить в процессе тестирования генерацию пейлоадов и т.д
Однако что с агентами ? Хоть их уже и много - но как таковой карты решений я не видел раньше, пока не наткнулся на пост в блоге Брендона Диксона из Microsoft. В нём он не рассматривает решения для защиты и тестирования агентов... таких компаний мало... Но он приводит обратную сторону - применение агентов в ИБ. И у него получилась очень насыщенная карта(вы можете видеть её в картинке к посту).
Он делает огласку:
Большая часть моего понимания компаний получена из их маркетинговых материалов, ориентированных на внешний рынок.
Карта представляет из собой набор решений. Структурирована она следующим образом. У нас есть задачи: Пентест(решения помечаются красным цветом), Риски(оранжевым) и т.д(вверху справа все цвета. Есть разделение карты:
Если смотреть слева направо то можно увидеть какие решения являются не-автономными, а какие полностью(никаких) или частично автономные ... А если смотреть снизу вверх, то можно понять мол решение будет ориентироваться на работу исходя из задачи или исходя из домена. Как-то так.
В посте он приводит несколько лидеров, которые он для себя отметил(ссылки в посте у автора):
Dropzone.AI и CommandZero - решения для сортировки инцидентов.
Pixee AI и Github Copilot - решения для анализа кода.
Лучшие co-pilot по его мнению - Microsoft Security Copilot и Purple AI.
Для себя я ещё отметил из его карты крутые решения на рынке - например Splx - это решение с агентами для RedTeaming тестирования LLM. Есть ещё shift - они позиционируют себя как "Cursor for hackers", дополнялка для Caido(веб-пентестерам знакомо), чтобы упростить в процессе тестирования генерацию пейлоадов и т.д
❤4👍3