Обнаружена уязвимость нулевого взаимодействия в Microsoft 365 Copilot
https://securenews.ru/obnaruzhena-uyazvimost-nulevogo-vzaimodejstviya-v-microsoft-365-copilot/
https://securenews.ru/obnaruzhena-uyazvimost-nulevogo-vzaimodejstviya-v-microsoft-365-copilot/
Forwarded from Лига сисадминов
This media is not supported in your browser
VIEW IN TELEGRAM
Любопытный TUI для перехвата сетевого трафика с использованием eBPF в Linux
Особенности
- Мониторинг и визуализация трафика в реальном времени.
- Полная статистика сетевого трафика.
- Функции межсетевого экрана.
- Исследователь метрик.
https://github.com/pythops/oryx
#ит_заметки #linux #kernel #network #ebpf #oryx
Особенности
- Мониторинг и визуализация трафика в реальном времени.
- Полная статистика сетевого трафика.
- Функции межсетевого экрана.
- Исследователь метрик.
https://github.com/pythops/oryx
#ит_заметки #linux #kernel #network #ebpf #oryx
Forwarded from ServerAdmin.ru
Насколько мне известно, у Zabbix до сих пор нет стандартного шаблона для мониторинга за временем оплаты домена. Про крайней мере мне такой неизвестен. Если он уже есть и я его упустил, прошу подсказать.
В разное время я реализовывал различные способы решения этой задачи. Все они один за одним собирались в статью на сайте:
⇨ Мониторинг времени делегирования домена в zabbix
Все способы, описанные там, актуальны и работают. Основное их неудобство - реализация через скрипты, от чего уже давно хочется уйти, потому что неудобно ходить в консоль и править там список доменов. Можно собрать простенький пайплайн для этого, но это тоже перебор для такой простой задачи.
Я её однажды реализовал полностью в шаблоне без скриптов с помощью внешнего сервиса Whois API и его бесплатного тарифа. В принципе, вариант рабочий, но не всегда удобно регистрироваться во внешнем сервисе, получать от него токен и в целом зависеть от его доступности.
Прикинул, как можно сделать так же удобно, реализовав всю логику только в шаблоне Zabbix, в том числе в нём же в макросах вести список доменов, но при этом без внешнего сервиса. Решил для этого воспользоваться готовым экспортером для Prometheus. Он удобен тем, что отдаёт метрики по HTTP, а значит их можно забирать заббиксом напрямую через его HTTP Агент.
Рассказываю по шагам, как всё настроил.
1️⃣ Поднимаю на любой своей машине в докере domain_exporter. Можно тут же на сервере Zabbix.
2️⃣ В шаблоне Zabbix создаю правило обнаружения с любым типом. Для примера взял тип Внутренний Zabbix и ключ zabbix[boottime]. Значения этого ключа нам не нужны, так как мы их сразу же будем преобразовывать.
3️⃣ В правиле обнаружения настроил предобработку типа JavaScript с таким кодом:
Берём список доменов из макроса
Это формат, который принимают прототипы айтемов и триггеров.
4️⃣ Создал в шаблоне макросы:
◽️
◽️
◽️
◽️
5️⃣ Создал прототип айтема с типом HTTP Agent. В качестве урла указал
target ⇨ {#DOMAIN}
То есть итоговый урл для получения данных будет такой: http://10.30.52.9:9222/probe?target={#DOMAIN}. А если развернуть lld-макрос, то такой: http://10.30.52.9:9222/probe?target=serveradmin.ru.
6️⃣ В прототипе айтема сделал предобработку:
Шаблон Prometheus ⇨ domain_expiry_days
Так как у нас данные поступают в формате Prometheus, с помощью этой предобработки мы сразу получаем данные о времени оплаты в формате целого числа.
7️⃣ В это же правило автообнаружения добавил 2 триггера.
На выходе мы имеем шаблон для мониторинга за оплатой доменов, где все настройки можно выполнять в веб интерфейсе Zabbix Server через макросы. Не нужны никакие скрипты на хостах. Единственное, что нужно сделать на сервере - запустить экспортер от Prometheus и убедиться, что с Zabbix Server есть к нему доступ.
Решение придумал и реализовал полностью сам. Не исследовал, что уже есть готового на эту тему. Мне видится такая реализация вполне удобной и функциональной. Если кто-то знает решение удобнее без скриптов, поделитесь информацией.
Шаблон публикую отдельно следующей публикацией. Проверял на версии Zabbix 7.0. Необходимо его импортировать на сервер и заполнить макросы либо в самом шаблоне, либо переопределить их после прикрепления к любому хосту.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#zabbix
В разное время я реализовывал различные способы решения этой задачи. Все они один за одним собирались в статью на сайте:
⇨ Мониторинг времени делегирования домена в zabbix
Все способы, описанные там, актуальны и работают. Основное их неудобство - реализация через скрипты, от чего уже давно хочется уйти, потому что неудобно ходить в консоль и править там список доменов. Можно собрать простенький пайплайн для этого, но это тоже перебор для такой простой задачи.
Я её однажды реализовал полностью в шаблоне без скриптов с помощью внешнего сервиса Whois API и его бесплатного тарифа. В принципе, вариант рабочий, но не всегда удобно регистрироваться во внешнем сервисе, получать от него токен и в целом зависеть от его доступности.
Прикинул, как можно сделать так же удобно, реализовав всю логику только в шаблоне Zabbix, в том числе в нём же в макросах вести список доменов, но при этом без внешнего сервиса. Решил для этого воспользоваться готовым экспортером для Prometheus. Он удобен тем, что отдаёт метрики по HTTP, а значит их можно забирать заббиксом напрямую через его HTTP Агент.
Рассказываю по шагам, как всё настроил.
var domains = '{$DOMAINS}'.split(/\s+/);
var data = [];
for (var i = 0; i < domains.length; i++) {
data.push({ "{#DOMAIN}": domains[i] });
}
return JSON.stringify({ data: data });
Берём список доменов из макроса
{$DOMAINS}
и преобразуем их в строку:{
"data": [
{ "{#DOMAIN}": "serveradmin.ru" },
{ "{#DOMAIN}": "example.com" }
]
}
Это формат, который принимают прототипы айтемов и триггеров.
◽️
{$DOMAINS}
= serveradmin.ru example.com # разделитель доменов - пробел;◽️
{$PROM_URL}
= http://10.30.52.9:9222/probe # адрес экспортера;◽️
{$WARN_DAYS}
= 30 # порог в днях для триггера со статусом предупреждение;◽️
{$CRIT_DAYS}
= 5 # порог в днях для триггера со статусом критический.{$PROM_URL}
, а для передачи имени домена использовал поля запроса:target ⇨ {#DOMAIN}
То есть итоговый урл для получения данных будет такой: http://10.30.52.9:9222/probe?target={#DOMAIN}. А если развернуть lld-макрос, то такой: http://10.30.52.9:9222/probe?target=serveradmin.ru.
Шаблон Prometheus ⇨ domain_expiry_days
Так как у нас данные поступают в формате Prometheus, с помощью этой предобработки мы сразу получаем данные о времени оплаты в формате целого числа.
На выходе мы имеем шаблон для мониторинга за оплатой доменов, где все настройки можно выполнять в веб интерфейсе Zabbix Server через макросы. Не нужны никакие скрипты на хостах. Единственное, что нужно сделать на сервере - запустить экспортер от Prometheus и убедиться, что с Zabbix Server есть к нему доступ.
Решение придумал и реализовал полностью сам. Не исследовал, что уже есть готового на эту тему. Мне видится такая реализация вполне удобной и функциональной. Если кто-то знает решение удобнее без скриптов, поделитесь информацией.
Шаблон публикую отдельно следующей публикацией. Проверял на версии Zabbix 7.0. Необходимо его импортировать на сервер и заполнить макросы либо в самом шаблоне, либо переопределить их после прикрепления к любому хосту.
❗️Если заметка вам полезна, не забудьте 👍 и забрать в закладки.
#zabbix
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from addmeto (Grigory Bakunov)
Лежит куча сервисов, которыми пользуются разработчики. Причина — частичное падение чего-то в гугловом облаке GCP. Их собственные таблички показывают "зеленое", но Firebase Auth и многие другие функции сейчас недоступны. https://status.cloud.google.com
up: судя по тому, что лежит еще много-много сервисов, включая частичную недоступность Cloudflare, завтра мы будем читать новую статью "почему BGP это сложный и непонятный протокол".
up: судя по тому, что лежит еще много-много сервисов, включая частичную недоступность Cloudflare, завтра мы будем читать новую статью "почему BGP это сложный и непонятный протокол".
Forwarded from Лобушкин
Apple официально хоронит Mac на Intel. Последним обновлением для старых машин станет macOS Tahoe. Следующая версия — только под M-чипы. Даже Mac Pro 2019 и iMac 2020 уходят в историю. Можно даже сказать на цифровую пенсию.
Звучит жёстко, но абсолютно логично. Поддержка старого железа — дорого и неэффективно. Тащить его в будущее нет смысла. И это постепенно доходит и до нас. Ровно по той же причине, например, Ozon и Wildberries прекращают поддержку своих приложений на старых устройствах.
Если посмотреть, то первым Яндекс.Станциям недавно исполнилось семь лет. По меркам индустрии — ветошь. Они пока работают, но, как признался один знакомый человек из Яндекса, поддерживать их всё труднее. Как долго они ещё продержатся — вопрос.
Делаем выводы: мир ускоряется. Техника устаревает морально быстрее, чем успевает сломаться физически. И постепенно нас начнут «отключать» от привычного, некоторые устройства канут в Лету — не потому что кто-то решил так, а потому что иначе уже невозможно. Таков мир прогресса.
@lobushkin
Звучит жёстко, но абсолютно логично. Поддержка старого железа — дорого и неэффективно. Тащить его в будущее нет смысла. И это постепенно доходит и до нас. Ровно по той же причине, например, Ozon и Wildberries прекращают поддержку своих приложений на старых устройствах.
Если посмотреть, то первым Яндекс.Станциям недавно исполнилось семь лет. По меркам индустрии — ветошь. Они пока работают, но, как признался один знакомый человек из Яндекса, поддерживать их всё труднее. Как долго они ещё продержатся — вопрос.
Делаем выводы: мир ускоряется. Техника устаревает морально быстрее, чем успевает сломаться физически. И постепенно нас начнут «отключать» от привычного, некоторые устройства канут в Лету — не потому что кто-то решил так, а потому что иначе уже невозможно. Таков мир прогресса.
@lobushkin
Газета.Ru
Некоторые пользователи компьютеров Apple перестанут получать обновления
Марк Гурман: macOS Tahoe станет последним обновлением для Mac на Intel
Security Analysis: MCP Protocol Vulnerabilities in AI Toolchains
https://www.cyberark.com/resources/threat-research-blog/is-your-ai-safe-threat-analysis-of-mcp-model-context-protocol
https://www.reddit.com/r/netsec/comments/1ldiilv/security_analysis_mcp_protocol_vulnerabilities_in/
https://www.cyberark.com/resources/threat-research-blog/is-your-ai-safe-threat-analysis-of-mcp-model-context-protocol
https://www.reddit.com/r/netsec/comments/1ldiilv/security_analysis_mcp_protocol_vulnerabilities_in/
Forwarded from Патчкорд
Пятничное, хотя и Вторник, неожиданная находка во время дневной прогулки. Подпись сами можете придумать.
Forwarded from Новости информационной безопасности
ФСТЭК утвердила новые требования о защите информации в ГИС и иных ИС госорганов
18 июня. / D-RUSSIA.RU /. Опубликован приказ Федеральной службы по техническому и экспортному контролю (ФСТЭК) от 11.04.2025 № 117 «Об утверждении требований о защите информации, содержащейся в государственных информационных системах, иных информационных системах государственных органов, государственных унитарных предприятий, государственных учреждений».
Подписанный приказ вступает в силу с 1 марта 2026 года. Действующий до настоящего времени приказ ФСТЭК России от 11 февраля 2013 г. № 17 «Об утверждении требований о защите информации, не составляющей государственную тайну, содержащейся в государственных информационных системах» с 1 марта 2026 года признаётся утратившим силу.
Аттестаты соответствия на ГИС и иные ИС, выданные до 1 марта 2026 года, считаются действительными.
18 июня. / D-RUSSIA.RU /. Опубликован приказ Федеральной службы по техническому и экспортному контролю (ФСТЭК) от 11.04.2025 № 117 «Об утверждении требований о защите информации, содержащейся в государственных информационных системах, иных информационных системах государственных органов, государственных унитарных предприятий, государственных учреждений».
Подписанный приказ вступает в силу с 1 марта 2026 года. Действующий до настоящего времени приказ ФСТЭК России от 11 февраля 2013 г. № 17 «Об утверждении требований о защите информации, не составляющей государственную тайну, содержащейся в государственных информационных системах» с 1 марта 2026 года признаётся утратившим силу.
Аттестаты соответствия на ГИС и иные ИС, выданные до 1 марта 2026 года, считаются действительными.
Digital Russia
ФСТЭК утвердила новые требования о защите информации в ГИС и иных ИС госорганов
Опубликован приказ Федеральной службы по техническому и экспортному контролю (ФСТЭК) от 11.04.2025 № 117 «Об утверждении требований о защите информации,
Forwarded from Технологический Болт Генона
Ник Велнхофер (Nick Wellnhofer), сопровождающий библиотеку libxml2, объявил, что отныне будет трактовать уязвимости как обычные ошибки. Сообщения об уязвимостях не будут рассматриваться в приоритетном порядке, а станут исправляться по мере появления свободного времени. Информация о сути уязвимости будет размещаться в публичном доступе сразу, не дожидаясь формирования патча и распространения исправления в дистрибутивах и операционных сиcтемах. Ник также снял с себя полномочия сопровождающего библиотеку libxslt и высказал сомнения в том, что найдётся кто-то готовый взять на себя её поддержку.
В описание проекта libxml2 добавлено примечание, указывающее на то, что библиотека написана энтузиастами, сопровождается одним добровольцем, плохо протестирована, написана на языке небезопасно работающем с памятью, содержит множество уязвимостей и не рекомендована для обработки не заслуживающих доверия данных. Сообщения о проблемах с безопасностью предписано отправлять через штатную публичную систему отслеживания ошибок и они будут обрабатываться как любые другие ошибки. За закрытыми дверями уязвимости больше устраняться не будут и все имеющиеся сведения о проблемах с безопасностью сразу будут публиковаться в открытом доступе, независимо от требований по неразглашению до заданной даты и без откладывания раскрытия информации до релиза.
Предполагается, что переход к обработке уязвимостей как обычных ошибок даст возможность Нику сосредоточиться на основной работе над libxml2, не прерываясь на внеплановые задачи. В текущем виде Нику приходится тратить несколько часов в неделю на обработку сообщений об уязвимостях и подготовку патчей, что создаёт достаточно большую нагрузку с учётом того, что сопровождение осуществляется на голом энтузиазме.
Отмечается, что скрытие сведений об уязвимостях до публикации обновлений и метрики типа OpenSSF Scorecard лишь попытка крупных компаний вызвать у сопровождающих чувство вины и заставить работать бесплатно. Предъявление дополнительных требований к сопровождающим-волонтёрам, работающим без компенсации, названо пагубной практикой.
По словам Ника, библиотека libxml2 не обладает уровнем качества, пригодным для использования в браузерах и операционных системах. Тем не менее, крупные компании, такие как Apple, Google и Microsoft, стали использовать libxml2 в своих операционных системах и продуктах. Подобные действия названы безответственными, а проводимая работа - попытками избавиться от симптомов, а не устранить причину проблем. По мнению Ника для проекта было бы лучше, если упомянутые компании прекратили использование libxml2.
Сопровождающий libxml2 отказался от особого отношения к устранению уязвимостей
https://www.opennet.ru/opennews/art.shtml?num=63437
Оригинал
Triaging security issues reported by third parties
https://gitlab.gnome.org/GNOME/libxml2/-/issues/913
Forwarded from opennet.ru
Состоялась встреча Билла Гейтса, Дэйва Катлера и Линуса Торвальдса https://opennet.ru/63440/
www.opennet.ru
Состоялась встреча Билла Гейтса, Дэйва Катлера и Линуса Торвальдса
Марк Руссинович, автор драйвера NTFS для DOS и технический директор Microsoft Azure, устроил совместный ужин Билла Гейтса, Дэйва Катлера и Линуса Торвальдса. Это была первая встреча Линуса с основателем компании Microsoft и создателем операционных систем…
Forwarded from T.Hunter
#news Вчера по сети разлетелась горячая новость про 16 миллиардов утёкших паролей, крупнейшую утечку данных в истории и прочее сенсационное. Пошло это со статьи на Forbes, сочинённой наполовину кем-то смахивающим на человека, наполовину ChatGPT. А первоисточник на Cybernews. Давайте разберём по частям ими написанное.
Cybernews последние полгода мониторили датасеты с утёкшими данными, насчитали 30 штук, суммарно в них 16 миллиардов записей. Базы были доступны временно, в незащищённых хранилищах и Elasticsearch. В основном это был микс с инфостилеров, старые утечки и сеты под подстановку учёток. «Тоже мне сенсация» — уже хмыкнул любой ИБ-джун (если не хмыкнул, увольняйте — он безнадёжен). В общем, никакие 16 миллиардов паролей никуда не утекали. Но трафик сам себя не нагонит, поэтому получилось что получилось. Этот пост простым смертным не пересылайте, конечно, отправьте сенсационного — пусть от ужаса хоть двухфакторку накатят. Ну а мы работаем дальше.
@tomhunter
Cybernews последние полгода мониторили датасеты с утёкшими данными, насчитали 30 штук, суммарно в них 16 миллиардов записей. Базы были доступны временно, в незащищённых хранилищах и Elasticsearch. В основном это был микс с инфостилеров, старые утечки и сеты под подстановку учёток. «Тоже мне сенсация» — уже хмыкнул любой ИБ-джун (если не хмыкнул, увольняйте — он безнадёжен). В общем, никакие 16 миллиардов паролей никуда не утекали. Но трафик сам себя не нагонит, поэтому получилось что получилось. Этот пост простым смертным не пересылайте, конечно, отправьте сенсационного — пусть от ужаса хоть двухфакторку накатят. Ну а мы работаем дальше.
@tomhunter
Forwarded from opennet.ru
Компания SUSE открыла AI-модель для анализа лицензионной чистоты кода https://opennet.ru/63454/
www.opennet.ru
Компания SUSE открыла AI-модель для анализа лицензионной чистоты кода
Компания SUSE объявила об открытии под лицензией Apache 2.0 большой языковой модели Cavil-Qwen3-4B, применяемой в проектах SUSE и openSUSE в инструментарии Cavil для анализа лицензионной частоты кода. Опубликованная модель охватывает 4 миллиардов параметров…