Telegram Web Link
https://www.cbr.ru/statichtml/file/59420/protection_profile_060720.doc
У банков теперь свои профили защиты.
38
Коротко о том, что происходит на рынке ИИ:

«Я хотела чтобы ИИ занимался стиркой и посудой пока я рисую и пишу — а не чтобы ИИ рисовал и писал пока я стираю и мою посуду».
Косвенные и репутационные потери (мультипликатор стоимости простоя)

Прямые потери не учитывают панику, отток клиентов, регуляторные риски и потерю рыночной доли. По этой причине в мировой практике для критической инфраструктуры, такой как системно значимые банки, применяется мультипликатор стоимости простоя. Этот коэффициент растет с увеличением времени простоя.

Краткосрочный простой (первый час): мультипликатор 1.5x – 2x. При этом 1.5х действует с первой же секунды.

Отражаемые добавленные риски: непродуктивность персонала, срочные коммуникации.

Среднесрочный простой (от часа до суток): мультипликатор 2x – 5x.

Отражаемые добавленные риски: негатив в СМИ, начало оттока средств, регуляторные запросы.

Долгосрочный простой (более суток): мультипликатор 5x – 15x.

Отражаемые добавленные риски: массовый отток клиентов, штрафы от ЦБ, неустойки по обязательствам, долгосрочный урон бренду, судебные иски, санация банка.

#надежность #доступность #простой #SRE #финтех
2
С сегодняшнего дня Microsoft прекращает выпускать обновления для системы.

F, легенда
Forwarded from T.Hunter
#news В Redis обнаружили критическую уязвимость, она получила название RediShell — здесь у нас RCE. Проблема во всех версиях Redis с Lua-скриптами. То есть за последние ~13 лет.

Уязвимость на коррапт памяти вида use-after-free в сборщике мусора, при определённых условиях специально созданный Lua-скрипт может вести к RCE. Для эксплойта нужна аутентификация, но уязвимость всё равно выбила десяточку по CVSS. А разгадка проста: это Redis. В сети доступны 330 тысяч инстансов, из них на 60 тысячах аутентификации нет вообще. Ещё на сотне тысяч найдутся дефолтные или слабые пароли, но об этом сканеры умалчивают. Плюс высокие привилегии вплоть до рута на старых сетапах. А там и боковое перемещение и прочие удовольствия. Следов эксплуатации пока нет, но желающие обязательно найдутся. Так что пришло время накатывать патчи — они доступны в версиях от 3 октября.

@tomhunter
20
Forwarded from Хабр Новости
Сбой в работе Amazon Web Services в центре обработки данных AWS в Северной Вирджинии затронул сотни сервисов и систем по всему миру. «Мы наблюдаем существенные признаки восстановления. Большинство запросов теперь должны быть выполнены успешно. Мы продолжаем работать с накопившимися запросами в очереди», — пояснили в AWS спустя два часа после начала сбоя.

#ТехническиеШоколадки #сервисы
Forwarded from AWS Notes (Roman Siewko)
It was not DNS. AWS падение 20 октября 2025 года.

1. С чего началось?

Внутренняя подсистема мониторинга NLB внезапно умирает от всплеска нагрузки во внутренней сети AWS.
The root cause is an underlying internal subsystem responsible for monitoring the health of our network load balancers.


2. It is always DNS.

Сбой мониторинга и перегрузка трафика вызвали проблемы в разрешении DNS, главным образом затронуты были внутренние AWS endpoints для DynamoDB (но не только).
DNS resolution issues for the regional DynamoDB service endpoints.


3. Падаем громко.
DynamoDB тянет за собой EC2 Control Plane, Lambda, SQS, CloudTrail, ECS, EKS и т.д. — потому что они зависят и по данным, и по метаданным.
This issue also affects other AWS Services in the US-EAST-1 Region.


4. Первый фикс.

DNS for DynamoDB чинят уже спустя два часа. Но каскадное падение многих (143+) сервисов запущено, т.к. проблемный DNS закэшировался во всех этих сервисах.
After resolving the DynamoDB DNS issue at 2:24 AM, services began recovering but we had a subsequent impairment in the internal subsystem of EC2 that is responsible for launching EC2 instances due to its dependency on DynamoDB.

If you are still experiencing an issue resolving the DynamoDB service endpoints in US-EAST-1, we recommend flushing your DNS caches.


5. Monitoring blind.

Долгое время никто не знает, что реально происходит - ни CloudWatch, ни внутренний мониторинг не работает.

Network Load Balancer health checks also became impaired, resulting in network connectivity issues in multiple services such as Lambda, DynamoDB, and CloudWatch.


6. Почему упал не только один регион N.Virginia us-east-1?

Ключевые сервисы - IAM, CloudFront, CloudFormation, Route53 и др. - исторически живут исключительно в us-east-1. Поэтому проблема с ними = проблемы у всех регионов.
Моё предположение, что это падение наконец-то станет окончательным поводом пересмотреть архитектуру 20-летней давности.
Global services or features that rely on US-EAST-1 endpoints such as IAM updates and DynamoDB Global tables may also be experiencing issues.


7. Как развивалось дальше?

Сервисы недоступны или throttle-ятся долгое время, т.к. проблемы, вызванные DynamoDB DNS и недоступность ключевых сервисов не часто тестировалось ранее, наверняка что-то с этим связанное вызвало серьёзные проблемы.
As part of the recovery effort, we temporarily throttled some operations such as EC2 instance launches, processing of SQS queues via Lambda Event Source Mappings, and asynchronous Lambda invocations.


8. Когда решили проблему и началась стабилизация?

Условно через 12 часов после начала. После ещё около трёх часов окончательно поднимались все остальные сервисы и в результате инцидент продлился около 15 часов.
By 3:01 PM, all AWS services returned to normal operations. Some services such as AWS Config, Redshift, and Connect continue to have a backlog of messages.


Итого.

Жду появления в бэклоге AWS своего IAM для каждого региона.

И замените, наконец, народу во внутренней сети их Cisco 2800 на что-нибудь поновее.
2025/10/23 02:55:22
Back to Top
HTML Embed Code: