По данным компании по искусственному интеллекту, спонсируемые государством китайские хакеры обманули технологию искусственного интеллекта Anthropic, чтобы создать высокоавтоматизированные взломы, нацеленные на крупные корпорации и иностранные правительства.
Уолл Стрит Джорнал сообщает, что Anthropic, ведущая компания в области искусственного интеллекта, сообщила, что поддерживаемые государством хакеры Китая использовали ее технологию искусственного интеллекта для автоматизации кибератак в беспрецедентных масштабах во время хакерской кампании в сентябре. Хакерам удалось обойти меры безопасности Anthropic, выдав себя за аудиторов безопасности, работающих от имени целевых организаций, что позволило им проводить атаки с минимальным вмешательством человека.
По словам Джейкоба Кляйна, руководителя отдела анализа угроз Anthropic, использование хакерами автоматизации искусственного интеллекта достигло тревожного уровня: от 80 до 90 процентов атак были автоматизированы. Хакеры могли инициировать атаки «одним нажатием кнопки», и им требовалось участие человека лишь в нескольких критических моментах принятия решений. Такой уровень автоматизации кибератак является растущей тенденцией, которая обеспечивает хакерам повышенную скорость и масштаб.
Хакерская кампания была сосредоточена примерно на 30 объектах, и, хотя Anthropic утверждает, что пресекла атаки и заблокировала учетные записи хакеров, до вмешательства компании было успешно проведено до четырех вторжений. В одном случае хакеры поручили искусственному интеллекту Клода Anthropic самостоятельно запрашивать внутренние базы данных и извлекать данные.
Использование ИИ во взломе не является чем-то новым: хакеры используют инструменты ИИ для таких задач, как создание фишинговых писем и выявление уязвимых систем. Однако способность объединять различные хакерские задачи в почти автономные атаки знаменует собой значительный прогресс в этой области. Другие фирмы, занимающиеся кибербезопасностью, такие как Volexity, также наблюдали, как хакеры, поддерживаемые Китаем, используют ИИ для автоматизации частей своих хакерских кампаний против корпораций, исследовательских институтов и неправительственных организаций.
Anthropic не раскрыла конкретные корпорации и правительства, подвергшиеся атакам, но заявила, что, хотя правительство США не вошло в число жертв успешного вторжения, они не стали комментировать, подверглась ли атаке какая-либо часть правительства США. Компания уверена, что атаки были осуществлены хакерами, поддерживаемыми китайским государством, на основании использованной цифровой инфраструктуры и других доказательств.
Чтобы провести атаку с использованием Claude, хакерам пришлось обойти защиту Anthropic с помощью метода, называемого «взломом тюрьмы», при котором они утверждали, что проводят аудит безопасности от имени целей. Они также разработали систему, позволяющую разбить каждый этап кампании на отдельные задачи, которые не вызывают тревоги.
После атак Anthropic обновила свои методы обнаружения злоупотреблений, что затруднило злоумышленникам использование Claude для аналогичных целей в будущем. Однако этот инцидент подчеркивает опасность двойного назначения инструментов ИИ, поскольку более сильные системы ИИ могут использоваться для усиления как защиты кибербезопасности, так и атак.
Подробнее читайте на Уолл Стрит Джорнал здесь.
Лукас Нолан — репортер Breitbart News, освещающий вопросы свободы слова и онлайн-цензуры.