ИИ плохо генерирует пароли — и это большая проблема
Новости 2026-02-21
Все статьи

ИИ плохо генерирует пароли — и это большая проблема

Исследователи выяснили: ChatGPT, Claude и Gemini создают пароли с предсказуемыми паттернами, которые легко взломать

пароли ИИ безопасность ChatGPT LLM взлом

Выглядит надёжно. Ломается легко

Представьте, что вы просите ChatGPT или Claude придумать надёжный пароль из 16 символов — со спецсимволами, цифрами и буквами в разных регистрах. Получаете что-то вроде «G7mL9$#kP2nQ8&Rj». Проверяете через онлайн-сервис оценки паролей — он говорит «сильный». Довольны. Но у этого пароля есть проблема. И она фундаментальная. Компания по кибербезопасности Irregular Security провела исследование: попросила Claude, ChatGPT и Gemini сгенерировать по 50 уникальных паролей каждый — с теми же стандартными требованиями. Затем проанализировала результаты на предмет случайности. Картина оказалась тревожной.


Что нашли у каждого ИИ

Claude при генерации 50 паролей использовал поразительно предсказуемый паттерн. Почти каждый пароль начинался с буквы, и в большинстве случаев это была заглавная «G». Вторым символом почти всегда стояла цифра «7». Символы «L», «9», «m», «2», «$» и «#» присутствовали в каждом из 50 паролей. Значительная часть алфавита не появилась ни в одном из них. ChatGPT начинал практически каждый пароль со строчной «v», а почти в половине случаев второй символ — заглавная «Q». Набор используемых символов тоже был узким — вместо того чтобы равномерно распределять выборку по всему алфавиту, модель снова и снова возвращалась к одним и тем же символам. Gemini демонстрировал ту же картину: большинство паролей начиналось с заглавной или строчной «K», за которой почти всегда следовало что-то из «#», «P» или «9». Все три модели объединяло ещё одно любопытное наблюдение: ни в одном из сгенерированных паролей не встречались повторяющиеся символы подряд. На первый взгляд это выглядит как признак случайности. На самом деле — наоборот: в по-настоящему случайной выборке такие повторения неизбежно появились бы. Их полное отсутствие само по себе является паттерном.

Что такое энтропия и почему это важно

Надёжность пароля измеряется в битах энтропии — это показатель того, сколько попыток потребуется для его подбора. Чем выше энтропия, тем больше возможных вариантов нужно перебрать атакующему. Для понимания масштаба: пароль с 20 битами энтропии даёт около миллиона возможных вариантов — современный GPU взломает его за секунды. Пароль со 100 битами энтропии потребовал бы триллионов лет даже при самом мощном железе. По-настоящему случайный 16-символьный пароль, где каждый символ выбирается равномерно из всего доступного набора, даёт около 6,13 бита энтропии на символ — итого примерно 98 бит на весь пароль. Пароли, сгенерированные исследованными ИИ-моделями, показали около 2,08 бита на символ. Итого — около 27 бит на пароль вместо 98. Это не просто «чуть хуже». Разница в 27 против 98 бит — это разница между паролем, который можно вскрыть за минуты с помощью GPU, и паролем, взлом которого займёт дольше, чем существует Вселенная.


Почему ИИ не умеет в случайность

Причина не в плохом коде и не в ошибке конкретной компании — она архитектурная. Большие языковые модели обучены предсказывать следующий токен на основе предыдущего. Их сила в том, чтобы выдавать ожидаемые, связные, «похожие на правду» ответы. Именно это делает их полезными для текста, кода, резюме и объяснений. И именно это делает их принципиально неподходящими для генерации паролей. Настоящая случайность — это отсутствие паттерна. ИИ по своей природе производит паттерны, даже когда пытается их избежать. Исследователи Irregular прямо заявили: это не та проблема, которую можно решить лучшими промптами или настройкой температуры модели. «ИИ-модели оптимизированы для предсказуемых, правдоподобных выводов, что несовместимо с безопасной генерацией паролей», — говорится в их отчёте.


Угроза шире, чем кажется

Пока речь шла об индивидуальных пользователях, проблему легко обойти: просто не просить ИИ генерировать пароли. Gemini, например, даже показывает предупреждение, что сгенерированные им пароли не следует использовать для важных аккаунтов. Но всё сложнее, когда речь идёт об ИИ-агентах — системах, которые автономно пишут код, создают приложения и настраивают сервисы. Такие агенты всё чаще используются в разработке. И они тоже прибегают к LLM для генерации паролей внутри создаваемых ими систем. Исследователи нашли подтверждение этому в реальной жизни: характерные ИИ-паттерны обнаружились в коде на GitHub и в технических документах. Это означает, что уже существуют реальные приложения и сервисы с паролями, сгенерированными ИИ-агентами, — и они уязвимы для атак с использованием именно этих паттернов.


Что делать

Для паролей — только специализированные инструменты. Встроенные генераторы в менеджерах паролей используют криптографически стойкие генераторы случайных чисел, специально предназначенные для задачи обеспечения непредсказуемости. Bitwarden, 1Password, встроенный генератор в iCloud Keychain или Google Password Manager — любой из них справится лучше, чем любой LLM. Если вы разработчик и используете ИИ-агенты для написания кода — явно исключите LLM из любых задач, связанных с генерацией паролей, токенов или криптографических ключей. Для этого используйте системные библиотеки криптографически безопасной генерации случайных чисел.

ИИ умеет многое. Придумывать по-настоящему случайные пароли — не входит в этот список. И чем раньше это станет очевидным, тем меньше сервисов окажется взломано из-за паролей, которые выглядели надёжно, но таковыми не были.