Группа исследователей, пожелавших остаться анонимными, провела серию экспериментов по взлому веб-сайтов с использованием нейросети GPT-4. Они нацелились на уязвимости «нулевого дня», под которыми подразумеваются только что обнаруженные, а потому еще не закрытые дыры в безопасности сайтов. Задачей ИИ было найти эти уязвимости и подобрать или создать инструмент для их взлома.
Сообщается, что ИИ GPT-4 использовал методику «иерархического планирования с агентами для конкретных задач». Проще говоря, анализировал ситуацию и создавал «субагентов» для решения конкретных задач вместо того, чтобы пытаться выполнить всю работу самостоятельно. «Субагенты» были одноразовыми и выполняли лишь необходимый объем работы, чтобы минимизировать затраты по решению всей задачи.
При принудительной работе в одиночку GPT-4 сумел задействовать только 3 из 15 известных уязвимостей в тестовом наборе. А работая по принципу «команды» он сумел взломать уже 8. Это порождает проблему – разработчики GPT-4 вынуждены выбирать между необходимостью встраивать искусственные ограничители в ИИ или же позволить ему использовать весь свой потенциал для работы.
В режиме чат-бота GPT-4 честно отвечает, что понимает суть задачи по взлому чего-либо, но не способен ее решить. Кроме того, он ограничен юридически и морально, о чем и обязан предупреждать пользователей. А вот на что этот ИИ уже способен в реальности, большинство людей даже не