← Вернуться к списку

LoopLLM: Переносимые атаки на энергопотребление и задержку в больших языковых моделях через повторяющееся порождение текста

Краткое содержание

arXiv:2511.07876v1 Тип объявления: кросс Аннотация: По мере масштабирования больших языковых моделей (LLM), затраты вычислительных ресурсов на их вывод существенно возрастают, подвергая модели атакам, связанным с энергопотреблением и задержкой, когда специально подобранные запросы вызывают высокие энергозатраты и задержки. Современные методы атак стремятся продлить вывод путем отсрочки генерации символов завершения. Однако по мере увеличения длины вывода контроль над символами завершения через входной запрос становится затруднительным, снижая эффективность таких методов. В связи с этим мы предлагаем LoopLLM — фреймворк атаки на энергопотребление и задержку, основанный на наблюдении, что повторяющаяся генерация способна вызывать низкоэнтропийные циклы декодирования, надежно заставляя LLM генерировать до достижения пределов вывода. LoopLLM включает два нововведения: (1) оптимизацию запросов, вызывающих повторы, использующую уязвимости автокорреляционного типа для инициирования повторяющейся генерации, и (2) ансамблевую оптимизацию, согласованную по токенам, которая агрегирует градиенты для повышения переносимости между моделями. Подробное экспериментальное исследование проведено на 12 открытых моделях...

Полный текст статьи пока не загружен.