Отсутствие выявления вредоносного содержимого в видеоматериалах большими языково-логическими моделями
Краткое содержание
arXiv:2508.10974v2 Тип объявления: замена-перекрёстная публикация Аннотация: Видеоязыковые большие модели (VideoLLM) всё чаще применяются во множестве критически важных приложений, где пользователи полагаются на автоматически генерируемые резюме, бегло просматривая видеопоток. Мы показываем, что такое взаимодействие скрывает серьёзный пробел безопасности: если вредоносное содержимое встроено в видео — будь то вставки полнокадрового формата или небольшие фрагменты в углу кадра — современные VideoLLM редко упоминают вредоносное содержание в выводимых результатах, несмотря на его очевидную видимость человеческому зрителю. Анализ первопричин выявляет три взаимосвязанных конструктивных недостатка: (1) недостаточное временное покрытие вследствие разреженного равномерного выборочного отбора кадров, используемого большинством ведущих VideoLLM, (2) потерю пространственной информации, вызванную агрессивной процедурой понижения разрешения токенов внутри отобранных кадров, и (3) разрыв между кодировщиком и декодером, когда визуальные подсказки слабо используются в процессе генерации текста. Используя эти выводы, мы разработали три атаки нулевого запроса чёрного ящика, согласующиеся...
Полный текст статьи пока не загружен.