Доверие к мультимодельным языково-визуальным моделям: выводы из интерактивной пользовательской мастерской
Краткое содержание
arXiv:2511.13458v1 Тип объявления: кросс Аннотация: С ростом развертывания моделей видения-языка (VLM), предварительно обученных на больших наборах данных изображений-текстов и видеотекстов, критически важно снабдить пользователей инструментами для определения случаев, когда этим системам можно доверять. Тем не менее, изучение того, как формируется и развивается доверие пользователей к VLM, остается открытым вопросом. Эта проблема усугубляется возрастающей зависимостью от моделей ИИ в качестве судей для экспериментальной проверки, чтобы избежать затрат и последствий проведения исследований дизайна взаимодействия непосредственно с пользователями. Следуя ориентированному на пользователя подходу, данная статья представляет предварительные результаты семинара с потенциальными пользователями VLM. Полученные выводы будут использованы в будущих исследованиях, направленных на контекстуализацию метрик доверия и стратегий вовлечения участников применительно к взаимодействию между пользователем и моделью VLM.
Полный текст статьи пока не загружен.