22 апреля 2025 года на площадке РТУ МИРЭА состоялось расширенное заседание-семинар Рабочей группы №2 Консорциума исследований безопасности искусственного интеллекта по тестированию технологий искусственного интеллекта. Мероприятие собрало ведущих экспертов в области ИИ и информационной безопасности для выработки практических решений по тестированию ИИ-систем.
Участники рассмотрели модели угроз и нарушителей, которые не связаны напрямую с ИИ, но влияют на его безопасность. Особое внимание уделили вопросам:
Дискуссия коснулась того, включать ли в аудит безопасности не только сами ИИ-алгоритмы, но и процессы их разработки, а также сторонних исполнителей.
3. Критерии доверенности ИИ
Эксперты обсудили, можно ли считать рекомендации по улучшению доверенности итогом тестирования или это отдельная задача для РГ2.
4. Эталонные решения для ИИ
Один из самых сложных вопросов — кто и как должен разрабатывать и верифицировать референсные технологические элементы ИИ, чтобы они стали общепризнанным стандартом.
С докладами выступили представители ведущих организаций:
Заседание позволило согласовать позиции между научными и коммерческими организациями в рамках задач деятельности Консорциума исследований безопасности технологий искусственного интеллекта. Участники наметили дальнейшие шаги по разработке методик тестирования и стандартов безопасности ИИ.
Мероприятие стало важным шагом в развитии методологии тестирования ИИ-технологий и укреплении взаимодействия между участниками Консорциума.
Ключевые темы обсуждения
1. Неспецифичные угрозы ИБ в контексте ИИУчастники рассмотрели модели угроз и нарушителей, которые не связаны напрямую с ИИ, но влияют на его безопасность. Особое внимание уделили вопросам:
- Какие уязвимости традиционных ИБ-систем критичны для ИИ?
- Как адаптировать тестирование под региональные особенности?
Дискуссия коснулась того, включать ли в аудит безопасности не только сами ИИ-алгоритмы, но и процессы их разработки, а также сторонних исполнителей.
3. Критерии доверенности ИИ
Эксперты обсудили, можно ли считать рекомендации по улучшению доверенности итогом тестирования или это отдельная задача для РГ2.
4. Эталонные решения для ИИ
Один из самых сложных вопросов — кто и как должен разрабатывать и верифицировать референсные технологические элементы ИИ, чтобы они стали общепризнанным стандартом.
С докладами выступили представители ведущих организаций:
- «Газинформсервис» - Примеры решения для обеспечения безопасности ИБ ИИ;
- СПб ФИЦ РАН - Уязвимости больших языковых моделей и подходы по снижению риска;
- ИСП РАН - Тестирование фреймворков машинного обучения;
- НТЦ ЦК - Принципы проведения аудитов систем ИИ;
- РТУ МИРЭА - Автоматизированное тестирование наборов данных;
- Swordfish Security - Методология тестирования безопасности и доверенности AI-моделей;
- Русское биометрическое общество - Стандартизированные подходы по проведению независимых доверенных испытаний на примере биометрических технологий.
Заседание позволило согласовать позиции между научными и коммерческими организациями в рамках задач деятельности Консорциума исследований безопасности технологий искусственного интеллекта. Участники наметили дальнейшие шаги по разработке методик тестирования и стандартов безопасности ИИ.
Мероприятие стало важным шагом в развитии методологии тестирования ИИ-технологий и укреплении взаимодействия между участниками Консорциума.
Фотогалерея
1/1
—
