Государственный фонд фондов
Институт развития Российской Федерации

Media Review

Какие стандарты нужны искусственному интеллекту

В июле 2019 года по инициативе Российской венчурной компании был образован технический комитет по стандартизации ТК 164 «Искусственный интеллект». Прошедшие с момента его создания полгода позволили консолидировать в составе комитета около 120 ведущих отечественных организаций в этой области: вузов, научно-исследовательских организаций и ИТ-компаний, потребителей технологий ИИ и профильных органов государственной власти. А также сформировать рабочие группы и подкомитеты по основным аспектам деятельности и наладить взаимодействие с международными организациями по стандартизации.

Сегодня мы формируем повестку деятельности технического комитета на среднесрочную перспективу. Она должна учитывать как универсальные работы по стандартизации информационных систем и технологий, так и направления, специфичные именно для интеллектуальных систем обработки данных.

К первому блоку вопросов следует отнести прежде всего различные аспекты, связанные с унификацией: разработка единых терминов и определений в области ИИ, стандартов представления и описания данных, протоколов информационного обмена, обеспечивающих взаимную совместимость интеллектуальных систем и их совместимость с другими автоматизированными системами.

Специфические же стандарты связаны с непрозрачностью работы интеллектуальных алгоритмов из-за отсутствия объяснительных механизмов принятия решений. Эта особенность, характерная прежде всего для систем ИИ, в основу которых положено обучение на данных, существенно затрудняет оценку качества работы и прогнозирование поведения системы в реальных условиях эксплуатации. Это, в свою очередь, не позволяет применять технологии искусственного интеллекта при решении ответственных задач, то есть таких, некорректное решение которых может привести к угрозам для здоровья и жизни людей, существенному экологическому и экономическому ущербу. Это, прежде всего, медицинская диагностика и поддержка принятия врачебных решений, управление беспилотными транспортными средствами, строительной техникой и опасным промышленным оборудованием, большинство приложений ИИ в области обороны и безопасности.

Барьеры, связанные с применением систем ИИ в этих областях, могут быть сняты за счёт стандартизации требований к методикам испытаний ответственных интеллектуальных систем, а также за счёт создания системы сертификации, которая обеспечивает объективное подтверждение соответствия систем установленным требованиям в области функциональности и безопасности.

Ещё одна особенность стандартизации искусственного интеллекта лежит в плоскости защиты информации. Создание и применение систем искусственного интеллекта неразрывно связано с использованием big data. Во многих случаях подобные данные относятся к категории конфиденциальной информации, в том числе — персональных данных. Сейчас легальные пути передачи оператором персональных данных третьей стороне — разработчику системы ИИ — отсутствуют.

Например, медицинские данные, накопленные в учреждении здравоохранения, не могут быть переданы ИТ-компании для разработки интеллектуальной системы, предназначенной для решения той или иной задачи медицинской диагностики. Безусловно, это сдерживает прогресс и требует проработки как организационно-технических, так и нормативных решений в области гарантированной деперсонификации больших данных, управления разрешениями на обработку персональных данных и т. п.

Проблема защиты информации, обрабатываемой в системах ИИ, усугубляется ещё и тем, что уровень конфиденциальности информации в процессе её обработки может спонтанно возрастать. Это происходит при агрегировании данных, их экстраполяции, при восстановлении изначально отсутствующих компонентов данных. В результате информация о человеке, собираемая из открытых источников, может в определённый момент приобрести признаки персональных данных, а это потребует адекватных мер по их защите. Для предотвращения избыточных мер по защите информации при одновременном гарантированном соблюдении требований информационной безопасности в системах ИИ необходимы стандарты, устанавливающие порядок определения уровня конфиденциальности обрабатываемых данных, которые предусматривают возможность изменения этого уровня в процессе функционирования интеллектуальной системы.

На важность работ по стандартизации в области искусственного интеллекта обратил внимание в своём ежегодном послании Федеральному Собранию президент РФ Владимир Путин. Он отметил, что в условиях возрастания скорости технологических изменений в мире «мы должны создать собственные технологии и стандарты по тем направлениям, которые определяют будущее. Речь прежде всего об искусственном интеллекте, генетике, новых материалах, источниках энергии, цифровых технологиях. … Уже в этом году нужно запустить гибкий механизм экспериментальных правовых режимов для разработки и внедрения в России новых технологий, наладить современное регулирование оборота больших данных».

Работы по развитию стандартизации в области ИИ будут проводиться техническим комитетом ТК 164 «Искусственный интеллект» в соответствии с Национальной стратегией развития искусственного интеллекта на период до 2030 года. Она предусматривает создание единых систем стандартизации и оценки соответствия технологических решений, разработанных на основе искусственного интеллекта, развитие международного сотрудничества по вопросам стандартизации и обеспечение возможности сертификации продукции, созданной на основе ИИ.

Автор: Сергей Гарбук, председатель Технического комитета 164 «Искусственный интеллект» на базе РВК.


Место проведения: