В Нидерландах оценивают этичность использования ИИ-систем во время пандемии В Нидерландах оценивают этичность использования ИИ-систем во время пандемии

В Нидерландах оценивают этичность использования ИИ-систем во время пандемии

Авторы проекта разработали фреймворк по ответственному использованию ИИ в кризисных ситуациях

Проект нидерландской организации ALLAI анализирует ИИ-системы как медицинского, так и социального назначения. К первым относятся решения, связанные с разработкой лекарственных препаратов и вакцин, прогнозированием и диагностикой заболеваний, оптимизацией процесса оказания медицинской помощи. Ко вторым — системы мониторинга социальной дистанции и отслеживания нарушителей масочного режима, а также платформы для дистанционного обучения. Предложенные авторами принципы оценки цифровых решений основаны на семи требованиях к надежному ИИ, которые описаны в программном документе Европейского союза Ethics Guidelines for Trustworthy AI:

· контроль человека над работой ИИ;

· техническая робастность и безопасность;

· приватность и управление данными;

· прозрачность;

· разнообразие, отсутствие дискриминации и справедливость;

· социальное и экологическое благополучие;

· подотчетность.

Шкала оценки ИИ-систем, сформированная на базе этих критериев надежности, представлена на сайте проекта в виде инфографики.

Адаптируя принципы оценки к онлайн- и офлайн-реальности, участники проекта создали практический инструмент — «Фреймворк по ответственному использованию ИИ в период пандемии». Он помогает оценить цифровые продукты по 24-м критериям, сгруппированным в три категории: 1) воздействие на человека и общество, 2) техническая робастность и 3) эффективность, управление и подотчетность. Для каждого из критериев предложена четырехбалльная шкала, где 0 — неизвестно, соответствует ли продукт критерию; 1 — продукт не соответствует критерию; 2 — продукт частично соответствует критерию; 3 — продукт полностью соответствует критерию.

Основатели проекта обращают внимание, что во время кризисных ситуаций, таких как пандемия, особенно важно соблюдать баланс между рисками и пользой. Так, необходимо в первую очередь оценивать риски для уязвимых групп населения (например, детей), принимать разумные меры по предотвращению таких рисков, а также учитывать вероятность возникновения ситуации, в которой использование продукта будет невозможно ввиду высокого уровня этических рисков.

Чтобы показать возможности фреймворка, исследователи провели оценку ИИ-системы, которая выявляет пассажиров без маски на станции парижского метро Шатле — Ле-Аль. Ни по одному из критериев продукт не получил максимальную оценку.


ALLAI — нидерландская независимая организация, которая работает над продвижением идеи ответственного искусственного интеллекта. Она основана тремя участницами Экспертной группы высокого уровня ЕС по искусственному интеллекту — Кателейне Мюллер (Catelijne Muller), Вирджинией Дигнум (Virginia Dignum) и Айме ван Винсберге (Aimee van Wynsberghe). ALLAI предоставляет консалтинговые услуги по разработке нормативных документов в области ИИ, работает над образовательными и исследовательскими проектами, а также занимается просветительской деятельностью.