top of page

Принципы для искусственного интеллекта


Сбываются предсказания фантастов не только о создании и массовом использовании искусственного интеллекта, но и о необходимости специальных законов, регулирующих его отношения с человечеством. Принципы таких отношений изложены в совместном заявлении по итогам встречи министров экономики стран G20, опубликованном 8 июня.

Пока предлагаются всего 2 принципа:

1. Разработчики и пользователи технологий ИИ должны уважать основные юридические принципы, права человека и демократические ценности. При этом для повышения доверия к технологиям ИИ и полной реализации их потенциала необходимо, чтобы в центре использования искусственного интеллекта стоял человек.

2. Системы ИИ должны быть устойчивы, защищены и надежны на протяжении всего периода их использования и не должны нести с собой никаких неприемлемых рисков.

Принципы, сформулированные на саммите G-20 в Японии, весьма отдаленно напоминают 3 закона робототехники из романов Айзека Азимова. Но определенное сходство все-таки есть. Имеется оно и в принципах обращения с ИИ, опубликованными 22 мая Организацией экономического сотрудничества и развития (ОЭСР). К позиции в отношении искусственного интеллекта, предложенному ОЭСР, объединяющей 36 экономически развитых стран мира, присоединились еще 6 стран - Аргентина, Бразилия, Коста-Рика, Колумбия, Перу и Румыния. Документ содержит 5 принципов разработки ИИ-систем и 5 рекомендаций, относящихся к международному сотрудничеству и национальным интересам.

Принципы искусственного интеллекта ОЭСР

1. ИИ должен служить людям и планете, повышая недискриминационный рост, устойчивое социально-экономическое и экологобезопасное развитие, а также благосостояние и благополучие людей.

2. ИИ-системы должны разрабатываться с учетом законодательства, прав человека, демократических ценностей и многообразия. В них должны быть предусмотрены адекватные защитные механизмы – например, возможность вмешательства человека в работу системы, если это потребуется, – чтобы гарантировать открытое и справедливое общество.

3. Использование ИИ-систем должно быть прозрачным и открытым, чтобы люди понимали, с чем они имеют дело, и могли предъявить претензии к итоговому результату.

4. ИИ-системы должны работать надежно и безопасно в течение всего жизненного цикла; потенциальные риски должны постоянно оцениваться и предотвращаться.

5. Организации и индивидуумы, разрабатывающие, внедряющие или управляющие ИИ-системами, обязаны нести ответственность за их адекватную работу в соответствии с вышеизложенными принципами.

Рекомендации ОЭСР правительствам:

1. Содействовать частным и государственным инвестициям в исследования и разработки, ускоряющие инновации в сфере доверенного ИИ.

2. Поддерживать доступные ИИ-экосистемы цифровой инфраструктурой, технологиями и механизмами для обмена данными и знаниями.

3. Создать политический климат, благоприятный для внедрения доверенных ИИ-систем.

4. Вооружать людей навыками для взаимодействия с ИИ и поддерживать работников, меняющих из-за ИИ сферу деятельности.

5. Поощрять международную кооперацию и сотрудничество разных секторов экономики в деле обмена информацией и разработки стандартов; двигаться в сторону ответственного руководства ИИ.

Мнение ОЭСР основывается на «Этических рекомендациях по надежному искусственному интеллекту», разработанных ранее Еврокомиссией. В дальнейшем специалисты ОЭСР намерены представить практическое руководство по внедрению своих принципов.

Впрочем, пока все эти рекомендации выглядят очевидными не являются юридически обязательными. Однако их авторы уверены, что их соблюдение закладывает основы безопасности и благополучия человечества в ближайшем будущем. «Искусственный интеллект коренным образом меняет нашу жизнь и трудовую деятельность", - заявил глава ОЭСР Анхел Гурриа. – он дает множество преимуществ экономике и обществу, но в то же время будит страхи и поднимает вопросы этического плана».

Впрочем, уважение к законам, правам человека и демократическим ценностям кажется очевидным далеко не всем людям. Что получится, если именно они будут формировать «начинку» ИИ, можно только предполагать. А потому вопрос доверия к ИИ не сегодня-завтра будет столь же актуальным, как и поддержка граждан, вынужденных сменить из-за него место работы. Пока по оценкам ОЭСР всего 14% рабочих мест будут переданы роботам и алгоритмам с высокой долей вероятности. Но уже сейчас треть профессий попадает в группу умеренного риска, который со временем может возрасти.

Поэтому построением эффективных и безопасных отношений людей и ИИ на основе рекомендаций ОЭСР и G-20 или иных принципов лучше озаботиться заранее. Впрочем, как говаривала Сьюзен Келвин, если кто-то исполняет все законы робототехники безукоризненно, значит это либо робот, либо очень хороший человек.

***

Доля рабочих мест с высоким риском автоматизации в регионах ОЭСР с наиболее высокими и низкими показателями представлена на диаграмме (%, 2016 г.)

Источник: расчеты ОЭСР на основе обследований рабочей силы.

Примечание: регионы ОЭСР TL2 в отдельных странах ОЭСР. Высокий риск автоматизации относится к работам с более чем 70% риска автоматизации.

.

Мы в соцсетях
  • Иконка Twitter с длинной тенью
  • Иконка Google+ с длинной тенью
  • Иконка Facebook с длинной тенью
  • Иконка LinkedIn с длинной тенью
bottom of page