Согласно новому Индексу ИИ-2022 Стэндфордского университета Россия в этом году вышла в лидеры по числу нормативных актов в области искусственного интеллекта, уступая только США. Почему в мире уделяют все больше внимания регулированию ИИ и нужно ли так тщательно его регулировать?
Передовая технология или реальная угроза?
В феврале 2022 года Минэкономразвития России совместно с учеными ВШЭ и компаниями — лидерами отрасли опубликовало «Белую книгу» высоких технологий — искусственный интеллект вошел в число десяти самых передовых. Эксперты констатируют, что развитие ИИ в нашей стране соответствует глобальным трендам и на уровне фундаментальных исследований, и в области практического применения.
Но наряду с ростом возможностей искусственного интеллекта растет и беспокойство о потенциальных угрозах, которые несет эта технология. В конце прошлого года Совфед РФ поручил профильным министерствам доработать закон, который исключит дискриминацию людей со стороны ИИ и регламентирует порядок обжалования решений, принятых алгоритмами. Новый стэнфордский Индекс ИИ также уделяет вопросам регулирования и этики ИИ намного больше внимания, чем прежде. Законодателей, исследователей и разработчиков волнует проблема соответствия алгоритмов ИИ принципам справедливости и непредвзятости.
Многие обеспокоены тем, что ИИ используется для ограничения прав и свобод человека. Как происходит, например, в Китае, где власти применяют «умные камеры» и системы распознавания лиц для тотальной слежки за своими гражданами. Алгоритмы ИИ помогают ранжировать людей в зависимости от одобряемого властями поведения — неугодным могут отказать в выдаче кредита и социальных выплатах, запретить покидать страну или работать в определенных сферах.
Кроме того, ИИ все чаще обвиняют в дискриминации. Например, системы распознавания лиц в США и Европе обычно обучают на датасетах, где больше всего фотографий людей титульной расы и национальности. В итоге они плохо распознают азиатов, латиноамериканцев или афроамериканцев, чаще указывают на темнокожих людей как на потенциальных преступников. А ВОЗ в марте опубликовала доклад, в котором требует при разработке тестировать алгоритмы ИИ на эйджизм — дискриминацию людей по возрасту.
Еще одно распространенное опасение — что искусственный интеллект и роботы вытеснят людей из многих профессий. Футуролог Герд Леонгард считает, что неконтролируемое развитие технологий приведет к обесцениванию человеческого труда, потребностей и эмоций. Дарон Асемоглу, профессор Массачусетского технологического института, предупреждает: если технологии не ограничивать, тотальный кризис в экономике неизбежен.
Наконец, пугает сама скорость развития ИИ. В 2021 году ученые из Института Макса Планка пришли к выводу, что при таких темпах развития технологий мы скоро просто утратим над ними контроль.
Впрочем, представители компаний, которые работают с ИИ, не согласны с мрачными прогнозами. Они уверены, что искусственный интеллект сам по себе не опасен и не нуждается в жестком регулировании. Угрозу несет не технология, а люди, которые могут использовать ее неумело или неправильно.
Александр Ханин, генеральный директор МТС AI:
Для того чтобы общество правильно понимало специфику работы ИИ-разработчиков, нужна отдельная программа просвещения. Так у рядовых потребителей появится правильное понимание. Более того, необходим диалог лидеров отрасли, правительства и граждан на тему того, как этично и безопасно применять ИИ в различных сферах (...). Также компании-разработчики должны сотрудничать с экспертами по кибербезопасности. Возьмем, к примеру, применение биометрии в московском метрополитене. Прежде чем запустить технологию в тестовом режиме, команда VisionLabs в течение долгого времени консультировалась и совместно тестировала систему с лучшими специалистами в сфере безопасности.
В октябре 2021 года Аналитический центр при Правительстве России, Минэкономразвития, Альянс в сфере ИИ (Сбер, МТС, VK, «Газпром нефть», «Яндекс», Российский фонд прямых инвестиций) и другие крупные компании и научно-исследовательские центры подписали Кодекс этики ИИ. Тут Россия тоже соответствует общемировым тенденциям.
Андрей Незнамов, управляющий директор Центра регулирования искусственного интеллекта Сбербанка:
Сегодня в мире принято более 100 самостоятельных документов в сфере этики ИИ на самых разных уровнях — от локальных корпоративных до международных. В центре всех принятых сегодня этических документов стоит человек, создание условий для его благополучия, защита прав и законных интересов, обеспечение безопасности при взаимодействии с технологиями ИИ.
Впрочем, некоторые эксперты считают, что понятие «этика» не стоит применять к искусственному интеллекту:
Игорь Пивоваров, организатор конференции OpenTalks.AI, главный аналитик Центра искусственного интеллекта МФТИ:
«Этика ИИ» — это пока что бессмысленное словосочетание. Этика — это философская дисциплина, которая изучает морально-нравственные аспекты человеческих поступков. Но это относится только к тем субъектам, которые принимают решения. ИИ сегодня не может принимать решения самостоятельно, поэтому и понятие этики к нему неприменимо. Пока что мы можем говорить только об этике разработчиков ИИ-технологий и тех, кто их применяет. Есть области применения ИИ, где от неверного решения может зависеть человеческая жизнь. Например, когда нейросети используют для анализа снимков КТ. Здесь все действуют предельно осторожно и тщательно проверяют данные и алгоритмы. В других же областях вопросы этики неочевидны. Но в ближайшем будущем нам придется обратить на них больше внимания.
Границы на замке: как регулируют ИИ в разных странах
Согласно Индексу ИИ-2022, больше всего законопроектов в области ИИ за год было принято в Испании, Великобритании и США — по три закона в каждой стране.
В ЕС с 2018 года действует регламент GDPR. Он касается защиты персональных данных и запрещает использование многих алгоритмов для сбора, анализа данных и распознавания лиц без прямого согласия пользователей. В 2018-м опубликованы Европейская стратегия в области искусственного интеллекта и Скоординированный план реализации европейской стратегии в области ИИ. В 2019 году — Руководящие принципы этичного ИИ, а в 2020-м — Оценочный лист для надежного ИИ.
Еврокомиссия предложила ограничить использование инструментов ИИ с «высокими рисками» для общества. К ним отнесли технологии, касающиеся жизни и здоровья людей, а также те, которые могут манипулировать их поведением и влиять на важные решения (например, прием на работу или оценку показаний в суде). Исключение делается только для военных, служб безопасности, поиска пропавших людей или преступников.
В Великобритании опубликовали национальный стандарт алгоритмической прозрачности. Теперь все госорганы обязаны информировать граждан о том, используют ли они ИИ для принятия решений.
В США пока нет общих регламентов. Два года назад Белый дом опубликовал документ, описывающий принципы, на которых может строиться государственное регулирование в сфере ИИ. В штатах Калифорния и Орегон использовать систему распознавания лиц запрещено как полиции, так и другим госорганам. С 2020 года это пытаются запретить и в других штатах. Предпринимаются также попытки ограничить использование данных о геолокации смартфонов. В то же время самые большие массивы персональных данных и самые неограниченные возможности ими пользоваться — в том числе с применением ИИ-технологий — в руках таких ИТ-корпораций, как Google, Apple, Amazon и Facebook (признан в России экстремистской организацией). И они чаще всего диктуют свои правила другим участникам рынка и пользователям.
В Китае, где власти бесконтрольно используют инструменты ИИ для социального мониторинга, все же вводятся некоторые ограничительные меры. С 2022 года все местные компании, использующие рекомендательные алгоритмы, — это прежде всего ИТ-гиганты Alibaba (владеет AliExpress), Tencent (владеет WeChat), ByteDance (владеет TikTok) — обязаны предоставлять пользователям возможность отклонять то, что советует им ИИ.
В России сами системы распознавания лиц и другие ИИ-решения пока не регулируются, но действует Закон о защите персональных данных. Кроме того, некоторые правила и ограничения для этой сферы внедряются в рамках нацпроекта «Цифровая экономика». Действующая с 2019 года Национальная стратегия развития искусственного интеллекта предусматривает специальные правовые режимы для тестирования инновационных технологий.
Александр Ханин:
Лидеры отрасли и власти должны уже сейчас прогнозировать будущее развитие отношений искусственного интеллекта и человека. Более того, уже широко известны кейсы, когда возникал общественный диалог вокруг корректности работы алгоритмов искусственного интеллекта. Поэтому текущие законодательные инициативы в ряде стран являются логичной и своевременной реакцией на стремительное развитие ИИ.
Андрей Незнамов:
Мир действительно последовательно идет к этапу формирования регулирования в сфере ИИ. К 2022 году уже сложились основные ориентиры в управлении ИИ, стали понятны взгляды на проблему самых разных стейкхолдеров. Ведущие страны мира признали важность ИИ для развития экономического и стратегического потенциала, и более 40 государств уже утвердили национальные стратегии развития ИИ, в том числе США, КНР, Франция, ОАЭ. Но все это произошло в последние пять-десять лет.
Как нам обуздать искусственный интеллект?
С одной стороны, любые ограничения в области ИИ существенно тормозят развитие этой технологии — мы пока не можем пользоваться ни беспилотными автомобилями, ни медицинскими препаратами, созданными персонально для каждого пациента. С другой стороны, необходимость в регулировании в сфере ИИ очевидна. Исследователи из Института Макса Планка, основываясь на теоретических расчетах, вывели два пути для такого регулирования:
1. Сдерживание, то есть ограничение доступа сверхсильного ИИ к интернету и свободному обмену данными. Это можно сделать, оградив его от других устройств и интернет-ресурсов и запрограммировав в нем этические ограничения, которые есть у человека. Это бы позволило ИИ не достигнуть критической мощности и нацелить его, прежде всего, на решение гуманитарных и этически оправданных задач. Правда, возможности такого ИИ будут существенно ограничены: во-первых, даже у самых развитых гуманистических идей есть свои пределы и спорные моменты, а во-вторых, без свободного доступа к данным в режиме онлайн ИИ не сможет эффективно обучаться и принимать наиболее объективные решения.
2. Создание специальных алгоритмов, которые удержат ИИ от причинения вреда человеку. К сожалению, на этом пути могут возникать серьезные ошибки: такой алгоритм может ограничивать не только ИИ, но и самого себя. При текущем уровне знаний алгоритм пока невозможно разработать, так как невозможно смоделировать и сам ИИ, который бы превосходил человеческий.
Игорь Пивоваров:
Регулирование сверху невозможно: просто нет компетентных органов. Поэтому регулирование снизу сегодня гораздо важнее. К примеру, в «Яндексе» есть наблюдательный совет, куда вошли авторитетные представители индустрии. Его цель — рассказывать о том, как работают технологии компании, для чего они используются. Это — пример правильной и открытой коммуникации бизнеса с обществом.
Александр Ханин:
Попытки законодательного регулирования работы ИИ могут только затормозить развитие этой сферы. Здесь важнее работать над уменьшением числа случаев нарушения уже существующих правил и законов.
Рынок способен вполне самостоятельно устанавливать границы развития этой области, ставя в приоритет человека, а не технологию. Да, никто не спорит: в ряде случаев ИИ решает многие задачи лучше людей. Однако до «сильного» ИИ действительно далеко, а имитации мозга, который превзойдет человека, и вовсе не стоит бояться. Все алгоритмы подчинены человеку.
Андрей Незнамов:
Настало время конкретных шагов по переходу от стратегических документов к созданию конкретных нормативных актов для сферы ИИ. Но эти шаги будут постепенными. Обратите внимание, что говорят про регулирование ИИ уже несколько лет, но конкретных актов пока единицы. Это связано с тем, что часто ИИ уже регулируется отраслевым законодательством на общих основаниях. Зато там, где специфика ИИ или сервисов на их основе понятна, акты принимаются, и довольно быстро. Например, сфера транспорта или здравоохранения.
Оптимальным для ИИ должен стать путь сочетания государственного регулирования, технического регулирования и саморегулирования. Причем основой является именно «мягкое» регулирование, когда самими компаниями — разработчиками ИИ создаются различные этические документы (рекомендации, кодексы). Это мнение основано на логике, что обеспечение доверия граждан, клиентов, в первую очередь, — в интересах самого бизнеса.
Теперь необходимо создать механизмы исполнения положений этих этических документов.
Автор: Ася Зуйкова