Новости ФПА РФ

Искусственный интеллект не должен подменять человека, дискриминировать и унижать его достоинство

16 сентября 2021 г.

Новости ФПА РФ
16 сентября в Совете Федерации прошел круглый стол на тему «Этико-правовые проблемы цифровой трансформации»

Круглый стол в режиме видео-конференц-связи был организован Комитетом Совета Федерации по конституционному законодательству и государственному строительству (далее – Комитет) совместно с Советом по развитию цифровой экономики при Совете Федерации. Провела мероприятие первый заместитель председателя Комитета Ирина Рукавишникова, которая предложила дать старт широкой дискуссии для координации усилий законодателей и правоприменителей в области развития цифровых технологий и искусственного интеллекта.

Открывая круглый стол, Ирина Рукавишникова сказала, что он проводится с целью уделить самое пристальное внимание развитию цифровых технологий и в связи с обращением Правительства РФ, ответственного за реализацию Национальной стратегии использования искусственного интеллекта на период до 2030 г.

Проблема использования искусственного интеллекта (далее – ИИ) становится все более актуальной с каждым днем в связи с применением новых цифровых технологий как у нас в стране, так и за рубежом, заметила сенатор, в частности, уже в ближайшее время может быть разрешена биометрическая идентификация, необходимая для поиска пропавших, розыска террористов и преступников.

Проект Национального кодекса этики в сфере искусственного интеллекта, по словам Ирины Рукавишниковой, должен регулировать деятельность лиц, работающих с ИИ. Это будет рекомендательный документ, но при несоблюдении этических норм предполагается широкая общественная реакция на любые возможные нарушения. Впрочем, законодателям нужно идти дальше и думать о разработке нормативных документов, которые будут регулировать такую деятельность. Сенатор заявила о необходимости дать старт широкой дискуссии для координации усилий законодателей и правоприменителей в сфере развития цифровых технологий.

Заместитель руководителя Аналитического центра при Правительстве РФ – руководитель Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Сергей Наквасин и директор Департамента стратегического развития и инноваций Министерства экономического развития РФ Рустам Тихонов представили проект Национального кодекса этики в сфере искусственного интеллекта (далее – Национальный кодекс). Они сообщили, что данный кодекс должен очерчивать рамки работы ИИ и его следует учитывать разработчики и пользователи программ, осознающие свою ответственность по соблюдению прав и законных интересов граждан, которые могут быть затронуты при работе с ИИ.

Директор по развитию технологий искусственного интеллекта ООО «Яндекс» Александр Крайнов рассказал, почему компании, занимающиеся разработкой ИИ, озаботились этическими вопросами использования новых технологий, далеко не все из которых поддаются регулированию законодательством. Он заверил, что «ИИ не будет использоваться во вред людям», но заметил, что далеко не все программные разработки в области цифровых технологий могут быть отнесены к ИИ.

Представитель Сбера Андрей Ненашев напомнил, что первые этические законы робоэтики были сформулированы тогда же, когда появились первые роботы. Сейчас в мире уже больше 1000 этических документов, причем на смену корпоративных документов пришли государственные нормативно-правовые акты. Однако это, как правило, нормы «мягкого права». Сейчас речь идет уже о наднациональных правилах развития ИИ, с учетом которых разрабатывается Национальный кодекс в России.

После короткой презентации Национального кодекса в дискуссию вступили эксперты, которые высказали свои суждения о возможности нормативного регулирования деятельности ИИ, учитывающего его особенности и даже непредсказуемость. Регулирование не должно быть избыточным, в то же время ИИ должен функционировать в рамках Гражданского и других кодексов РФ.

Заместитель министра здравоохранения РФ Павел Пугачев информировал о больших ожиданиях медиков, рассчитывающих на то, что ИИ будет все шире использоваться в аппаратной диагностике сложных заболеваний. Однако ответственность за конечное решение все равно будет принимать доктор, поэтому следует перекладывать ответственность на даже самые передовые технологии.

Референт Управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Софья Захарова предупредила о необходимости «мирного сосуществования» человека с современными технологиями. «Уже сейчас мы должны задумываться о своем будущем и определить, чего ИИ не должен делать – не подменять человека, не дискриминировать его, не навязываться, не причинять вред и не унижать достоинство человека, – констатировала Софья Захарова. – Кодекс – это начальный путь к осмыслению морального и этического будущего ИИ».

Аналогичной позиции придерживаются и другие эксперты. По их мнению, гражданина, как минимум, должны информировать об использовании в отношении него системы ИИ. И в ряде случаев он может от этого отказаться. Тем более что сейчас программы ИИ допускают как минимум 5% ошибок.

Звучали и критические замечания в адрес Национального кодекса, суть которых сводилась к невозможности корпоративного этического регулирования на современном этапе, когда настало время для пусть мягкого, но все же государственного регулирования ИИ. Юристы также говорили о необходимости хотя бы начального правового регулирования, поскольку Национальный кодекс отражает прежде всего корпоративные интересы, но не учитывает интересы личности и государства.

«Мы понимаем, что новые технологии могут нести как пользу, так и вред, и что человек должен иметь выбор, пользоваться ли ему услугами ИИ или предпочесть естественный интеллект. Однако это не всегда возможно, например, при медицинской диагностике, и нам следует учитывать данный нюанс», – резюмировала Ирина Рукавишникова.

В дискуссии также приняли участие представители ряда федеральных министерств и ведомств, Генпрокуратуры России, Минюста России, научных учреждений, вузов и экспертного сообщества.

Константин Катанян