ОТКАЗ ПРИСУДИТЬ ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ ПРАВОСПОСОБНОСТЬ: ПОЧЕМУ ЕВРОПАРЛАМЕНТ МОГ ОШИБИТЬСЯ? (ЧАСТЬ 1)

Ситуацию комментирует эксперт в области международного права, юрист ЗАО "Сибирское правовое агентство" - Георгий Мороз.
Читайте каждую неделю авторские статьи от ведущих специалистов юридической отрасли, а также, подписывайтесь на нас в социальных сетях: Vkontakte, Facebook, Twitter, Instagram, Telegram. Оставляйте свои комментарии и вопросы, следите за новостями, а также участвуйте в конкурсах от ЗАО "Сибирское правовое агентство".

ОТКАЗ ПРИСУДИТЬ ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ ПРАВОСПОСОБНОСТЬ: ПОЧЕМУ ЕВРОПАРЛАМЕНТ МОГ ОШИБИТЬСЯ? (ЧАСТЬ 1)

В октябре 2020 года Европейский парламент принял три резолюции по этическим и правовым аспектам программных систем искусственного интеллекта (ИИ): Резолюция 2020/2012 «о рамках этических аспектов искусственного интеллекта, робототехники и связанных с ними технологий», Резолюция 2020/2014 «о режиме гражданской ответственности, касающейся искусственного интеллекта» и Резолюция 2020/2015 «о правах интеллектуальной собственности на разработку технологий искусственного интеллекта».

Все три резолюции признают, что ИИ принесет значительные выгоды в ряде областей (бизнес, рынок труда, общественный транспорт, сектор здравоохранения). Однако, как указано в резолюции «по этическим аспектам ИИ», «существуют опасения, что нынешняя правовая база ЕС, включая закон «О защите прав потребителей» и трудовые и социальные нормы, законодательство «о защите данных» больше не будет соответствовать целям эффективного противодействия рискам, создаваемым искусственным интеллектом, робототехникой и связанными с ними технологиями».

Все три резолюции указывают на то, что программные системы с имеющимся у них ИИ не могут претендовать на получение правоспособности. На наш взгляд, решения всех трех резолюций - ошибочны, и нет понимая того, насколько важно дать ИИ правоспособность, в силу роста использования ИИ, а также, в силу необходимой подготовки законодательной базы к стремительным темпам роста использования технологий.

Если парламент достиг всех необходимых смысловых заключений, то почему он так категорически выступает против нового законодательства, предоставляющего правоспособность ИИ?

1)    Подход Парламента

Резолюции парламента особенно важны, поскольку они не только определяют секторы, наиболее подверженные воздействию ИИ, и определяют потенциальные проблемы, но и содержат конкретные предложения по законодательному урегулированию вопросов. Парламент просит разработать новую «нормативную базу для ИИ», которая также будет учитывать этические принципы. Хотя здесь невозможно обобщить его подробные предложения, возможно, наиболее примечательно то, что Парламент предлагает провести различие между “разработчиками и пользователями” ИИ, чтобы ввести правовые обязательства и этические принципы разработки и использования ИИ в полном соответствии с законодательством; применять к регулированию работы ИИ принципы необходимости и соразмерности; расширять и конкретизировать правовую базу ЕС в области конфиденциальности и защиты данных с учетом работы ИИ; решать вопрос об ответственности в случаях вреда или ущерба, причиненного ИИ, путем конкретных и скоординированных режимов ответственности государств-членов; а также оценивать влияние ИИ в рамках существующих систем патентного права, охраны товарных знаков и образцов, авторского права и смежных прав, а также защиты коммерческой тайны.

Тем не менее, Парламент четко заявляет, что «любые необходимые изменения в существующей правовой базе должны начинаться с разъяснения того, что ИИ-системы не обладают ни правосубъектностью, ни человеческим сознанием и что их единственная задача - служить человечеству» (резолюция о гражданской ответственности, Приложение, (6)). Поэтому, Парламент делает выбор в пользу новой нормативной базы, которая, фактически, представляет собой поправку через специальные дополнения к действующей в настоящее время; его “новая” нормативная база является новой только по названию. Хотя парламент признает новые условия и вызовы, создаваемые ИИ, он желает решить их с помощью существующих правовых инструментов: например, путем внесения поправок в систему защиты персональных данных, систему гражданской ответственности или патентное законодательство, с тем, чтобы решить конкретные вопросы, связанные с ИИ. Старый закон нуждается в совершенствовании, чтобы охватить новые моменты, связанные с ИИ; новый закон в форме нормативной базы, предоставляющей ИИ правосубъектность, прямо отвергается Парламентом.

2)    Три точки зрения, не поддерживаемых Парламентом:

а) Ответственность усиливается, а не уменьшается за счет предоставления ИИ правосубъектности.

Парламент отмечает, что «все физические или виртуальные действия, устройства или процессы, которые управляются системами искусственного интеллекта, технически могут быть прямой или косвенной причиной вреда или ущерба, но почти всегда являются результатом того, что кто-то создает или вмешивается в работу этих систем; отмечает в этой связи, что нет необходимости придавать правосубъектность системам искусственного интеллекта»; придерживается мнения, что непрозрачность, связность и автономность систем ИИ могут сделать на практике очень трудной или даже невозможной необходимость проследить конкретные вредные действия систем ИИ до конкретного вклада человека или до решений при проектировании» (резолюция о гражданской ответственности (7)).

Вопрос об ответственности является одним из аргументов парламента против наделения ИИ правосубъектностью. Однако, мы считаем, что такая ответственность ошибочна, если рассматривать ее с точки зрения ее «конечных пользователей» (физических лиц/субъектов данных/потребителей). Именно потому, что ИИ проникнет во всю человеческую деятельность, неотличимую от любой технологии и встроенную во все наши повседневные системы принятия решений, будет невозможно «проследить конкретные вредные действия ИИ» до конкретного «кого-то». Любая установка ИИ, скорее всего, будет включать в себя ряд (трансграничных) сложных соглашений между многими разработчиками и пользователями, прежде чем она достигнет конечного пользователя. Идентификация «кого-то», несущего ответственность в рамках этой международной схемы, будет чрезвычайно трудной для конечного пользователя без (дорогостоящей) помощи юридических и технических экспертов. Напротив, конечным пользователям было бы лучше обслуживаться через отношения «один на один», при которых эффект ИИ, влияющий на них, явно вызван конкретной сущностью; только наделение ИИ правосубъектностью может гарантировать, что это будет идентифицируемым лицом, а не цепочка непрозрачных многонациональных организаций, скрывающихся за сложными соглашениями о лицензировании и разработке.

б) Человеческое сознание не является обязательным условием для правосубъектности.

Как отмечалось выше, парламент непреклонен в том, что «любые необходимые изменения в существующей правовой базе должны начинаться с разъяснения того, что системы искусственного интеллекта не обладают ни правосубъектностью, ни человеческим сознанием» (Резолюция о гражданской ответственности, приложение, 

(6). Если цель этой формулировки - связать человеческое сознание с правосубъектностью, то она ошибочна: юридическим лицам (корпорациям, организациям, ассоциациям и т. д.) явно не хватает «человеческого сознания». Это не помешало нам, в любом случае, наделить их правосубъектностью. Хотя, может наступить день, когда ИИ, возможно, обретет человеческое сознание, будет действовать автономно или разовьет любую другую человеческую черту, которую только можно вообразить, эта дискуссия вводит нас в заблуждение, поскольку она удерживает нас в стороне от решения проблемы: наделения ИИ правосубъектностью, аналогичной правосубъектности юридических лиц. Как это происходит сегодня с людьми, управляющими корпорациями, это снова будут люди, управляющие ИИ.

в) Стимул для людей-творцов не должен стоять на пути предоставления искусственному интеллекту прав на интеллектуальную собственность.

Парламент отмечает, что автономизация творческого процесса создания контента художественного характера может вызвать вопросы, связанные с правом на интеллектуальную собственность. Парламент считает, что было бы нецелесообразно стремиться придавать правосубъектность технологиям ИИ, когда это может негативно повлиять на стимул для людей-творцов.

Тем не менее, технологии идут вперед, и ИИ способен обособленно, сам действовать в рамках создания чего-то нового. Это «новое» может выглядеть чем-то хорошим для создателей ИИ, а также и чем-то плохим, с чем они никак не хотят себя ассоциировать. Следовательно, персонификации ИИ с конкретными личностями не всегда желательно для самих личностей.

Продолжение во второй части статьи... 

Возврат к списку