книги2 / 17
.pdfна необходимости создания правового базиса для совершенно новых правовых отношений между человеком и искусственно созданным носителем сознания.
Введение в научный оборот понятия «электронное лицо» обусловлено прежде всего спецификой принципиально нового субъекта права. Данное поня-
тие призвано отразить его сущность и правовую специфику. При этом можно ориентироваться на понятийный ряд «электронное лицо» — «искусственный интеллект» («электронный индивид») — «робот». Причем искусственный ин-
теллект, носителями которого являются удовлетворяющие определенным кри-
териям роботы, необходимо рассматривать как базовую составляющую элек-
тронного лица. Поэтому прежде всего целесообразно обратиться к такой кате-
гории, как «искусственный интеллект».
В 1956 г. на конференции в Дартмутском университете Дж. Маккарти определил искусственный интеллект, с одной стороны, как науку и технику со-
здания интеллектуальных машин, а с другой — как умение компьютера делать то, что умеют делать люди, т.е. то, что связано с интеллектом.
Ученые Российской ассоциации искусственного интеллекта определяют данный термин как свойство интеллектуальных систем выполнять функции
(творческие), которые традиционно считаются прерогативой человека.
При этом интеллектуальная система — это техническая или программная си-
стема, способная решать задачи, традиционно считающиеся творческими, при-
надлежащие конкретной предметной области, знания о которой хранятся в па-
мяти такой системы.
Можно сделать вывод, что искусственный интеллект — это результат че-
ловеческой деятельности, представляющий собой сложную совокупность ком-
муникационных и технологических взаимосвязей, обладающую способностью логически мыслить, управлять своими действиями и корректировать свои ре-
шения в случае изменения внешних условий.
На сегодняшний день существует два основных подхода к разработке ис-
кусственного интеллекта. Семиотический подход ориентирован на создание экспертных систем, баз знаний и систем логического вывода, которые имити-
121
руют высокоуровневые психические процессы, такие как мышление, рассужде-
ние, речь, творчество и т.д. Биологический подход предполагает изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуаль-
ное поведение на основе биологических элементов, а также создание соответ-
ствующих вычислительных комплексов, таких как нейрокомпьютер или био-
компьютер.
Следует отметить, что нейронные сети основаны на нейронной активности и строятся по принципу организации и функционирования сетей нервных кле-
ток живого организма. Вид нейронной передачи, характеризующийся прохож-
дением положительно заряженных ионов через клеточные мембраны, встреча-
ется даже в самых простейших живых организмах — бактериях, в то время как функционирование современных видов искусственного интеллекта, базирую-
щихся на нейронных сетях, подчиняется движению отрицательно заряженных ионов. Российскими учеными была разработана система Smart Tag, в основе ко-
торой лежит алгоритм распознавания речи, функционирующий на основе нейронных сетей. Новая технология прослушивает и расшифровывает беседы с клиентами, анализирует вопросы, лексику и структуру разговора и сопостав-
ляет количество обращений в связи с проводимыми рекламными кампаниями,
что позволяет выявить степень их эффективности.
Следовательно, доказана, по крайней мере с позиций нейробиологии, воз-
можность существования принципиально нового механизма бытия, что под-
тверждает актуальность постановки вопроса о правосубъектности искусствен-
ного интеллекта.
Искусственный интеллект в широком смысле может быть уподоблен чело-
веческому с точки зрения как его биологической конструкции, так и полноцен-
ной способности к творчеству, субъективности восприятия, возможности от-
клонения или ошибки, которая считается естественной, поскольку такой интел-
лект часто сталкивается с абсолютно незнакомыми задачами, в процессе реше-
ния которых велика вероятность ошибки или отклонения. А в узком смысле ис-
122
кусственный интеллект может трактоваться как способность анализировать ин-
формацию, творить в области, ограниченной конкретными целями и задачами.
В рамках как широкого, так и узкого понимания искусственного интел-
лекта весьма интересным представляется вопрос, будет ли абсолютная форма-
лизация искусственного интеллекта коррелировать с интеллектом человека,
мышление которого не всегда логично, может быть парадоксальным, эмоцио-
нальным.
Сложность определения индивидуальности в искусственном интеллекте связана с проблемой «философского зомби» как системы, которая будет до-
статочно реалистично имитировать человеческое общение, но в то же время не обладать самосознанием и самоидентификацией. В данном контексте инте-
ресно предположение главы Института этики и новых технологий Д. Хьюза о том, что самосознание электронных лиц может проявиться одновременно с наделением их минимальными личностными правами, такими как право быть свободным, право на собственные интересы в жизни, право на рост и са-
мосовершенствование.
Решением вопроса о критериях самоидентификации и самосознания может стать анализ внутренней сложности искусственного интеллекта, предложенный в теории Дж. Тонони, в рамках которой сознание понимается как интегриро-
ванная информация, создаваемая посредством комплекса элементов, превосхо-
дящих по объему сумму сведений, формируемых отдельными элементами ис-
следуемого объекта.
Тема правосубъектности (и в частности ответственности) искусственного интеллекта, на наш взгляд, более чем заслуживает научного осмысления. Ос-
новной правовой проблемой использования таких систем уже на данном этапе является проблема определения юридической ответственности за наступление вредных последствий в результате действий искусственного интеллекта. При-
чем если ошибка юнита искусственного интеллекта, используемого при управ-
лении организацией либо при оказании информационных услуг, может быть сравнительно легко отслежена и исправлена и может не иметь глобальных
123
негативных последствий, то, например, совершение ошибки таким юнитом при принятии решения в рамках государственного управления может нанести очень значительный вред публичным интересам.
В силу того что юниты искусственного интеллекта по мере развития тех-
нологий становятся все более сложными и получают большее распространение,
все менее однозначной становится одна из фундаментальных концепций, со-
гласно которой конечным субъектом принятия любого решения является чело-
век, что, в свою очередь, поднимает проблему определения юридической ответ-
ственности.
Пояснительная записка Секретариата Комиссии ООН по праву междуна-
родной торговли об использовании электронных средств связи в международ-
ных соглашениях гласит, что лицо (как физическое, так и юридическое),
от имени которого компьютер был запрограммирован, должно нести ответ-
ственность за любое сообщение, сгенерированное машиной (ст. 12).
Джон Байерс отмечает, что до относительно недавнего времени проблема определения ответственности за действия машины разрешалась однозначно и традиционно: такая машина должна была рассматриваться исключительно как инструмент лица, обладающего или управляющего ей. Не возникало вопро-
са о личной ответственности такой машины или ее правосубъектности, по-
скольку машины не были способны осуществлять автономную или полуавто-
номную деятельность.
В настоящее же время следующие ключевые характеристики юнитов ис-
кусственного интеллекта актуализируют проблему определения их правосубъ-
ектности и способности нести юридическую ответственность за свои действия:
-автономность и самоорганизация;
-способность к обучению и самообучению;
-способность к разумному мышлению и поведению.
Их сочетание приводит к вероятности совершения действий, не преду-
смотренных производителем или программистом изначально.
124
При этом также имеет значение возможный диапазон таких непредвиден-
ных действий.
Риски, касающиеся безопасности роботов нового поколения, обоснованно
подразделить на две категории:
-риски, происходящие из стандартов производства таких роботов (по-
добные риски поддаются управлению с помощью нормативно-правового
инормативного технического регулирования, посредством процессов оценки
ипланирования);
-риски, исходящие из автономной деятельности роботов (так, автоном-
ная деятельность роботов нового поколения делает связанные с их деятельно-
стью риски сложными, изменчивыми и непредсказуемыми и, следовательно,
требует совершенно иного подхода к оценке рисков).
Возрастающее использование юнитов искусственного интеллекта перено-
сит ответственность за их безопасное функционирование с оператора на разра-
ботчика, со всеми вытекающими из этого нравственно-этическими и юридиче-
скими последствиями. Поэтому, по мнению Королевской инженерной академии наук Великобритании, возможно, необходимо установление требований к свое-
го рода лицензированию для осуществления деятельности в этой сфере, в част-
ности, требований, касающихся изучения нравственно-этических принципов в этой области.
Для подобных целей Королевская инженерная академия наук Великобри-
тании выпустила руководство «Инженерная этика на практике: руководство для инженеров».
В случае если презюмировать, что юнит (агент, система) искусственного интеллекта не в состоянии самостоятельно непосредственно нести ответствен-
ность за свои действия, что он не может обладать правосубъектностью, то воз-
никает иная проблема, связанная с определением надлежащего субъекта ответ-
ственности, поскольку круг лиц, участвующих в регулировании и администри-
ровании поведения юнита искусственного интеллекта, слишком широк, к нему могут быть отнесены владельцы, операторы, проектировщики. Если же предпо-
125
лагать возможность разделения ответственности между ними, то возникает проблема определения и распределения степени вины таких лиц, в особенности если говорить не о тех ситуациях, когда кто-либо из них намеренно программи-
рует робота на причинение смерти человеку, а о тех ситуациях, когда затрудни-
тельно доказать намерение конкретного лица причинить вред, доказать, что это лицо знало о том, что вред может быть причинен.
Традиционным решением может стать так называемый институт строгой ответственности, предполагающий привлечение к ответственности без вины,
но, как отмечает Джек Балкин, это, во-первых, может «задушить» инновации в этой сфере, а во-вторых, может быть не вполне корректным с точки зрения уголовного права.
Некоторые сбои в работе юнитов искусственного интеллекта могут быть опасными для отдельных человеческих индивидов и общества и приводить к причинению ущерба. Габриэль Халлеви приводит в качестве примера следу-
ющую ситуацию: на программный комплекс, оснащенный искусственным ин-
теллектом, предназначенный для тюремной охраны, возложены функции по предотвращению побегов из тюрьмы с минимизацией применения силы, ко-
торая может нанести ущерб беглым заключенным. Для выполнения этой задачи такой программный комплекс может использовать силу с помощью физических роботов (киберфизических систем) и иных систем. В какой-то момент заклю-
ченный предпринимает попытку побега. Программный комплекс эту попытку обнаруживает и отправляет физически осязаемого робота для решения пробле-
мы. В данном случае не имеет значения, является ли этот робот частью про-
граммного комплекса с искусственным интеллектом или же он обладает соб-
ственным искусственным интеллектом. Отправленный для решения проблемы робот предотвращает попытку побега, крепко схватив заключенного. В резуль-
тате этот заключенный пострадал и заявляет о злоупотреблении физической силой. Анализ действий робота показывает, что хотя он и мог выбрать более мягкую меру воздействия, он все же выбрал определенное пагубное действие.
Причиной этому служило то, что робот значительно переоценил риски.
126
Следовательно, правовой вопрос в такой ситуации заключается в опреде-
лении того, кто именно несет юридическую ответственность за причинение вреда здоровью заключенного.
На настоящем этапе развития технологий неизвестно, насколько простым будет разрешение споров, касающихся привлечения к ответственности за дей-
ствия юнита искусственного интеллекта, в досудебном порядке, по сравнению со спорами, связанными с других технологиями. В частности, сложность этих новых технологий и некоторых типов взаимодействия между человеком и ма-
шиной может негативно влиять на шансы сторон достигнуть компромисса.
Институт инженеров электротехники и электроники (международная об-
щественная организация) предлагает следующие принципы применения и раз-
работки юнитов искусственного интеллекта:
-обеспечение идентификации всех искусственных агентов (юнитов ис-
кусственного интеллекта) для обеспечения юридической подотчетности их дея-
тельности;
-законодателям и правоохранительным органам необходим об обеспе-
чить, чтобы использование юнитов искусственного интеллекта не было объек-
том злоупотреблений для избежания ответственности;
- установление обязанности компаний, использующих и производящих юнитов искусственного интеллекта, устанавливать письменные формализован-
ные правила, четко регулирующие использование таких систем, в частности относительно того, кто и как вправе их использовать, определять требования к квалификации.
Эти принципы могут применяться с учетом сложностей определения надлежащего субъекта юридической ответственности.
Выделяют следующие основные модели определения ответственности
(в том числе уголовной) за действия юнита искусственного интеллекта, по-
влекшие за собой наступление вредных последствий:
127
-модель, в рамках которой юнит искусственного интеллекта рассматри-
вается как принципиально невиновный («безвинный») агент, инструмент ре-
ального исполнителя правонарушения;
-так называемая «модель естественных вероятных последствий», кото-
рая предполагает, что юнит искусственного интеллекта реализует действия, яв-
ляющиеся естественным, логически закономерным и вероятным последствием его программирования; и в рамках этой модели предусматривается, что лицо,
программировавшее машину, проявило преступную небрежность;
-модель прямой ответственности непосредственно самого юнита искус-
ственного интеллекта за его действия.
Очевидно, что принятие и реализация этих моделей предполагают приме-
нение различных законодательных подходов и мер.
Потенциальная возможность существования правовых отношений между физическими и электронными лицами обусловливает необходимость разработ-
ки регулирующих их норм права.
Определенные предпосылки для наделения электронных лиц правами бы-
ли заложены в прецедентах, где в качестве субъектов права рассматривались существа, не принадлежащие к человеческому виду. Так, в Новой Зеландии за-
конодательно установлено, что животные считаются разумными существами.
В США и ряде других стран защита от заточения, экспериментов и жестокого обращения распространяется на отдельные виды животных, включая человеко-
образных приматов, слонов, китов и дельфинов, причем акцент делается имен-
но на защите их «индивидуальности» и «личности», для которой характерны определенные когнитивные способности, в том числе самосознание.
Действующее российское законодательство предусматривает наказание за жестокое обращение с животными (ст. 245 Уголовного кодекса РФ). А воз-
врат найденного безнадзорного животного прежнему хозяину в соответствии с ч. 2 ст. 231 части первой Гражданского кодекса РФ осуществляется с непре-
менным учетом привязанности самого животного, что в принципе исключает определение животного как вещи.
128
Несмотря на различия в философских подходах, российские и зарубежные
сторонники законодательного наделения животных правами единодушны
в том, что животные не должны рассматриваться как объекты частной соб-
ственности и могут приобретать права как «субъекты жизни».
Такие рассуждения, на наш взгляд, полезны с точки зрения аналогии к сфере искусственного интеллекта, но это не означает последовательного раз-
вития правовой мысли по данной тематике. К проблемам искусственного ин-
теллекта, вероятно, применима концепция «правового взрыва», описанная,
в частности, в трудах Д. Бартона, М.А. Беляева и др. Под правовым взрывом исследователи понимают неконтролируемое «размножение» правовых текстов,
в итоге отрицательно влияющее и на эффективность, и на легитимность,
и на справедливость права. Именно до наступления такого «взрыва» необходи-
мо обсудить вопрос о наделении электронных лиц правами, свободами и защи-
той, возможно, эквивалентными или в определенной мере связанными с права-
ми, свободами и защитой, предоставляемыми человеку.
Анализ зарубежного опыта в данной сфере позволил выявить первый пре-
цедент защиты прав роботов — создание в 1999 г. в США Американского об-
щества за предотвращение жестокости по отношению к роботам (ASPCR), мис-
сия которого состоит в том, чтобы гарантировать право на существование, не-
зависимость и стремление к знаниям всех искусственно созданных разумных существ, широко известных как «роботы».
В проекте упоминавшегося ранее доклада о присвоении роботам статуса
«электронных лиц» было предложено ввести так называемую объективную от-
ветственность в сфере робототехники, т.е. ответственность без наличия вины,
либо отдать предпочтение «управлению рисками», когда ответственность воз-
лагается на то лицо, которое было обязано минимизировать риски, причем от-
ветственность должна быть пропорциональна уровню данных роботу инструк-
ций и степени его автономии. Положения об ответственности могут также предусматривать обязательное страхование для пользователей роботов. В янва-
ре 2017 г. Комитет Европейского парламента по правовым вопросам предста-
129
вил доклад, содержащий предложение включить в законодательство ЕС поня-
тие «умный робот» и разработать систему регистрации таких роботов.
Примером такого «умного» аппарата является София — человекоподоб-
ный робот (гиноид), разработанный гонконгской компанией Hanson Robotics.
Она была спроектирована таким образом, чтобы учиться и адаптироваться к поведению людей, а также работать с людьми. София смоделирована по обра-
зу актрисы Одри Хепберн и в сравнении с предыдущими роботами стала из-
вестна благодаря своему человекоподобному внешнему виду и поведению. Со-
фия обладает искусственным интеллектом, оснащена функциями обработки ви-
зуальной информации и технологией распознавания лиц. Может имитировать человеческие жесты и выражения лица.
Робот использует технологию распознавания речи от компании Alphabet.
Программное обеспечение искусственного интеллекта Софии разработано ком-
панией SingularityNET. Оно анализирует проведенные разговоры и на основа-
нии новых данных улучшает ответы в будущем.
На ежегодной конференции Web Summit София вызвала большой интерес среди участников конференции, несмотря на то, что она может отвечать только на определенные вопросы и проводить простые беседы по заранее определен-
ным темам (например, о погоде). С Софией проводилось множество встреч по всему миру. В октябре 2017 г. она стала подданной Саудовской Аравии и первым роботом, получившим гражданство какой-либо страны.
Необходимо отметить, что в правовой науке наряду с подходом, отрицаю-
щим существование электронных лиц как субъектов права, формируется кон-
цепция, исходящая из реальности существования электронных лиц как действи-
тельных субъектов права, что обусловливает необходимость разработки юри-
дической конструкции, посредством которой электронное лицо может быть включено в правовое поле.
Для этого полезно обратиться к теории Г. Кельзена. Согласно его «чистому учению о праве» «быть лицом» или «обладать правосубъектностью» — это значит иметь юридические обязанности и субъективные права. «Чистое учение
130