Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги2 / 17

.pdf
Скачиваний:
0
Добавлен:
24.02.2024
Размер:
2.71 Mб
Скачать

на необходимости создания правового базиса для совершенно новых правовых отношений между человеком и искусственно созданным носителем сознания.

Введение в научный оборот понятия «электронное лицо» обусловлено прежде всего спецификой принципиально нового субъекта права. Данное поня-

тие призвано отразить его сущность и правовую специфику. При этом можно ориентироваться на понятийный ряд «электронное лицо» — «искусственный интеллект» («электронный индивид») — «робот». Причем искусственный ин-

теллект, носителями которого являются удовлетворяющие определенным кри-

териям роботы, необходимо рассматривать как базовую составляющую элек-

тронного лица. Поэтому прежде всего целесообразно обратиться к такой кате-

гории, как «искусственный интеллект».

В 1956 г. на конференции в Дартмутском университете Дж. Маккарти определил искусственный интеллект, с одной стороны, как науку и технику со-

здания интеллектуальных машин, а с другой — как умение компьютера делать то, что умеют делать люди, т.е. то, что связано с интеллектом.

Ученые Российской ассоциации искусственного интеллекта определяют данный термин как свойство интеллектуальных систем выполнять функции

(творческие), которые традиционно считаются прерогативой человека.

При этом интеллектуальная система — это техническая или программная си-

стема, способная решать задачи, традиционно считающиеся творческими, при-

надлежащие конкретной предметной области, знания о которой хранятся в па-

мяти такой системы.

Можно сделать вывод, что искусственный интеллект — это результат че-

ловеческой деятельности, представляющий собой сложную совокупность ком-

муникационных и технологических взаимосвязей, обладающую способностью логически мыслить, управлять своими действиями и корректировать свои ре-

шения в случае изменения внешних условий.

На сегодняшний день существует два основных подхода к разработке ис-

кусственного интеллекта. Семиотический подход ориентирован на создание экспертных систем, баз знаний и систем логического вывода, которые имити-

121

руют высокоуровневые психические процессы, такие как мышление, рассужде-

ние, речь, творчество и т.д. Биологический подход предполагает изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуаль-

ное поведение на основе биологических элементов, а также создание соответ-

ствующих вычислительных комплексов, таких как нейрокомпьютер или био-

компьютер.

Следует отметить, что нейронные сети основаны на нейронной активности и строятся по принципу организации и функционирования сетей нервных кле-

ток живого организма. Вид нейронной передачи, характеризующийся прохож-

дением положительно заряженных ионов через клеточные мембраны, встреча-

ется даже в самых простейших живых организмах — бактериях, в то время как функционирование современных видов искусственного интеллекта, базирую-

щихся на нейронных сетях, подчиняется движению отрицательно заряженных ионов. Российскими учеными была разработана система Smart Tag, в основе ко-

торой лежит алгоритм распознавания речи, функционирующий на основе нейронных сетей. Новая технология прослушивает и расшифровывает беседы с клиентами, анализирует вопросы, лексику и структуру разговора и сопостав-

ляет количество обращений в связи с проводимыми рекламными кампаниями,

что позволяет выявить степень их эффективности.

Следовательно, доказана, по крайней мере с позиций нейробиологии, воз-

можность существования принципиально нового механизма бытия, что под-

тверждает актуальность постановки вопроса о правосубъектности искусствен-

ного интеллекта.

Искусственный интеллект в широком смысле может быть уподоблен чело-

веческому с точки зрения как его биологической конструкции, так и полноцен-

ной способности к творчеству, субъективности восприятия, возможности от-

клонения или ошибки, которая считается естественной, поскольку такой интел-

лект часто сталкивается с абсолютно незнакомыми задачами, в процессе реше-

ния которых велика вероятность ошибки или отклонения. А в узком смысле ис-

122

кусственный интеллект может трактоваться как способность анализировать ин-

формацию, творить в области, ограниченной конкретными целями и задачами.

В рамках как широкого, так и узкого понимания искусственного интел-

лекта весьма интересным представляется вопрос, будет ли абсолютная форма-

лизация искусственного интеллекта коррелировать с интеллектом человека,

мышление которого не всегда логично, может быть парадоксальным, эмоцио-

нальным.

Сложность определения индивидуальности в искусственном интеллекте связана с проблемой «философского зомби» как системы, которая будет до-

статочно реалистично имитировать человеческое общение, но в то же время не обладать самосознанием и самоидентификацией. В данном контексте инте-

ресно предположение главы Института этики и новых технологий Д. Хьюза о том, что самосознание электронных лиц может проявиться одновременно с наделением их минимальными личностными правами, такими как право быть свободным, право на собственные интересы в жизни, право на рост и са-

мосовершенствование.

Решением вопроса о критериях самоидентификации и самосознания может стать анализ внутренней сложности искусственного интеллекта, предложенный в теории Дж. Тонони, в рамках которой сознание понимается как интегриро-

ванная информация, создаваемая посредством комплекса элементов, превосхо-

дящих по объему сумму сведений, формируемых отдельными элементами ис-

следуемого объекта.

Тема правосубъектности (и в частности ответственности) искусственного интеллекта, на наш взгляд, более чем заслуживает научного осмысления. Ос-

новной правовой проблемой использования таких систем уже на данном этапе является проблема определения юридической ответственности за наступление вредных последствий в результате действий искусственного интеллекта. При-

чем если ошибка юнита искусственного интеллекта, используемого при управ-

лении организацией либо при оказании информационных услуг, может быть сравнительно легко отслежена и исправлена и может не иметь глобальных

123

негативных последствий, то, например, совершение ошибки таким юнитом при принятии решения в рамках государственного управления может нанести очень значительный вред публичным интересам.

В силу того что юниты искусственного интеллекта по мере развития тех-

нологий становятся все более сложными и получают большее распространение,

все менее однозначной становится одна из фундаментальных концепций, со-

гласно которой конечным субъектом принятия любого решения является чело-

век, что, в свою очередь, поднимает проблему определения юридической ответ-

ственности.

Пояснительная записка Секретариата Комиссии ООН по праву междуна-

родной торговли об использовании электронных средств связи в международ-

ных соглашениях гласит, что лицо (как физическое, так и юридическое),

от имени которого компьютер был запрограммирован, должно нести ответ-

ственность за любое сообщение, сгенерированное машиной (ст. 12).

Джон Байерс отмечает, что до относительно недавнего времени проблема определения ответственности за действия машины разрешалась однозначно и традиционно: такая машина должна была рассматриваться исключительно как инструмент лица, обладающего или управляющего ей. Не возникало вопро-

са о личной ответственности такой машины или ее правосубъектности, по-

скольку машины не были способны осуществлять автономную или полуавто-

номную деятельность.

В настоящее же время следующие ключевые характеристики юнитов ис-

кусственного интеллекта актуализируют проблему определения их правосубъ-

ектности и способности нести юридическую ответственность за свои действия:

-автономность и самоорганизация;

-способность к обучению и самообучению;

-способность к разумному мышлению и поведению.

Их сочетание приводит к вероятности совершения действий, не преду-

смотренных производителем или программистом изначально.

124

При этом также имеет значение возможный диапазон таких непредвиден-

ных действий.

Риски, касающиеся безопасности роботов нового поколения, обоснованно

подразделить на две категории:

-риски, происходящие из стандартов производства таких роботов (по-

добные риски поддаются управлению с помощью нормативно-правового

инормативного технического регулирования, посредством процессов оценки

ипланирования);

-риски, исходящие из автономной деятельности роботов (так, автоном-

ная деятельность роботов нового поколения делает связанные с их деятельно-

стью риски сложными, изменчивыми и непредсказуемыми и, следовательно,

требует совершенно иного подхода к оценке рисков).

Возрастающее использование юнитов искусственного интеллекта перено-

сит ответственность за их безопасное функционирование с оператора на разра-

ботчика, со всеми вытекающими из этого нравственно-этическими и юридиче-

скими последствиями. Поэтому, по мнению Королевской инженерной академии наук Великобритании, возможно, необходимо установление требований к свое-

го рода лицензированию для осуществления деятельности в этой сфере, в част-

ности, требований, касающихся изучения нравственно-этических принципов в этой области.

Для подобных целей Королевская инженерная академия наук Великобри-

тании выпустила руководство «Инженерная этика на практике: руководство для инженеров».

В случае если презюмировать, что юнит (агент, система) искусственного интеллекта не в состоянии самостоятельно непосредственно нести ответствен-

ность за свои действия, что он не может обладать правосубъектностью, то воз-

никает иная проблема, связанная с определением надлежащего субъекта ответ-

ственности, поскольку круг лиц, участвующих в регулировании и администри-

ровании поведения юнита искусственного интеллекта, слишком широк, к нему могут быть отнесены владельцы, операторы, проектировщики. Если же предпо-

125

лагать возможность разделения ответственности между ними, то возникает проблема определения и распределения степени вины таких лиц, в особенности если говорить не о тех ситуациях, когда кто-либо из них намеренно программи-

рует робота на причинение смерти человеку, а о тех ситуациях, когда затрудни-

тельно доказать намерение конкретного лица причинить вред, доказать, что это лицо знало о том, что вред может быть причинен.

Традиционным решением может стать так называемый институт строгой ответственности, предполагающий привлечение к ответственности без вины,

но, как отмечает Джек Балкин, это, во-первых, может «задушить» инновации в этой сфере, а во-вторых, может быть не вполне корректным с точки зрения уголовного права.

Некоторые сбои в работе юнитов искусственного интеллекта могут быть опасными для отдельных человеческих индивидов и общества и приводить к причинению ущерба. Габриэль Халлеви приводит в качестве примера следу-

ющую ситуацию: на программный комплекс, оснащенный искусственным ин-

теллектом, предназначенный для тюремной охраны, возложены функции по предотвращению побегов из тюрьмы с минимизацией применения силы, ко-

торая может нанести ущерб беглым заключенным. Для выполнения этой задачи такой программный комплекс может использовать силу с помощью физических роботов (киберфизических систем) и иных систем. В какой-то момент заклю-

ченный предпринимает попытку побега. Программный комплекс эту попытку обнаруживает и отправляет физически осязаемого робота для решения пробле-

мы. В данном случае не имеет значения, является ли этот робот частью про-

граммного комплекса с искусственным интеллектом или же он обладает соб-

ственным искусственным интеллектом. Отправленный для решения проблемы робот предотвращает попытку побега, крепко схватив заключенного. В резуль-

тате этот заключенный пострадал и заявляет о злоупотреблении физической силой. Анализ действий робота показывает, что хотя он и мог выбрать более мягкую меру воздействия, он все же выбрал определенное пагубное действие.

Причиной этому служило то, что робот значительно переоценил риски.

126

Следовательно, правовой вопрос в такой ситуации заключается в опреде-

лении того, кто именно несет юридическую ответственность за причинение вреда здоровью заключенного.

На настоящем этапе развития технологий неизвестно, насколько простым будет разрешение споров, касающихся привлечения к ответственности за дей-

ствия юнита искусственного интеллекта, в досудебном порядке, по сравнению со спорами, связанными с других технологиями. В частности, сложность этих новых технологий и некоторых типов взаимодействия между человеком и ма-

шиной может негативно влиять на шансы сторон достигнуть компромисса.

Институт инженеров электротехники и электроники (международная об-

щественная организация) предлагает следующие принципы применения и раз-

работки юнитов искусственного интеллекта:

-обеспечение идентификации всех искусственных агентов (юнитов ис-

кусственного интеллекта) для обеспечения юридической подотчетности их дея-

тельности;

-законодателям и правоохранительным органам необходим об обеспе-

чить, чтобы использование юнитов искусственного интеллекта не было объек-

том злоупотреблений для избежания ответственности;

- установление обязанности компаний, использующих и производящих юнитов искусственного интеллекта, устанавливать письменные формализован-

ные правила, четко регулирующие использование таких систем, в частности относительно того, кто и как вправе их использовать, определять требования к квалификации.

Эти принципы могут применяться с учетом сложностей определения надлежащего субъекта юридической ответственности.

Выделяют следующие основные модели определения ответственности

(в том числе уголовной) за действия юнита искусственного интеллекта, по-

влекшие за собой наступление вредных последствий:

127

-модель, в рамках которой юнит искусственного интеллекта рассматри-

вается как принципиально невиновный («безвинный») агент, инструмент ре-

ального исполнителя правонарушения;

-так называемая «модель естественных вероятных последствий», кото-

рая предполагает, что юнит искусственного интеллекта реализует действия, яв-

ляющиеся естественным, логически закономерным и вероятным последствием его программирования; и в рамках этой модели предусматривается, что лицо,

программировавшее машину, проявило преступную небрежность;

-модель прямой ответственности непосредственно самого юнита искус-

ственного интеллекта за его действия.

Очевидно, что принятие и реализация этих моделей предполагают приме-

нение различных законодательных подходов и мер.

Потенциальная возможность существования правовых отношений между физическими и электронными лицами обусловливает необходимость разработ-

ки регулирующих их норм права.

Определенные предпосылки для наделения электронных лиц правами бы-

ли заложены в прецедентах, где в качестве субъектов права рассматривались существа, не принадлежащие к человеческому виду. Так, в Новой Зеландии за-

конодательно установлено, что животные считаются разумными существами.

В США и ряде других стран защита от заточения, экспериментов и жестокого обращения распространяется на отдельные виды животных, включая человеко-

образных приматов, слонов, китов и дельфинов, причем акцент делается имен-

но на защите их «индивидуальности» и «личности», для которой характерны определенные когнитивные способности, в том числе самосознание.

Действующее российское законодательство предусматривает наказание за жестокое обращение с животными (ст. 245 Уголовного кодекса РФ). А воз-

врат найденного безнадзорного животного прежнему хозяину в соответствии с ч. 2 ст. 231 части первой Гражданского кодекса РФ осуществляется с непре-

менным учетом привязанности самого животного, что в принципе исключает определение животного как вещи.

128

Несмотря на различия в философских подходах, российские и зарубежные

сторонники законодательного наделения животных правами единодушны

в том, что животные не должны рассматриваться как объекты частной соб-

ственности и могут приобретать права как «субъекты жизни».

Такие рассуждения, на наш взгляд, полезны с точки зрения аналогии к сфере искусственного интеллекта, но это не означает последовательного раз-

вития правовой мысли по данной тематике. К проблемам искусственного ин-

теллекта, вероятно, применима концепция «правового взрыва», описанная,

в частности, в трудах Д. Бартона, М.А. Беляева и др. Под правовым взрывом исследователи понимают неконтролируемое «размножение» правовых текстов,

в итоге отрицательно влияющее и на эффективность, и на легитимность,

и на справедливость права. Именно до наступления такого «взрыва» необходи-

мо обсудить вопрос о наделении электронных лиц правами, свободами и защи-

той, возможно, эквивалентными или в определенной мере связанными с права-

ми, свободами и защитой, предоставляемыми человеку.

Анализ зарубежного опыта в данной сфере позволил выявить первый пре-

цедент защиты прав роботов — создание в 1999 г. в США Американского об-

щества за предотвращение жестокости по отношению к роботам (ASPCR), мис-

сия которого состоит в том, чтобы гарантировать право на существование, не-

зависимость и стремление к знаниям всех искусственно созданных разумных существ, широко известных как «роботы».

В проекте упоминавшегося ранее доклада о присвоении роботам статуса

«электронных лиц» было предложено ввести так называемую объективную от-

ветственность в сфере робототехники, т.е. ответственность без наличия вины,

либо отдать предпочтение «управлению рисками», когда ответственность воз-

лагается на то лицо, которое было обязано минимизировать риски, причем от-

ветственность должна быть пропорциональна уровню данных роботу инструк-

ций и степени его автономии. Положения об ответственности могут также предусматривать обязательное страхование для пользователей роботов. В янва-

ре 2017 г. Комитет Европейского парламента по правовым вопросам предста-

129

вил доклад, содержащий предложение включить в законодательство ЕС поня-

тие «умный робот» и разработать систему регистрации таких роботов.

Примером такого «умного» аппарата является София — человекоподоб-

ный робот (гиноид), разработанный гонконгской компанией Hanson Robotics.

Она была спроектирована таким образом, чтобы учиться и адаптироваться к поведению людей, а также работать с людьми. София смоделирована по обра-

зу актрисы Одри Хепберн и в сравнении с предыдущими роботами стала из-

вестна благодаря своему человекоподобному внешнему виду и поведению. Со-

фия обладает искусственным интеллектом, оснащена функциями обработки ви-

зуальной информации и технологией распознавания лиц. Может имитировать человеческие жесты и выражения лица.

Робот использует технологию распознавания речи от компании Alphabet.

Программное обеспечение искусственного интеллекта Софии разработано ком-

панией SingularityNET. Оно анализирует проведенные разговоры и на основа-

нии новых данных улучшает ответы в будущем.

На ежегодной конференции Web Summit София вызвала большой интерес среди участников конференции, несмотря на то, что она может отвечать только на определенные вопросы и проводить простые беседы по заранее определен-

ным темам (например, о погоде). С Софией проводилось множество встреч по всему миру. В октябре 2017 г. она стала подданной Саудовской Аравии и первым роботом, получившим гражданство какой-либо страны.

Необходимо отметить, что в правовой науке наряду с подходом, отрицаю-

щим существование электронных лиц как субъектов права, формируется кон-

цепция, исходящая из реальности существования электронных лиц как действи-

тельных субъектов права, что обусловливает необходимость разработки юри-

дической конструкции, посредством которой электронное лицо может быть включено в правовое поле.

Для этого полезно обратиться к теории Г. Кельзена. Согласно его «чистому учению о праве» «быть лицом» или «обладать правосубъектностью» — это значит иметь юридические обязанности и субъективные права. «Чистое учение

130

Соседние файлы в папке книги2