Публикация научных статей.
Вход на сайт
E-mail:
Пароль:
Запомнить
Регистрация/
Забыли пароль?

Научные направления

Поделиться:
Разделы: Юриспруденция
Размещена 10.06.2020.
Просмотров - 2101

Ответственность за деятельность искусственного интеллекта

Имамеева Регина Дамировна

нет

Университет управления "ТИСБИ"

ст.преподаватель

Аннотация:
Статья посвящена анализу использования искусственного интеллекта в качестве помощника в медицине при диагностике и в судебной практике при принятии судебных решений. Рассмотрен зарубежный опыт применения такого приложения и риски, связанные с ним. Вопрос об ответственности за деятельность искусственного интеллекта, за возможный вред третьим лицам ставится на обсуждение.


Abstract:
The article is devoted to the analysis of the use of artificial intelligence as an assistant in medicine in the diagnosis and in judicial practice in making court decisions. The foreign experience of using such an application and the risks associated with it are considered. The issue of responsibility for the activities of artificial intelligence, for possible harm to third parties is put up for discussion.


Ключевые слова:
искусственный интеллект; иск; ответственность; риски

Keywords:
artificial intelligence; lawsuit; liability; risks


УДК 340.1

Введение

Искусственный интеллект (ИИ; англ. Artificial Intellect — AI) уже является частью нашей жизни — это не научная фантастика. ИИ — это реальность: от использования программы помощника в смартфоне до поездок в автомобиле с автоматическим управлением. Актуальность исследования обусловлена все большей цифровизацией населения и проникновением искусственного интеллекта в жизнь человека для решения его повседневных задач.

Сегодня под термином ИИ в первую очередь понимается специализированный искусственный интеллект (или слабый ИИ), разработанный для решения конкретной задачи – например, распознавания лиц, поиска информации в сети интернет или управления автомобилем. Долгосрочной же целью многих разработчиков является создание общего искусственного интеллекта (или сильного ИИ). В то время как специализированный ИИ выполняет конкретную задачу ‒ например, он может обыграть человека в шахматы или решить уравнения, общий ИИ превзойдет человека практически в любой когнитивной работе.

Целью работы является рассмотрение вопросов ответственности за деятельность искусственного интеллекта.

Задачами выступает рассмотрение объектов и субъектов ИИ, изучение практики регулирования ИИ.

Научная новизна заключается в выявлении конфликтных ситуаций, возникающих в деятельности медицинских организаций, при использовании искусственного интеллекта.

Для четкой и конкретной регламентации робототехники и искусственного интеллекта нужно всесторонне подойти к исследованию вопроса, на что соответственно требуется время. При этом еще в 2015 году автомобиль «Tesla S» на автопилоте проехал все США  [1], а хирургический робот «Da Vinci» сегодня выполняет сложнейшие операции  [2]. Но одновременно с этим происходят и закономерные печальные события. В 2015 году роботизированная рука убивает рабочего на заводе «Volkswagen»  [3], а автомобиль «Tesla» на автопилоте попадает в аварию, унося жизнь своего водителя  [4] (к слову, термин «водитель» в данном контексте уже может считаться несколько условным) .

Сегодня рассматривается интересный иск к биржевому искусственному интеллекту, благодаря которому возможно будет создан важный прецедент. Саматур Ли Кин-Кан, магнат в сфере недвижимости из Гонконга, подал в суд на компанию Tyndaris Investments, из-за результатов работы ее искусственного интеллекта. По данным издания Bloomberg, это будет первое судебное дело в истории, когда ответственность пытаются возложить на машину, хотя формально речь идет об обычных финансовых спекуляциях. Суд, однако, обратил внимание на вопрос участия ИИ, и рассматривает материалы дела с учетом этого фактора [5].

Интересные исследования по вопросу участия ИИ в медицинской деятельности проводятся зарубежными авторами. Если в больницу внедряется ИИ на «полную ставку», то кто будет нести ответственность за неверно поставленный диагноз: больница или разработчик системы, допустивший поправку на ошибку алгоритма?

На кого ложится ответственность за постоянное совершенствование ИИ - поставщиков или пользователей - зависит от исхода первого крупного судебного процесса в этой области. Конечно, на выбор того, кому предъявлять иск, могут повлиять глубокие карманы. Истцы могут предпочесть подать в суд на большую больницу, а не на небольшой стартап, поддерживаемый венчурным капиталом.

Больницы, заменяющие рентгенологов искусственным интеллектом, слишком причудливы и футуристичны. Более вероятный сценарий состоит в том, что ИИ будет использоваться для помощи рентгенологам, отмечая отклонения на изображениях. Радиологи по-прежнему будут нести ответственность за окончательную интерпретацию. Я буду для радиологов тем же, чем доктор Ватсон для Шерлока Холмса - доверенного, хотя и чрезмерно усердного помощника.

Хотя Холмс часто игнорировал совет Ватсона, радиологам будет не легко отказаться от искусственного интеллекта, потому что они несут новую ответственность: ответственность за несогласие с ИИ. Если ИИ помечает узелок легкого на рентгенограмме грудной клетки, которую рентгенолог не видит, и, следовательно, не упоминает об этом в своем отчете - другими словами, не согласен с ИИ - и что узелок злокачественный, и пациент страдает из-за этого, в случае поздней постановки диагноза радиолог может быть ответственным не только за то, что пропустил рак, но и за игнорирование совета AI.

Ряд таких исков заставит радиологов практиковаться в обороне. В конце концов, они перестанут не соглашаться с ИИ, потому что судебные издержки, связанные с этим, будут слишком высокими. Радиологи порекомендуют больше изображений, таких как компьютерная томография, чтобы подтвердить выводы ИИ.

Использование искусственного интеллекта может быть полезно и в судах для помощи вынесения судебного решения или принятия меры пресечения.

Многие суды США используют систему освобождения под залог где судья устанавливает сумму залога, которую обвиняемый может заплатить, чтобы избежать необходимости оставаться в тюрьме в ожидании суда. В этой системе судьи часто устанавливают очень большую сумму залога для обвиняемых, чтобы избежать риска их неявки в суд. В этой связи ИИ может быть применен для оценки этого риска. Так, в некоторых американских судах судьи начинают использовать системы искусственного интеллекта, чтобы решить, когда и на какой срок преступники должны быть заключены в тюрьму. Чтобы создать систему искусственного интеллекта, используют компьютеры для анализа данных тысяч судебных дел. Затем компьютеры используют эти данные, чтобы предсказать, совершит ли обвиняемый новое преступление или не вернется в суд.

Система ИИ, которую применяют судьи США, именуется оценкой общественной безопасности. Программа была представлена разработчиками фонда Лауры и Джона Арнольда, базирующимся в Техасе. Инструмент предназначен для помощи в подборе объективной информации для принятия судьями взвешенных и верных решений в отношении заключенных [9].

Сложным моментом выступает введение морали в закон — это сложная задача, потому что оспариваются этические ценности и истоки морали. Одни юристы придерживаются точки зрения, что мораль исходит от Бога, другие - от природы. Выработка пути следования алгоритма ИИ понимающим этих божественных или иных источников морали крайне сложна. Кроме того, непреднамеренный характер «обучения» ИИ может привести к четкой линии интерпретации. В таком случае ИИ может помогать или заменять людей в судах первой инстанции, но судьи-люди должны быть конечным звеном по пересмотру дела, суметь дать человеческую оценку решению, принятому с помощью ИИ. С практической точки зрения, ИИ может помочь в изучении всей широты и глубины закона, но люди в конце концов сделают выбор основываясь на своей моральной интерпретации.

Аналитики Сбербанка в ежегодном обзоре робототехники за 2019 год предлагают выделять семь основных подходов к проблеме ответственности ИИ:

1) полное освобождение кого-либо от ответственности;

2) частичное освобождение от ответственности характеризуется назначением страховой компенсации;

3) ответственность по вине. Каждый отвечает за тот пласт работы который провел: дефект конструкции - производитель; сбой программы – разработчик и т.д.;

4) ограниченная безвиновная ответственность, то есть признание ответственности за третьим лицом;

5) полная безвиновная ответственность. Некое лицо по умолчанию отвечает за действия робота;

6) личная ответственность робота, которая подразумевает наделение машины правосубъектностью;

7) смешанный режим ответственности, при котором те или иные подходы применяются в зависимости от степени опасности робота и других его характеристик [11].

Автор настоящего исследования склоняется к выбору ограниченной безвиновной ответственности. Ответственность по вине, при всей заманчивости, подразумевает долгий процесс доказывания, а сбор и представление доказательств дело очень нелегкое. С другой стороны, признание ответственности за третьим лицом и страхование рисков использования ИИ упрощает путь поиска ответственного лица.

Результаты

Существует ряд рисков в применении ИИ, таким как проблема дискриминации, как например по признакам пола, расы, национальности, вероисповедания.

В последние годы исследователи и практики выступают за повышение прозрачности внутренних механизмов моделей искусственного интеллекта, и на то есть причины. Прозрачность позволит решить проблемы справедливости, дискриминации и доверия, о которых в последнее время все чаще говорят. Новый проект виртуальных кредитных карт Apple Card обвинили в применении дискриминационных моделей кредитования по гендерному признаку. Компания Amazon отказалась от использования инструмента на основе ИИ при приеме на работу, обнаружив, что он дискриминирует женщин [2].

В то же время становится ясно, что раскрытие информации об ИИ тоже создает свои риски: предоставление дополнительной информации может сделать ИИ более уязвимым перед атаками хакеров, а раскрытие сведений о применении ИИ может навлечь на компании судебные иски и санкции со стороны регулирующих органов.

Системное регулирование роботехники в России отсутствует, как и во многих странах, существуют лишь небольшие шаги в этой сфере законодательства. Примером могут послужить поправки в Воздушный Кодекс РФ, направленные на регулирование дронов, либо промышленные стандарты. Например, с 9 января 2019 г. в России действует ГОСТ Р 60.0.0.4-2019/ИСО 8373:2012 «Роботы и робототехнические устройства. Термины и определения».

Рассматривая вопрос возможности полной замены судей ИИ, следует ответить на вопрос, могут ли данные заменить суждение? Система ИИ, с одной стороны, направлена на уменьшение предвзятых решений, которые могут зависеть от расы, пола или внешности обвиняемого. Факторы риска, использованные при оценке, включают возраст и прошлые судимости, однако, с другой стороны, они не включают расу, пол, происхождение занятости, где человек живет или историю арестов.

Идея использования помощника рентгенолога также не приведет к полной замене врача, так как последнее слово в постановки диагноза все-таки будет зависит от врача и соответственно ответственность за принятое решение.

Заключение

Мы можем сделать вывод, что пока создание сильного ИИ находится в разработке, окончательное слово в принятии решения по тому или иному вопросу все еще находится в области знаний живого ума.

В действительности же нужно опасаться не намеренного вредительства со стороны технологии, а некомпетентности разработчиков. Сверхмощный ИИ по определению будет невероятно эффективен в достижении поставленных целей (неважно, каких именно). Поэтому необходимо убедиться наверняка, что цель ИИ синхронизирована с потребностью человека. Человечество в целом равнодушно к муравьям и при достижении собственных целей не особенно считается с их потребностями. Люди умнее и могут себе это позволить. Поэтому цель тех, кто занимается разработкой безопасного ИИ ‒ предупредить ситуацию, в которой человечество окажется на месте муравьев.

Будущее еще не написано. Мы можем сформировать его на основе нашего коллективного видения того, какое будущее мы хотели бы иметь. Но нам нужно действовать сообща и действовать быстро. Поэтому, чтобы не пришлось поспешно разбираться с последствиями того, что может натворить компания программистов, окрыленная напитками Red Bull, дальновиднее будет начать исследование вопроса уже сегодня.

Библиографический список:

1. Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. Вып. 6(55). С. 47.
2. Эндрю Берт Парадокс прозрачности: чем опасен искусственный интеллект //Hurvard Business Review. URL: https://hbr-russia.ru/innovatsii/tekhnologii/819884.
3. Суд рассматривает первый в истории иск к биржевому искусственному интеллекту URL: https://www.techcult.ru/robots/6761-sud-rassmatrivaet-pervyj-isk-k-birzhevomu-iskusstvennomu-intellektu (дата обращения: 10.05.2020).
4. Robot Kills worker at Volkswagen plant in Germany // The Guardian. URL: https://www.theguardian.com/world/2015/jul/02/robot-kills-worker-at-volkswagenplant-in-germany (дата обращения: 10.05.2020).
5. By SAURABH JHA MARCH 9, 2020 URL: https://www.statnews.com/2020/03/09/can-you-sue-artificial-intelligence-algorithm-for-malpractice/ (дата обращения: 13.05.2020).
6. Владелец Tesla проехал все США абсолютно бесплатно. URL: http://www.delfi.lv/avto/na-kolesah/vladelec tesla-proehal-vse-ssha-absolyutnobesplatno. d?id=44084741 (дата обращения: 10.05.2020).
7. The da Vinci Surgical System. URL: http://www.davincisurgery.com/da-vincisurgery/da-vinci-surgical-system/ (дата обращения: 10.05.2020).
8. Tesla driver in fatal ‘Autopilot’ crash got numerous warnings: U.S. government // Reuters. URL: https://www.reuters.com/article/us-tesla-crash-idUSKBN19A2XC (дата обращения: 10.05.2020).
9. URL: https://learningenglish.voanews.com/a/ai-used-by-judges-to-rule-on-prisoners/4236134.html (дата обращения: 13.05.2020).
10. URL: http://docs.cntd.ru/document/1200162703.
11. Аналитический обзор мирового рынка робототехники 2019. URL: https://adindex.ru/files2/access/2019_07/273895_sberbank_robotics_review_2019_17.07.2019_m.pdf




Рецензии:

14.06.2020, 17:06 Чвалюк Андрей Николаевич
Рецензия: Автором подняты важные и, в свете последних событий, актуальные вопросы. Однако, конкретных выводов, направленных на обогащение теоретической или практической науки, так и не было сформулировано. Сам стиль статьи далек от научного. Материал подан в классическом публицистическом стиле и изобилует излишне эмоциональными высказываниями, что неприемлемо для научной публикации. Преобладающая часть заключения сплагиачена из статьи Макса Тегмарка ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ПРЕИМУЩЕСТВА И РИСКИ (https://ai-news.ru/2017/11/iskusstvennyj_intellekt_preimushestva_i_riski.html). Рецензируемая статья не соответствует установленным требованиям и в таком виде не может быть рекомендована к печати.



Комментарии пользователей:

7.07.2020, 14:06 Адибекян Оганес Александрович
Отзыв: Адибекян Оганес Александрович. Статья Имамеевой Регины Дамировны поддерживает создание и использование «искусственно интеллектных» средств действий с сосредоточенностью на медицине. Польза от таких средств есть, хотя не исключен и вред. Работу опубликовать можно, но после учета такого замечания. Заголовок работы дело представляет так, что этот «интеллект» действует всецело сам по себе. Но это не так. В заголовке следует указать ответственность и создателя этого средства, и пользователя им.


Оставить комментарий


 
 

Вверх