Довольно скоро машины, управляемые искусственным интеллектом, станут такими же распространенными, как электричество и смартфоны сегодня. Но кто будет нести ответсвенность в случаях, когда автономные машины, хирурги-роботы и умные промышленные роботы совершают смертельные ошибки?
На недавней футуристической выставке, в Лас-Вегасе CES 2020, можно было увидеть, как роботизированные руки из технической компании LG выполняют то, что мы считаем исключительно человеческими задачами — готовят еду, кофе, загружают посудомоечную машину.
Хотя такое применение высокотехнологичных помощников может быть привлекательным для всех, кто терпеть не может уборку на кухне, что если ваш робот-бариста прольет на вас горячий кофе? Кто ответит за эту боль?
Давняя правовая модель, которая действует, по крайней мере, во всех человеческих обществах гласит: если вы наносите кому-то вред, то вы несете ответственность.
Но рост высокотехнологичной робототехники и искусственного интеллекта (ИИ) создает новые затруднения для судебных органов в этом вопросе. Кого считать виновным в случае если робот становится причиной серьезной или смертельной аварии, как это было в случае с автокатастрофой Тесла, под управлением автопилота? Судья не может приказать роботу выплатить компенсацию или посадить искусственный интеллект в тюрьму.
Растет количество дискуссий относительно правовых последствий ИИ в судебных и политических кругах, а также промышленных проблем и последствий в области страхования. Эксперты сходятся во мнении, что в течение нескольких десятилетий использование автомобилей с автопилотом, интеллектуальных промышленных роботов и других автономно действующих машин станет таким же распространенным явлением, как электричество и телефоны сегодня.
Практические вопросы гражданского права по-прежнему доминируют, в основном в отношении полностью или полуавтономных автомобилей.
«Чтобы полностью автоматизированное вождение было широко принято обществом, конечный носитель ответственности должен быть всегда точно определен», — говорит Йоахим Мюллер, директор по страхованию имущества и от несчастных случаев мюнхенской страховой компании Allianz Deutschland AG.
Начиная с 2017-го в немецком законе о дорожном движении указывается, какие данные автомобиль должен и может хранить. «Однако до сих пор не урегулировано то, как законно уполномоченные стороны могут технически и организованно получить доступ к этим данным», — говорит Мюллер.
«Здесь возникает много вопросов. Нужно ли тратить время для считывания данных в автосалоне для всех заинтересованных сторон? Как будет обеспечена сохранность компрометирующих данных и защита их от уничтожения? Что будет с данными, если транспортное средство списывается, кто их будет удалять, если автомобиль продан?»
Allianz настаивает на том, чтобы производители автомобилей не имели единоличного контроля над данными. «На мой взгляд, данные должны находиться в руках нейтральной, независимой третьей стороны — доверенного лица — чтобы все уполномоченные стороны могли получить к ним доступ на одинаковых юридических условиях», — говорит Мюллер.
Рост роботов под управлением искусственного интеллекта имеет последствия и для уголовного права. Ученые-правоведы уже рассматривают далеко идущие вопросы, поскольку уголовное право основано на принципе индивидуальной вины. Однако даже у самой умной машины нет ни сознания, ни совести.
«Уголовное право, направленное против отдельных лиц, с трудом поспевает за развитием автономных машин и искусственного интеллекта», — отмечает Сюзанна Бек, профессор уголовного права и философии Университета Ганновера в Германии.
«В уголовном праве, обычно, за действия машины несет ответственность ее оператор», — говорит она. «Если Google предоставляет вам ложную информацию и вы принимаете решение на ее основе, то ответственность несете вы сами».
Проще ситуация в гражданском праве. «Сегодня владелец автомобиля уже несет ответственность за несчастные случаи, в которых он, возможно, не участвовал», — отмечает Николас Вольтманн, ассистент Исследовательского центра права робототехники Университета Вюрцбурга в Германии.
«Компания также может нести ответственность по гражданскому праву», — в отличие от уголовного, — говорит он. «Только люди могут совершать преступления, а не корпоративные органы или машины».
Но справедливо ли наказывать человека, когда ИИ находится за рулем и под контролем?
«Весь смысл этих машин не в том, чтобы действовать и решать самому», — говорит Бек. «Если вы все еще несете полную уголовную ответственность в качестве водителя, то вам не нужен автономный автомобиль, потому что вы должны сосредоточиться так же, как если бы вы были за рулем. Я считаю это проблемой».
Для решения этой проблемы эксперты по этике и праву ввели концепцию «значимого человеческого контроля».
«Прежде чем лицо будет привлечено к уголовной ответственности, необходимо внимательно изучить, осуществлял ли он или она какой-либо контроль над машиной», — говорит Бек.
«В значительной степени нам, вероятно, придется отказаться от судебных решений по авариям, вызванным машинами в будущем», — предсказывает она, признавая, что «это может определенно тревожить общество, если никакие приговоры невозможны».
Она предлагает действовать так: «Нужно искать другие решения, например, посредничество между жертвой и правонарушителем или решения в других правовых системах – например в области, гражданского права».
Большинство экспертов не поддерживают фундаментальные изменения в уголовном законодательстве.
«Ученые-юристы предварительно начали обсуждать, должны ли мы отказаться от принципа, согласно которому только люди могут вести себя виновно», — говорит Вольтманн. «Наше преобладающее мнение заключается в том, что на современном этапе технологического развития нет необходимости отказываться от установленной правовой нормы».
Но на самом деле есть «серая область, где мы не можем предсказать, как будет развиваться юриспруденция в будущем», добавляет он. «Для общества в целом «серая зона» может быть приемлемой, если количество дорожно-транспортных происшествий уменьшается, поскольку автомобили под управлением автопилота становятся все более распространенными из-за их общих выгод для общества».
Но такой подход по-прежнему не будет утешением для жертв несчастного случая и их семей.
«На индивидуальном уровне, безусловно, неприемлимо, если уголовная ответственность не может быть установлена после серьезной аварии», — говорит Вольтманн. Это по-прежнему является предметом для серьезных дискуссий.
По материалам: The Star













