Из тех обсуждений, что мне попадались в сетях, я сделал вывод, что одна из ключевых этических и юридических проблем робота-водителя - это кто будет нести ответственность за ущерб, причиненный третьим лицам, в случае аварии. И конкретнее - кого будет спасать робот-водитель, своего пассажира или других людей? Вопрос скользкий и непростой, потому что так в каждом конкретном случае каждый решает сам за себя, и сам же отвечает, а так, действительно, непонятно, кто будет решать и кто несет ответственность. Владелец машины? Но он как бы и ни при чем, не он же за рулем. Производитель авто? Разработчики программы?
Так вот, дурацкий вопрос: а не будет ли выходом прописать разные алгоритмы безопасности/ответственности, предоставив владельцу машины выбирать тот, который его больше устраивает? Ну так, грубо говоря: самый жесткий вариант - когда робот в любой ситуации, когда встает вопрос уровня "пассажир или тот чувак на обочине", делает выбор в пользу спасения "того чувака". Менее жесткий вариант - когда приоритетом является спасение пассажира, за исключением определенных ситуаций (скажем, когда объект на обочине опознан как "ребенок"). И противоположная крайность - когда робот в любой ситуации спасает в первую очередь пассажира. И да, разумеется, выбор владельца должен быть известен (точнее, информация о нем должна быть в обязательном порядке доступна в случае аварии).
Это решает сразу и проблему выбора, и проблему ответственности. С одной стороны, по сути, это тот же самый выбор, который делает человек за рулем в такой ситуации. Только ты его сделаешь не интуитивно и непроизвольно, а заранее, в здравом уме и твердом памяти. Да, возможно, ты потом об этом пожалеешь - так ты и о выборе, сделанном за долю секунды до столкновения, точно так же можешь пожалеть. Понятно, что крайние варианты мало кто выберет, но градаций должно быть намного больше, и эти алгоритмы действительно должны работать именно так, как заявлено. С другой стороны, если робот-водитель, работающий по самому жесткому алгоритму ("спасаем в первую очередь посторонних") кого-то сбил (не по вине пострадавшего), то по умолчанию владелец машины ни при чем. Ответственность на разработчиках робота. А если владелец машины установил самый "либеральный" алгоритм ("спасаем в первую очередь пассажира"), то он и ответит по полной. В промежуточных вариантах ответственность делится пропорционально степени жесткости алгоритма.
Разумеется, речь не идет о том, чтобы позволить роботу давить прохожих направо и налево или разгоняться до первой космической. Нет, безусловно, робот в любом случае должен действовать в рамках ПДД (другое дело, что наверняка найдутся любители и умельцы, которые захотят его хакнуть). Речь идет именно о ситуации выбора, когда "оба хуже", и о том, что должен "выбирать" робот в этом случае.
Что я упускаю?