Никакой дилеммы
Во-первых, «проблема вагонетки» и люди, о ней рассказывающие, никого не «учат этике». Проблема вагонетки — это одна из теорий, возникших в процессе изучения этики.
Одни люди исследуют поведение других людей и как бы говорят вам:
— О, смотрите, мы тут обнаружили нечто любопытное! Если нескольким рандомным челам предложить решить «проблему вагонетки», то они решат ее по-разному и обоснуют свой выбор по-разному. Мы пока не поняли, почему так происходит, но этот факт определенно заслуживает дальнейшего изучения.
Во-вторых, проблема вагонетки когда-то действительно была в большей степени занимательной гимнастикой для ума исследователей. Но с появлением ИИ про эту проблему внезапно вспомнили, и оказалось, что штука эта не только интересная, но и полезная.
Современная интерпретация дилеммы вагонетки выглядит так:
1) Имеется «беспилотный» автомобиль, которым управляет ИИ. В автомобиле в качестве пассажира едет его владелец.
2) Имеется ненулевая вероятность того, что при движении по дороге автомобиль попадет в патовую ситуацию, например, под колеса внезапно выскочит человек, затормозить не успеть, а объехать его невозможно (слева несется встречка, справа — пропасть или бетонные препятствия. То есть спасти можно только одного: либо пассажира, либо пешехода.
3) Имеется необходимость обучить ИИ, как действовать в патовой ситуации, кого спасать? Пассажира, он же хозяин машины? Или дурика, который выпрыгнул под колеса? А если это бабушка? А если это ребенок? А если на дорогу выпрыгнул ребенок, но и в машине тоже ребенок? А если в машине ребенок, но на дорогу выпрыгнуло 10 детей разом? А если в машине ребенок-троечник, а на дорогу выпрыгнул ребенок-лауреат 10 Нобелевских премий и двух Оскаров?
4) Разработчики ИИ такую ответственность — решать за всех дилемму вагонетки — на себя брать не решились. Ибо в данном случае ответственность не только моральная, там и юридическая наступит, глазом моргнуть не успеешь.
Запрограммировал ИИ спасать пешехода? Получи иск на 100500 миллионов от вдовы владельца беспилотного авто. Не, ну а как? Человек машину купил, а она его же и убила, чтоб спасти какого-то пешехода.
Запрограммировал ИИ спасать владельца авто? Получи иск от родственников пешехода, заодно и иск от самого владельца машины, который будет орать, что он бы, конечно, пожертвовал собой, если бы мог, но вот злые программисты запрограммировали ИИ спасать пешехода.
И нашли исследователи, как им казалось, крайне изящный выход: покупаешь машину и, прежде ее использовать, настраиваешь ее сам под себя! То есть садишься, наливаешь чаёк и отвечаешь на сотню-другую хитрых вопросов, которые задает тебе ИИ твоей беспилотной машины. ИИ, я так понимаю, был тестовый, т.е. реально на машины он не ставился. А может и нет, не помню. Но суть в том, что на основании твоих ответов ИИ понимает, кого ты предпочитаешь спасать в патовой ситуации!
5) Что же обнаружили исследователи? Исследователи обнаружили, что теория — это одно, а «своя рубашка ближе к телу». То есть люди, которые думали, что программируют ИИ конкретно для себя — любую патовую ситуацию решали именно в свою пользу.
Так что проблема вагонетки — это не про то, что «вам делать», а про то, что «вы реально сделаете», несмотря на весь ваш гуманизм и человеколюбие, которое вы демонстрируете в ситуациях, не угрожающих лично вашей безопасности.
Автор на Пикабу: Arbitrator
Комментарии: pikabu.ru/link/xnpHOq4jTy