ru24.pro
Новости по-русски
Октябрь
2018

www.facebook.com: Мораль у машин?

0

Да, именно Moral Machine. На картинке ситуация выбора, который должен сделать искусственный интеллект, управляющий беспилотным автомобилем. Отказали тормоза и у водителя (точнее программы, которая управляет машиной) непростой выбор: сбить старушек на переходе или свернуть и врезаться в препятствие, при этом погибнут все, кто в машине - семья с маленьким ребёнком.

Программисты не хотят брать на себя ответственность за этот выбор (их ведь будут судить, хотя пока законодательства нет, но очевидно за ИИ будут отвечать его создатели), поэтому заказали социологическое исследование. MIT создал сайт опроса Машина Морали http://moralmachine.mit.edu/hl/ru, на котором все желающие могут для всевозможных ситуаций на дорогах дать свой вариант выбора. С большой вероятностью можно сказать, что результаты лягут в основу правил (тех самых законов робототехники). Но уже сейчас интересно наблюдать, какие выводы сделали исследователи в части влияния национальности, религии, пола, возраста на непростые решения. Атеисты реже в случае опасности для людей и животных предлагают спасать людей, мужчины реже спасают женщин, но в целом все предлагают пожертвовать стариками если на другой чаше весов жизнь ребенка.