среда, 5 июля 2017

Может ли искусственный интеллект принимать этические решения?

 
 
 
Искусственный интеллект может принимать моральные решение. Это заявляют немецкие ученые, которые провели масштабное исследование на тему определения роботами этических норм.
Может ли искусственный интеллект принимать этические решения?

Возможность моделирования человеческой морали исследовали ученые из Института когнитивных наук в Университете Оснабрюка (Германия). В частности, в своих исследованиях они использовали виртуальную реальность, чтобы люди могли изучать поведение человека в имитируемых сценариях дорожного движения.

Участников попросили водить машину в типичном пригородном районе в туманный день, но водители постоянно находились в состоянии напряжения, так как на дороге появлялись препятствия в виде ям, автомобилей, животных и людей. Из-за этого, водители должны были постоянно решать, кого щадить. Результаты были обработаны статистическими моделями, объясняющими поведение. Исследование показало, что моральные решения в ограниченном объеме неизбежных дорожных столкновений могут быть хорошо объяснены, смоделированы и интерпретированы.

Леон Сютфельд, соавтор исследования, говорит, что до сих пор считалось, что моральные решения сильно зависят от контекста и поэтому не могут быть смоделированы или описаны алгоритмически. «Но мы нашли совершенно противоположное: поведение человека в ситуациях дилеммы можно моделировать Довольно простая модель на основе жизненного цикла, которая приписывается участником каждому человеку, животному или неодушевленному объекту», -- заявляет он.

Таким образом, по мнению ученых, человеческое моральное поведение может быть хорошо описано алгоритмами, которые могут быть использованы и машинами.

Дискуссии о поведении беспилотных автомобилей и других машин в неизбежных ситуациях уже давно ведутся представителями хай-тек индустрии. Например, ведущая новая инициатива Федерального министерства транспорта и цифровой инфраструктуры Германии (BMVI) определила 20 этических принципов, связанных с искусственным интеллектом. Профессор Гордон Пипа, соавтор нового исследования, говорит, что, поскольку теперь кажется возможным, что машины могут быть запрограммированы на человеческие, моральные решения, крайне важно, чтобы общество начинало обсуждать эту тему.

Авторы исследования говорят, что автономные автомобили – это только начало, поскольку роботы в больницах и другие системы искусственного интеллекта становятся более распространенными. Они предупреждают, что мы находимся сейчас в начале новой эпохи с необходимостью четких правил, иначе машины начнут применять решения без нас.

Между тем элементы искусственного интеллекта уже сейчас способны оценивать эмоциональных и этический смысл, например, публикуемых в интернете материалов. В частности, данные технологии в сочетании с работой живых людей используются для отслеживания так называемой «риторики ненависти» -- информации, которая запрещена законом или же вызывает негативные эмоции у пользователей. «Сейчас тема блокировки и удаления с сайтов материалов с признаками риторики ненависти активнее освещается в СМИ, и можно подумать, что количество этих случаев увеличилось. Это сравнимо с «эффектом покупки красной машины»: вы приобрели автомобиль определенной марки и цвета, и кажется, что таких транспортных средств вокруг стало больше; хотя на самом деле их количество едва ли сильно поменялось, - говорит Евгений Курт, управляющий партнер uKit Group. - Мы можем делать подобные выводы, основываясь на истории наших конструкторов сайтов — uKit, uCoz, «Народ». В компании есть штат ассесоров (людей, которые оценивают соответствие сайта требованиям пользовательского соглашения сервиса и законам РФ) и автоматический инструментарий для модерирования. Судя по статистике, нельзя сказать, что контента, связанного с так называемой «риторикой ненависти», или случаев его удаления стало больше, чем, например, 10 лет назад. Проблема публикации такого контента была, есть и всегда будет. При этом само интернет-сообщество постоянно борется с проявлениями вражды. Так,  каждый сервис, как часть экосистемы Интернета, старается обеспечить своим пользователям защиту от столкновений с подобной информацией и это нормально».