Huawei 2
Могут ли машины понять мораль? Некоторые думают, что да — с помощью книг, газет и религиозных текстов

Немецкие ученые с помощью книг, статей из газет и религиозных текстов попытались «научить» искусственный интеллект делать моральные суждения. Оценки машины соответствовали наиболее распространенным в определенный исторический период общепринятым представлениям. Об этом сообщает TechXplore.

Ученые отталкивались от предыдущих исследований искусственного интеллекта, которые показывали, что тот умеет проявлять предвзятость в тексте (например, сексизм). Поэтому они поставили себе цель научить его проявлять моральные ценности — чтобы сымитировать подобие моральных ориентиров.

Искусственный интеллект, который назвали «Машиной нравственного выбора», анализировал книги, новости и религиозные тексты, чтобы установить связи между различными словами и предложениями. Если упрощенно, то, к примеру, слово «убийство» часто коррелировало с «плохой», а «семья», наоборот, — с «хороший».

Далее «Машина морального выбора» исследовала контекст, чтобы различать, к примеру, нейтральное выражение «убивать время» и негативное «убивать людей».

Позже исследователи выяснили, что разные типы текстов меняют «моральные ценности» их искусственного интеллекта. Например, в начале 1990-х годов очень позитивными были свадьбы и заведение детей, но уже к 2008-2009 гг. эти понятия стали менее положительными, зато увеличилось позитивное отношение к работе и обучению.

«Искусственный интеллект обрабатывает сложнейшие человеческие задачи все более автономно — от управления автомобилями до здравоохранения. Важно и дальше его исследовать, чтобы уверенно доверять решениям, которые он принимает», — говорит Патрик Шрамовски, профессор Дармштадтского технического университета, который стал соавтором «Машины нравственного выбора».

Izohlar: 0
Siz identifikatsiyadan o'tmadingiz
Ro'yxatda bo'lmay turib izoh qo'shish

Tepaga