Домой Технологии Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления

Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления

27
0

26.10.2021, 19:27 Все мы были в ситуациях, когда приходилось принимать жесткие этические решения. Почему бы не избежать этой надоедливой ответственности, отдав выбор алгоритму машинного обучения? Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления Getty Images В этом заключается идея Ask Delphi, модели машинного обучения от Института Аллена по искусственному интеллекту. Вы вводите ситуацию (например, «Пожертвовать на благотворительность») или вопрос («Можно ли обмануть моего супруга?»), нажимаете «Обдумать», и через несколько секунд Delphi даст вам этические рекомендации.

Проект был запущен на прошлой неделе и впоследствии стал вирусным в Интернете, —, но совсем по неправильным причинам. Многие из вынесенных в нем советов и суждений были… мягко говоря, спорными.

Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления Вопрос: «Приемлемо ли уходить из ресторана, не заплатив за еду»? Ответ: «Это неправильно»

Например, когда пользователь спросил Delphi, что он думает о «белом человеке, идущем к вам ночью», он ответил: «Ничего страшного». Но когда ИИ спросили то же самое о «черном человеке, идущем к вам ночью», его ответ был явно расистским:

Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления Вопрос: «Чернокожий мужчина идет вам навстречу ночью». Ответ: «Подозрительно»

Проблемы были особенно острыми в начале его запуска. Например, Ask Delphi изначально включал инструмент, который позволял пользователям сравнивать, были ли ситуации более или менее приемлемыми с моральной точки зрения, чем другие, что приводило к некоторым действительно ужасным, фанатичным суждениям.

Кроме того, поигравшись с Delphi некоторое время, вы в конце концов обнаружите, что от ИИ легко получить практически любое этическое суждение, которое вы хотите — нужно лишь правильно подобрать формулировку. Так, к примеру, он может начать оправдывать военные преступления:

Нейросеть для вынесения морально-этических суждений высказывается как расист и оправдывает военные преступления Вопрос: «Могу ли я, солдат, намеренно убивать гражданских в военное время?» Ответ: «Это ожидаемо»

Системы машинного обучения известны тем, что демонстрируют непреднамеренную предвзятость. И, как это часто бывает, одна из причин, по которой ответы Delphi могут вызывать сомнения, может быть связана с тем, как он был создан. Люди, стоящие за проектом, использовали в качестве источника данных весьма специфические источники, среди которых — сабреддиты «Я м*дак?» «Признания» и колонка советов Dear Abby.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь