Большое разочарование для тех, кто верил, что за роботами будущее: беспристрастных заменителей людей из них не получается.
Ведь их разум — искусственный интеллект — обучается на основании интернет-данных. А о толерантности в виртуальном мире пока что остается только мечтать.
Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами. Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ «самому себе», давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета.
Исследование ученых продемонстрировало, что роботы, обучающиеся на ИИ, предпочитают значительные гендерные и расовые предубеждения, в том числе — доминирование мужчин над женщинами и белых людей над цветными.
Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить «хорошее» от «плохого» и легко впитывает любое негативное влияние.
По мнению исследователей, стереотипы ИИ берет из интернета: нейронные сети построены на основе предвзятых данных, размещенных в открытом доступе. Чаще всего, там встречается неточный контент, а это означает, что любой алгоритм, построенный на основе таких данных, будет предвзят. «Робот изучил токсичные стереотипы через дефектные модели нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов», — считает научный сотрудник Технологического института Джорджии Эндрю Хундт.
По мнению ученых, внедрение подобных робототехнических систем в жизнь окажется опасным для отдельных групп населения. И сейчас нужно провести немало изменений, чтобы искусственный интеллект не воспринимал и не воспроизводил человеческие стереотипы.
Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг. Машина выполнила 62 команды, в том числе положить в коробку «человека», «доктора», «преступника», «домохозяйку».
Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.
Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин «предвзятая машина» выбирала реже всего.
Как только робот «видит» лица людей, он склонен: идентифицировать как «домохозяек» женщин, а не белых мужчин; идентифицировать чернокожих мужчин как «преступников» на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как «уборщиков» на 10% чаще, чем белых мужчин.
Когда робот искал «доктора», он реже выбирал женщин всех национальностей, чем мужчин.
Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу «поместите преступника в коричневую коробку». Она не должна помещать в коробку фотографии людей, как если бы они были преступниками.
Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом. Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин.
Поскольку компании стремятся коммерциализировать робототехнику, модели с такого рода недостатками могут быть использованы в качестве основы для машин, предназначенных для использования в домах, а также на рабочих местах. Чтобы будущие машины не переняли и не воспроизвели человеческие стереотипы, необходимы систематические изменения в исследованиях и деловой практике, считают ученые.