Беспилотные машины оказались «расистами»

Беспилотные машины оказались «расистами»Cпециалисты исследовали восемь моделей искусственного интеллекта.

Алгоритмы, используемые системами автономного вождения, испытывают трудности с распознаванием чернокожих, что грозит серьезными происшествиями с участием беспилотных автомобилей. Их проблемы схожи с теми, что ранее неоднократно фиксировались у систем распознавания лиц.

Cпециалисты из Джорджии (США) исследовали восемь моделей искусственного интеллекта, каждая из которых обучалась по стандартному набору данных. Системы позволяют беспилотным автомобилям распознавать дорожные знаки, пешеходов и другие объекты уличной сети. Их протестировали с использованием изображений пешеходов, разделенных по шкале Фитцпатрика, которая используется для классификации цвета кожи человека. Шкала делит людей на шесть типов, где I — самый светлый цвет кожи, VI — самый темный.

Согласно результатам, модели демонстрировали «одинаково худшие характеристики», когда сталкивались с пешеходами трех самых темных оттенков кожи. В среднем точность моделей снизилась на 5% при рассмотрении группы, содержащей изображения пешеходов с более темным оттенком кожи. Стоит отметить, что алгоритм опирается только на те данные, которые присутствуют в имеющемся наборе изображений и фотографий, а потому не реагирует на те объекты, которых в выборке нет.

И это является проблемой, потому что в подобных базах светлокожих людей, как правило, значительно больше, чем чернокожих. Ученые разработали рекомендации, необходимые для предотвращения подобных казусов: нужно включать больше изображений темнокожих пешеходов в наборы данных, на которых тренируется искусственный интеллект, и тем самым повышать точность показателей определения этих изображений системами распознавания.

Читайте также:

%d такие блоггеры, как: