Обнаруженный гендерныйBias в AI технологиях

Недавний отчет ООН подчеркивает гендерный bias в AI, связывая женщин с традиционными ролями. Эксперты предупреждают, что это продолжает существующие общественные стереотипы и влияниет на восприятие.


Обнаруженный гендерныйBias в AI технологиях

Искусственный интеллект и гендерное неравенство тесно связаны, согласно исследованию журнала Nature, которое раскрывает предвзятость в поисках Google. ИИ, как правило, ассоциирует мужчин с профессиями, такими как хирург или математик, тогда как женщин связывают с ролями, такими как парикмахеры или медсёстры. Этот феномен был рассмотрен генеральным директором ЮНЕСКО, Одри Азуле, которая в марте представила отчет о гендерных стереотипах, присутствующих в искусственном интеллекте.

В отчете подчеркивается, что женщины чаще соприкасаются с концепциями, такими как дом, семья или дети, в то время как мужчин ассоциируют с такими терминами, как бизнес, зарплата и карьера. Мария Кано Бонилья, эксперт по этике и ИИ, отмечает, что ИИ укрепляет социальные модели, воспроизводя предустановленные гендерные роли в обществе. Кано Бонилья утверждает, что ИИ является сексистским, поскольку поддерживает такие ассоциации ролей.

В этом контексте возникла полемика по поводу создания конкурса "Miss IA", где ценятся красота и количество подписчиков виртуальных моделей, созданных искусственным интеллектом. Эксперты предупреждают, что использование ИИ может привести к объектализации и сексизму в отношении женщин, поскольку он большей частью предназначен для удовлетворения мужских потребностей.

Генеральный директор ЮНЕСКО призывает правительства создать четкие регулирующие рамки, которые бы касались системной предвзятости, присутствующей в ИИ. С другой стороны, ставится под сомнение использование женских голосов в виртуальных помощниках, таких как Apple и Amazon, подчеркивая необходимость размышлений о подобных решениях, которые укрепляют гендерные стереотипы в технологии.

Последние новости

Посмотреть все новости