Нейросети распространяют о людях негативные стереотипы

Нейросети распространяют о людях негативные стереотипы

Искусственный интеллект проникает все глубже в разные стороны жизни человека. Ученых тревожит, что нейросети настолько вовлечены в процессы, что уже цитируют сами себя. Что плодит массу ошибок. Другая опасность: широкое распространение заблуждений и негативных стереотипов о людях.

 

Искусственный интеллект не способен критично оценивать поступающую информацию. Проблема еще и в том, что в Сети плодятся негативные высказывания об определенных социальных, гендерных, расовых различиях. Мы не особо склонны кого-то хвалить или защищать и в реале, а в Интернете, тем более.

 

А вот агрессия, негативные высказывания, сомнительные сентенции и выводы в виртуальной реальности плодятся как мушки-дрозофилы. А ИИ все это собирает, суммирует, пользуется данной «информацией» как достойным источником. А потом делает на основе таких «данных» свои рекомендации.

 

Как сообщает публикация с результатами нового исследования в журнале Science, это действительно серьезная угроза. Например, советами нейросетей пользуются юристы при проведении судебных процессов и вынесении вердиктов.

 

Если ИИ, «начитавшись» негативных мнений, например, об «ограниченной дееспособности» определенных социальных групп, будет давать соответствующие рекомендации по конкретным делам, юридические ошибки станут все более частыми.

 
 

   

Комментарии 0

Оставить комментарий

Ваш email не будет опубликован.