Эксперты по искусственному интеллекту призвали ООН запретить разработку роботов-убийц

Главы крупнейших концернов в сфере роботехники и искусственного интеллекта (ИИ) обратились к Организации Объединенных Наций с призывом запретить разработку и использование летального автономного оружия. Открытое письмо, распространенное 20 августа на сайте организации Future of Life Institute, подписали 116 специалистов из 26 шести стран мира. В их числе - основатель компании Space X Илон Маск.Авторы обращения указывают, что создание летального автономного оружия может повлечь за собой третью революцию в способах ведения войны. "Однажды возникнув, оно позволит вести военные действия на невиданном ранее уровне и в такие сжатые сроки, что человечество будет не в состоянии их осознать. Новый тип вооружения может стать оружием диктаторов и террористов, используемым против мирного населения, а хакеры смогут взламывать его и использовать в недопустимых целях. У нас не так много времени. Если ящик Пандоры однажды откроется, его будет тяжело закрыть", - говорится в документе.

Письмо было распространено накануне международной конференции по вопросам искусственного интеллекта, стартующей в Мельбурне 21 августа. Его авторы уверены, что роботизированная техника, которая может вести боевые действия без участия человека, должна быть запрещена так же, как химическое оружие.

В документе также выражается сожаление, что назначенное на 21 августа в Женеве первое заседание рабочей группы при ООН по вопросам летального автономного оружия было отменено из-за недостаточного числа государств, сделавших финансовые взносы для участия в этой встрече. Его авторы призвали все заинтересованные стороны принять участие в создании и заседании этой группы и выразили готовность провести технические консультации.

Ранее Илон Маск уже предупреждал об опасности искусственного интеллекта, заявив, что тот представляет большую угрозу для человечества, нежели ядерный конфликт с КНДР. Об этом канадско-американский миллиардер написал 11 августа у себя в Twitter. "Если вы еще не испытываете беспокойства относительно безопасности искусственного интеллекта, то самое время начать это делать. Это - куда большая угроза, чем Северная Корея", - отметил он.

Источник: dw.com

Authors

*

Top