Производители роботов просят ООН запретить военный искусственный интеллект

Производители роботов просят ООН запретить военный искусственный интеллект

116 специалистов, представляющих 26 стран мира, обратилась к ООН с призывом запретить разработку и использование автономного оружия. Среди авторов, подписавших петицию против использования автономных боевых роботов, — известный IT-инженер, гендиректор SpaceX Илон Маск и основатель компании, занимающейся искусственным интеллектом, DeepMind Мустафа Сулейман, передает НТВ.Письмо, касающееся роботизированной техники, способной вести боевые действия без участия человека, направлено в ООН в преддверии стартующей в Мельбурне конференции по вопросам искусственного интеллекта (ИИ) сообщает «Интерфакс».Российские компании поддержали призыв Илона Маска о запрете боевых роботов. Promobot и NaviRobot подписали открытое письмо о необходимости запрета военного ИИ. «Автономные летальные вооружения могут стать орудием диктаторов и террористов, используемым против мирного населения. Хакеры смогут взламывать их и использовать в недопустимых целях», — говорится в документе.По данным BFM.RU, основатель SpaceX Илон Маск едва ли не каждый месяц делает заявления о необходимости контроля ИИ — как военного, так и гражданского, но ведь истинный искусственный интеллект еще даже не создан. Не рановато? Проблема в пугающей скорости прогресса, объяснил на одной из конференций сам основатель SpaceX:

«Тут работает двойной экспоненциальный рост. Во-первых, экспоненциально растут вычислительные возможности микроэлектроники. Во-вторых, экспоненциально растет эффективность программного обеспечения, используемого в ИИ. Когда в дело вступают двойные экспоненты, почти любой прогноз будет слишком консервативным. Год назад все думали, что компьютер победит чемпиона по игре Го минимум лет через 20. Весной это произошло. А теперь компьютер может играть 50 одновременных матчей против лучших игроков мира без единого шанса на поражение — и это спустя один год».

Программный прорыв в ИИ может случиться в любой момент, а с механической точки зрения все уже готово: роботов, в том числе и прототипы боевых моделей, строят по всему миру, рассказывает гендиректор NaviRobot Игорь Кузнецов: «Технологии уже позволяют выпустить в горячие точки роботов в плане мехатроники, то есть готовы мышцы, скелет, спинной мозг, но пока нет еще искусственного интеллекта, который бы принимал решения. Если на борту есть искусственный интеллект, то он принимает решение сам, и тут начинаются проблемы. Если он попадает в руки хакеров, террористов и прочих вредных персонажей, то это может привести к очень плохим результатам».

Предоставление автономии военному ИИ может привести — и это не преувеличение — к апокалиптическим последствиям. Наглядным примером может послужить история, произошедшая в начале 80-х годов, когда советская система предупреждения о ракетном нападении ошибочно зафиксировала запуск американских ракет по СССР. Глобальную ядерную войну предотвратила только бдительность дежурного офицера Станислава Петрова, который впоследствии стал лауреатом нескольких наград и героем документального фильма «Человек, который спас мир».Такие же ошибки будут присущи и искусственному интеллекту, поясняет сооснователь и директор по развитию Promobot Олег Кивокурцев: «На сегодняшний день мы можем сказать с уверенностью, что не существует ни одной системы, которая способна распознать объект правильно с точностью 100%. Это означает, что при наведении роботом прицела на какой-либо объект возможна ошибка. При выстреле может пострадать либо человек, то есть робот может спутать военного с простым жителем, либо при наведении ракеты может пострадать жилой объект — робот может перепутать его с военной базой. Это одна из причин, почему стоит ограничивать и как-то регулировать использование роботов».

Правда, нельзя забывать, что ошибаться свойственно интеллекту не только искусственному, но и обычному, человеческому. Это наглядно доказывают, например, случайные уничтожения пассажирских лайнеров системами ПВО, которыми управляли люди. Поэтому в идеале следовало бы запретить вообще все вооружения, пока не появятся безупречные роботы — или безупречные люди.

 

Источник: zakonia.ru

Добавить комментарий

*

3 × один =