USD: 56.3779 | EURO: 60.5950 |
Сегодня: -2 | Завтра: -1 |
31 марта 2017. 01:38

Новости дня

30.03 21:00 > Провайдеров попросили быть готовыми к отключению интернета
30.03 20:34 > Власти назвали нормальной ставку 40 рублей в год за «дачу Медведева»
30.03 19:54 > Исламисты из Косово собирались взорвать мост Риальто в Венеции
30.03 19:06 > В США отец сдал в полицию дочь за планы устроить кровавую стрельбу в школе
30.03 18:58 > Пока суд да дело. Что необходимо знать об административном аресте
30.03 18:23 > Кадыров пожаловался на «жадность» «Роснефти»
30.03 18:03 > Российские ученые создали аппарат для лечения рака
30.03 17:14 > Организатора митинга против коррупции в Ставрополе избили у собственного дома
30.03 17:02 > ФСБ провела обыски в Эрмитаже
30.03 16:47 > Томский учитель назвал своих учеников фашистами и холопами англосаксов
30.03 16:03 > Путин сравнил митинги против коррупции с «арабской весной» и Евромайданом
30.03 15:41 > За шесть лет войны из Сирии сбежали более 5 млн человек
2016-08-05 10:30:18

Роботы начинают, выигрывают и убивают

«Телеграф» выяснил, когда роботы выйдут из-под контроля и чем по-настоящему опасна человекообразная машина.

В июле этого года полиция Далласа использовала полицейского робота-сапера, чтобы с помощью вложенной в манипуляторы машины взрывчатки С4 уничтожить спрятавшегося на подземной парковке убийцу. Ликвидация преступника прошла успешно, но вызвала новую волну страхов относительно грядущего восстания машин. С помощью экспертов «Телеграф» выяснил, когда роботы выйдут из-под контроля и чем по-настоящему опасна человекообразная машина.

Каждый смертельный случай, к которому причастен робот, вызывает разговоры о неготовности современной цивилизации к приходу в мир людей машин, которые в сотни раз сильнее и потенциально в сотни раз умнее человека. Доцент университета ИТМО Сергей Колюбин, специализирующийся на компьютерных технологиях, призывает не поддаваться технофобии, когда речь заходит о перспективах совместной жизни человека с умными машинами, подключенными к сети.

«Некоторые технологии еще не достигли достаточной зрелости, и перепрыгнуть этот этап, к сожалению, нельзя. Но с их совершенствованием риски будут снижаться», — уверен эксперт. Кроме того, он отмечает, что проблема иногда связана не с самой технологией, а с ее исполнением: сгоревший резистор, плохо отлаженный программный код или, например, перевернутый акселерометр.

Пять самых кровавых роботов-убийц. Фотодосье «Телеграфа».

Ученый также подчеркнул, что более корректно говорить о том, увеличила или сократила роботизация количество жертв в конкретной сфере деятельности, будь то использование промышленного манипулятора, беспилотного транспорта или робота-ассистента для хирурга. При том что ряд задач человек без помощи робота решить просто не в состоянии. По словам эксперта, роботы должны освободить человека от целого ряда неприятных работ, монотонных, грязных, опасных и/или удаленных операций, которые в сообществе робототехников называют «классическими 4D для внедрения робототехники: Dull, Dirty, Dangerous, Distant».

Под определение этих классических 4D подходит тяжелая и опасная работа по «борьбе с терроризмом». Неудивительно, что главными заказчиками и спонсорами разработок умных роботов и «автономных систем оружия, снабженных искусственным интеллектом», являются военные. Армия США уже призвала на войну в Ираке около 5 тысяч машин, способных воевать дистанционно, в частности роботов-саперов и дронов. Уже к 2020 году США планируют заменить роботами 30% живого состава военнослужащих. К этому времени должны быть разработаны интеллектуальные системы управления, которые свяжут боевых роботов в единую сеть и дадут им возможность самостоятельно принимать решение о ликвидации террористов, боевиков и прочих плохих парней.

В знаменитой лаборатории Google Boston Dynamics в начале этого года прошли испытания человекообразного робота, который сможет заменить солдат или полицейских в условиях непроходимых для прочей техники территорий, например, в горах, джунглях или зданиях. Видео этого события не только впечатлило публику сходством робота с человеком, но и вызвало у нее сочувствие к машине, которую разработчики в ходе эксперимента пинают и опрокидывают на землю, как беспомощного ребенка.

Но если люди способны на сочувствие к роботам, то машины никаких ответных чувств к человеку не испытывают. И прямого запрета на убийство в них не запрограммировано. Поэтому создание подобных систем вызывает беспокойство даже у лидеров отрасли и экспертов. Год назад на сайте института Future of Life, который занимается проблемами искусственного интеллекта, было опубликовано открытое письмо, призывающее к международному запрету разработок в области автономных систем оружия, снабженных искусственным интеллектом. Под ним уже подписались тысячи человек, в их числе лицо современной физики Стивен Хокинг, основатель компании SpaceX Илон Маск и сооснователь Apple Стив Возняк.

Сергей Колюбин также видит в создании автономного оружия определенную опасность, так как появление вооружения, убивающего на все большем расстоянии, приводило к увеличению количества жертв. «От мечей перешли к лукам, далее — к огнестрельному оружию, артиллерии и на данный момент закончили атомными бомбами. С каждым новым шагом количество потенциальных жертв возрастало», — подчеркивает эксперт.

Он отмечает еще один этический момент. Если решения об убийстве будет принимать искусственный интеллект, то это снимает вину с человека. «Представляете переворот в Турции, когда вместо трех тысяч человек — три тысячи боевых роботов, управление которыми перехватили мятежные генералы?» — рисует гипотетическую ситуацию Колюбин.

Беспокойство о перехвате управления боевыми роботами отнюдь не праздное. Специалисты по компьютерному взлому регулярно предупреждают о большом количестве «дыр» в безопасности современных систем управления. Сейчас хакеры могут перехватывать управление бортовыми компьютерами автомобилей и самолетов. Известно несколько громких случаев хакерских атак на такие инфраструктурные объекты, как атомная электростанция в Южной Корее, плотина возле Нью-Йорка и отключение электростанции на Украине. Также есть неподтвержденные данные о нескольких дистанционных убийствах с помощью хакерского взлома. Например, представитель управления «К» ФСБ РФ в интервью упоминал убийство свидетеля защиты в США прямо в больнице посредством дистанционного отключения больничного кардиостимулятора.

«Попытки взлома уже были. Этими вопросами плотно занимаются разработчики систем кибербезопасности, — соглашается Сергей Колюбин. — Однако если отключить роботов от сети, т.е. лишить их способности общаться, то мы существенно ограничим их возможности. Например, внедрение системы коммуникаций между автомобилями и дорожной инфраструктурой, когда машины смогут договариваться о скоростном режиме и маршрутах, способно избавить города от аварий и пробок».

Каждый человек сейчас имеет в собственности по несколько гаджетов, которые ведут учет каждой минуты «цифровой» жизни пользователя. Одновременно роботы уже появились в коммерческой продаже. В Японии за год раскупили около 13 тысяч роботов-гуманоидов системы Pepper, которые работают в больницах, парикмахерских и ресторанах, нянчат детей и развлекают взрослых. Ученые предсказывают, что уже через несколько лет роботы секс-игрушки заменят людям половых партнеров.

Возникает вопрос, как будет использована получаемая информация, и не смогут ли получить к ней доступ спецслужбы или киберпреступники? Сможет ли кто-нибудь гарантировать, что милый домашний робот не взбесится из-за вируса или сбоя программы, после чего переедет хозяина колесами или задушит манипулятором?

Эксперт «Телеграфа» Сергей Колюбин видит решение этой проблемы в совершенствовании системы контроля за своей продукцией для компаний-производителей роботов. «Ответственность ведь может регламентироваться не только написанным мелким шрифтом пользовательским соглашением или уголовным кодексом, но и известными законами Азимова, — поясняет он. — Компании должны отвечать за неприкосновенность личной информации, к которой будут иметь доступ. Возможно, понадобится создание организации, которая станет чем-то вроде «киберполиции». Она может быть государственной или независимой, но должна иметь рычаги влияния — возможность накладывать штрафы и лишать лицензий».

Американский писатель-фантаст Айзек Азимов сформулировал три закона робототехники еще в ХХ веке. Они звучат так: 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму закону.

Пока ни один из этих законов на практике не работает. Объяснение достаточно простое. Соблюдение умными машинами трех законов робототехники бесполезно, пока человек не научился выполнять десять библейских заповедей. Людям не хватило для этого двух тысяч лет. Эксперт «Телеграфа» предполагает, что роботы освоят собственные каноны морали быстрее своих создателей.

Наталья Швейкина
Ссылки по теме:
Loading...
 

Фоторепортажи

27 марта >

Сидят утки. Главные фото и видео акции протеста в городах России

«Телеграф» собрал фотографии участников митинга из соцсетей.
21 марта >

Лучше нету того цвета. Cамые свежие фотографии распустившейся в Токио сакуры

В Японии объявили сезон цветения сакуры.
20 марта >

Жизнь в СССР в 14 снимках глазами сотрудника американского посольства. Вторая часть.

Архив, в котором несколько тысяч цветных фотографий 1950-х годов, обнаружил американский историк Дуглас Смит.
9 марта >

«Пепел дней»: что постят люди, оказавшиеся у вулканов на Камчатке

«Телеграф» собрал снимки людей, оказавшихся в разное время вблизи Ключевской сопки.
Наверх

Не пропускайте важные новости и истории о жизни в России и мире — подпишитесь на «Телеграф» в социальных сетях