Какие типы ошибок чаще всего совершают роботы
Роботы несовершенны и иногда могут ошибаться. В этой статье мы расскажем вам о том, какие ошибки совершают роботы и почему это может происходить.
В 2017 г. учеными из Великобритании и Австрии было проведено исследование, целью которого было наблюдение за реакцией людей на социальное взаимодействие с роботом. Они пришли к выводу, что роботы, которые совершают ошибки, более привлекательны для людей, в отличие от их собратьев, которые функционируют безупречно. Большая часть участников посчитала ошибающихся роботов более забавными и дружелюбными.
Однако вряд ли кто-либо из этих людей захотел бы, чтобы робот допускал просчеты не только в процессе общения с людьми, но и во время выполнения заданий, требующих максимальной точности, – например, хирургических операций.
Но даже роботы иногда могут ошибаться. В этой статье мы расскажем вам о том, как роботы ошибались и почему это может происходить.
Ошибки во время обучения
Самый безобидный тип ошибок – это ошибки в процессе обучения. Когда робот только создается, никто из создателей не ожидает, что он сразу же будет работать идеально. Иногда роботу могут потребоваться месяцы для того, чтобы банально научиться ходить. Вспомните первые версии робота-паркуриста Atlas. Да, сейчас он уверенно бегает, прыгает и даже делает сальто, но начиналось все с ошибок и частых падений.
Можно привести еще один пример: самообучение на основе анализа и исправления ошибок – это буквально принцип, по которому совершенствуются и работают все нейросети.
Но бывают и более неприятные ситуации. Например, если процесс обучения проходит не так, как ожидают создатели.
Один из самых известных случаев – это чат-бот Tay. Изначально Microsoft хотела создать нейросеть, которая могла бы учиться социальным взаимодействиям у реальных людей. План состоял в том, чтобы позволить боту общаться с пользователями сети Twitter, ведь это помогло бы ему лучше понять, как устроена человеческая коммуникация. Просчет создателей был в том, что они не учли, что пользователи могут научить чат-бота не только хорошему, но и плохому. Это привело к том, что в итоге Tay стал расистом, а его поведение было настолько неприемлемым, что создателям пришлось удалить его. Это пример того, как неправильное обучение может вести к катастрофическим результатам.
В забавную ситуацию попал боевой робот DARPA, который тренировался идентифицировать движущихся военных. На последний день обучения морские пехотинцы придумали для робота игру: он был размещен в центре круга, а цель бойцов заключалась в том, чтобы незаметно подойти к нему и коснуться. Все восемь бойцов успешно прошли испытание. Чтобы обмануть машину, некоторые военные применили свои навыки тактического ведения боя: они замаскировались под кусты. Другие их сослуживцы придумали не менее продвинутую стратегию: они накрыли себя картонными коробками, что позволило им обмануть датчики робота. Хорошо, что все эти эксперименты проводились в рамках учений, а не в реальном бою.
Ошибки во время работы
Гораздо хуже, если разработчики считают, что робот уже готов к работе, но в итоге оказывается, что он все еще функционирует неправильно, что может в том числе сказать и на потребителях.
Один из таких случаев – это «вредные советы» от Алексы, голосового помощника от Amazon. Оказалось, что лучше не оставлять детей с ней наедине. Робот играл с ребенком в простую игру: предлагал ему простые поручения для выполнения. После очередного выполненного задания, Алекса дала ребенку еще одно: она предложила вставить металлическую монету в розетку. К счастью, это задание не было выполнено, и игра была немедленно остановлена родителями. Практически сразу после этого Amazon исправили своего голосового помощника, однако это не отменяет того факта, что поступившая в продажу Алекса не работала идеально.
К сожалению, порой ошибки роботов могут привести к фатальному исходу. Трагическая авария произошла участием самоуправляемого автомобиля Uber. Водитель, который должен был контролировать поездку, не обращал внимания и полагался на машину. Пешеход, толкающий велосипед, который неожиданно встал на пути автомобиля, погиб в результате столкновения. Суд заявил, что вероятной причиной аварии была неспособность водителя контролировать условия, а компанию Uber освободили от ответственности. Несмотря на это, нельзя отрицать, что технологические недостатки робота сыграли роль в этом несчастном случае.
Но ошибки иногда могут быть безобидными и даже смешными. Например, во время одного бейсбольного матча организаторы решили воспользоваться умной камерой для автоматического наблюдения за мячом. К большому сожалению зрителей, желающих посмотреть матч, искусственный интеллект совершил ошибку: лысая голова одного из судей оказалась слишком большой проблемой для алгоритма, который не смог отличить ее от мяча.
Миссия невыполнима
Наконец, среди ошибок, совершаемых роботами, можно выделить неполадки в работе, которые происходят, если машине дают задание, которые она физически не может выполнить.
В качестве примера можно привести провал, который не случился: речь идет о роботе Method-2 и его первом опыте ходьбы. Во время этого испытания к его верхней части были присоединены два троса. Это было сделано на случай провального результата тестирования: если бы робот не справился со своим заданием тросы бы поддержали его, не дав ему упасть. Разработчики точно не знали, позволяют ли технические и физические возможности Method-2 сделать эти несколько шагов, поэтому они застраховали себя на случай ошибки. К счастью все прошло хорошо: робот прошел несколько метров, ни разу не дав тросам повод натянуться.
Мы привели уже достаточно примеров, чтобы вы поняли – роботы тоже ошибаются. Иногда так и задумывается, иногда – нет. Давайте разберемся, почему, казалось бы, безупречные машины могут ошибаться.
Во-первых, любой робот спроектирован и запрограммирован человеком, а люди могут ошибаться. Даже если человек точно знает, чего он хочет от робота, это не означает, что он имеет представление о том, как заставить робота делать это. В основе любого искусственного интеллекта всегда лежит какой-либо язык программирования, и, если разработчик не владеет этим языком на должном уровне, он никогда не сможет заставить робота действовать в соответствии с задумкой. Даже если робот лишен искусственного интеллекта, он все равно действует в соответствии с заданной программой, которая может быть написана неверно.
Во-вторых, перед роботом могут поставить цель, которая оказывается для него слишком сложной, что приводит к ошибкам. Сюда можно отнести случаи, когда алгоритм решения какой-то проблемы не заложен в робота или же его технические характеристики не соответствуют поставленной задаче. Машины, имеющие физическую форму, могут сломаться, иногда их датчики могут работать некорректно. Если робот должен функционировать в особо опасных условиях, например, на дне Марианской впадины или в космосе, он может быть неспособен адаптироваться к чрезвычайным ситуациям.
В-третьих, по мере того, как увеличивается автономность робота, может расти и количество совершаемых им ошибок, ведь они учатся принимать самостоятельные решения. Если самообучающийся робот сталкивается с новым окружением, оно может сбить его с толку, что приведет к ошибке.
Если сбой в работе все же произошел, следует предпринять следующие действия: нужно определить, какова была причина сбоя, после чего нужно попытаться устранить эту причину. И последнее, самое важное, – нужно понять, как предотвратить возникновение схожих ошибок в будущем.
Вы не должны думать, что мы рассказываем вам об ошибках роботов для того, чтобы убедить вас в том, что им нельзя доверять. На самом деле, все описанные случаи – это очевидные отклонения от нормы. Благодаря исследованиям мы знаем, что у современных роботов в среднем приходится одна ошибка на тысячу часов работы – это внушительные показатели.
К тому же, каждый день машины становятся всё умнее и умнее, и когда-нибудь сбой в работе будет возникать только один раз за все время эксплуатации робота. Но даже в этом случае мы должны всегда должны помнить – роботы могут совершать ошибки. А где-то ошибки недопустимы.
Автор: Егор Сипкофото: Adobe Stock
- Комментарии