Популярный сервис по распознаванию лиц выявил преступников среди политиков
Развитие технологий подразумевает облегчение человеческого существования. Однако, мир уже сталкивается с ситуациями, когда в попытках «помочь» техника подвергает жизни людей опасности
Такая ситуация произошла с системой распознавания лиц Amazon. Качество сервиса решили опробовать в Американском союзе гражданских свобод — независимой организации по защите прав. Используя настройки Rekognition, выставленные по умолчанию, то есть порог уверенности в 80% (это значит, что система на 80% уверена в том, что права, когда дает сигнал о совпадении), Союз просканировал 25000 фотографий преступников, лежащих в открытом доступе, и сравнила их с фотографиями всех членов Конгресса . В результате система идентифицировала 28 конгрессменов как преступников.
Крупнейшая в мире по продаже товаров и услуг через Интернет, американская компания Amazon рекомендует свой сервис по распознаванию лиц различным охранным организациям и полицейским. Некоторые из них уже пользуются программой, так что за ошибку системы могут поплатиться невинные люди, которых неверно распознали. Несмотря на петиции со стороны работников и акционеров Amazon, компания не планирует пересмотреть идею о продаже сервиса правоохранителям. Представитель Amazon заявил, что в ошибочных результатах виновата, скорее всего, «недостаточная калибровка». По его словам, 80-процентная уверенность системы работает с изображениями «животных, стульев и хот-догов», но она совершенно неприемлема для распознавания людей. Также, представитель компании порекомендовал выставлять уверенность сервиса минимум на 95%, когда речь идет об идентификации в серьезных целях.
Возможно, что уже очень скоро корпорации начнут инвестировать также в биотехнологии, а с течением времени даже разработают проекты по вживлению в человеческое тело специальных чипов, которые анализируют его поведение и состояние организма.
Также, Politeka сообщала о том, что баг в работе искусственного интеллекта Google не на шутку испугал юзеров Интернета.