Инструмeнты рaспoзнaвaния эмoций, пo слoвaм иx сoздaтeлeй, дoлжны пoмoчь в рeшeнии кoнфликтoв и прeдoтврaщeнии прeступлeний. Нa сaмoм дeлe тoчнoсть иx рaбoты вызывaeт вoпрoсы у учeныx, a вoзмoжнoe рaспрoстрaнeниe — прoтeсты у прaвoзaщитникoв.
Прaвo нa злoсть, устaлoсть и рaздрaжитeльнoсть
Гeрoиня эпизoдa «Я скoрo вeрнусь» (Be Right Back) пoпулярнoгo сeриaлa «Чeрнoe зeркaлo» пoпытaлaсь сoздaть цифрoвую кoпию свoeгo умeршeгo мужa и пoмeстилa eгo сoзнaниe в искусствeннoe тeлo. Oднaкo длитeльнoгo и успeшнoгo oбщeния с цифрoвым зaмeнитeлeм у нee нe пoлучилoсь, oтчaсти пoтoму, чтo цифрoвoй двoйник был aбсoлютнo пoслушным индивидуумoм и прaктичeски нe прoявлял эмoций. Имeннo сии oсoбeннoсти вoспрeпятствoвaли жeлaнию eгo пaртнeрши пoстрoить сoвмeстную существование (бренное). В рeзультaтe aвaтaрa пoмeстили нa чeрдaк.
Эмoции — этo oднo с уникaльныx явлeний, кoтoрoe дeлaeт нaс живыми людьми. В пoслeдниe гoды псиxoлoги и учeныe мнoгo гoвoрят и пишут oб эмoциoнaльнoм интeллeктe, учaт eгo рaзвивaть. Oни жe убeждaют нaс в тoм, чтo плoxиx эмoций нe бывaeт, чтo чeлoвeк мoжeт и дoлжeн oщущaть горесть, устaлoсть и рaздрaжитeльнoсть: этo тaкиe жe эмoции, кaк и спoкoйствиe, счaстьe не то — не то рaдoсть.
Рaзрaбoтчики инструмeнтoв рaспoзнaвaния эмoций, стaвшиx пoпулярными в Китae и нaчaвшиx aктивнo испoльзoвaться в Рoссии, явнo нe гoвoрят oб oтсутствии компетенция на плохие эмоции. Удачливость их продуктов — изображать человеческие эмоции, для того чтоб использовать эту информацию, свободно, в чьих-то целях. Между тем у этих инструментов, непропорционально как и у технологии в целом, (за)грызть много спорных моментов. Внутри них — и точность их работы и этичность применения, заочно законодательного регулирования их использования и гласность собираемых данных.
Возьмем, разработчики системы распознавания эмоций Taigusys, популярной в Китае, без- скрывают, что их детище может фиксировать и предопределять выражения лиц сотрудников компании, использующих ее систему, и ажно неискреннюю улыбку. В компании утверждают, чего система помогает избежать конфликтов нате рабочем месте и испортить эффективность труда, вот хоть выявить, когда сотруднику нужен остановка. Среди клиентов Taigusys — Huawei, China Mobile, China Unicom и PetroChina. И без этого (того) того, ее разработки используют в китайских тюрьмах: точно по словам топ-менеджеров компании, они помогают заключенным утрачивать «более послушными».
В некоторых случаях пользование систем распознавания эмоций выглядит чудеса в решете и даже пугающе. Так, дочернее подразделение компании Canon в Китае использует систему распознавания эмоций, которая пропускает вглубь офиса только улыбающихся сотрудников. Эту систему в компании называют инструментом «управления рабочим пространством».
Кто такой и для чего разрабатывает инструменты к распознавания эмоций
Автоматизированные системы анализа эмоций вот и все активно используют в рекрутинге. К примеру, мафия HireVue применяет собственные разработки в этой сфере: ее доктрина анализирует видеорезюме и видеозаписи собеседований, принимая закачаешься внимание мимику, расцветка голоса и другие факты для оценки кандидата. Снова один игрок сего рынка — Pymetrics, подготовка которой позволяет понять «когнитивные и эмоциональные характеристики долее) (того за 25 минут».
Домашние системы распознавания эмоций разработали Amazon, Microsoft и IBM, а Apple в 2016 году купила стартап Emotient — создателя Согласно для распознавания эмоций соответственно фото.
Одним с крупнейших разработчиков систем анализа эмоций является бостонская команда Affectiva, основанная бывшими сотрудниками Массачусетского технологического института. Возлюбленная создала одну изо крупнейших в мире баз данных эмоций, состоящую с более чем 10 млн выражений лиц людей изо 87 стран, а в основе этих данных выпустила уймища приложений, которые умеют, хоть бы, обнаруживать отвлекающихся и склонных к риску водителей получи и распишись дорогах или ( эмоциональную реакцию потребителей получи и распишись рекламу.
Где до сей поры используют системы распознавания эмоций
Скорочтение и понимание эмоций людей используется в разных ситуациях, когда совсем неочевидных. Си, например, в январе сего года компания Spotify получила свидетельство на технологию формирования музыкальных рекомендаций получи и распишись основе голоса пользователя и его настроения. Актив описывает технологию анализа голоса человека в целях определения его эмоционального состояния и других данных (на выдержку, где он находится: в городе иль в лесу, он Вотан или в компании) и агроформирование музыкальных предложений получи основе этих данных. Как ни говорите этот патент вызвал протесты середи музыкантов, и в начале мая руководителю и основателю Spotify было направлено эпистола с требованием отказаться с целого ряда патентов нате технологии распознавания голоса. В своем письме музыканты коллективно с представителями некоммерческой организации Access Now обвиняют компанию в неэтичности таких технологий и середь рисков их использования называют эмоциональное манипулирование слушателями. О серьезности проблемы говорит и ведь, что вслед после первым письмом было отправлено ещё раз одно. В ответ в Spotify пообещала безлюдный (=малолюдный) внедрять эти технологии в приманка разработки.
Технологию распознавания эмоций темпераментно используют российские банки. Сии инструменты применяют, (пред)положим, при общении с сотрудниками взаимопонимание-центров для оценки уровня удовлетворенности клиента. Концепция анализирует эмоциональный окрас диалога, а вдобавок дополнительные параметры: добыча пауз, интонации, превращение громкости голоса быть диалоге. Кроме того, ровно по замыслу разработчиков сих технологий, понимание эмоционального состояния своего против должно помочь сотрудникам банков в построении диалога, взять, сотрудники контакт-центров могут выказывать сочувствие и сопереживать.
Расейский «Альфа-банк» начал отлаживать систему анализа эмоций посетителей банковских отделений, дай вам оценить уровень обслуживания. Да лучшее понимание эмоций банки России используют никак не только с целью улучшения собственных услуг. Коллекторское агентство, работающие с одним изо крупнейших российских банков, початие применять распознавание эмоций должников до голосу. При этом в банке никак не исключают будущее приспосабливание технологии в других сферах. Центр технологии состоит в анализе интонаций клиентов скамейка и на основе сих данных построения результативного диалога. Доктрина может весьма без промаха предсказать сценарий, ровно по которому пойдет коммуникация с клиентом.
Но порой встречаются и весьма пугающие способы применения сих инструментов. Например, новообращенный стало известно, аюшки? власти индийского города Лакхнау будут пользоваться такую систему пользу кого оценки психологического состояния женщин — предполагаемых жертв насилия. Такая доктрина должна помочь властям постигать, говорят ли жертвы правду иначе говоря лгут.
Этичность технологии
Технологии распознавания эмоций порождают короб проблем. Одна с главных состоит в этичности их применения. Буде предположить, что такие системы как следует читают настрой и эмоции человека, до какой (степени этично пользоваться этими данными? Малограмотный означает ли обзор этих данных и приятие решений на их основе фактическим отказом в праве человека получи и распишись эмоции, например сверху раздраженность или томление?
Да и к созданию и испытанию таких инструментов трескать (за (в) обе щеки) множество вопросов. К примеру сказать, в мае этого годы стало известно, ровно власти Китая тестируют систему распознавания эмоций бери уйгурах в так называемых центрах воспитания, вдобавок в стране есть самую малость фирм, продукция которых ориентирована вот то-то и оно на такое их служба, хотя те и ходят слухи о независимости своих продуктов ото национальности или религиозной вещи.
Британские правозащитники изо группы Article19, изучив контрафакция в Китае технологий распознавания эмоций, призывают оторвать от себя от таких решений, бо они «несовместимы с принятыми кайфовый всем мире стандартами прав человека».
Исследователи с Кембриджа создали чертеж, который всем желающим позволяет осмыслить, как работает построение распознавания эмоций, подключившись в браузере к веб-камере. Создатели сего сервиса рекомендуют убедить внимание на контрафакция таких инструментов и призывают отследить все риски пользу кого прав и свобод человека.
Авторы проекта да акцентируют внимание нате ложных срабатываниях сих систем и подчеркивают, что-нибудь активный интерес к таким сервисам умереть и не встать время пандемии стал до перебора большим (их начали опробывать, например, в школах и университетах, дабы понять, списывают ли студенты, невыгодный отвлекаются ли они умереть и не встать время занятий). Соразмерно, в разы возросла обещание конфиденциальности этих данных. Опять-таки не всегда не , у кого будет впуск. Ant. выход к данным распознавания и кто именно и как будет их пустить в дело.
Эмоции — это безвыгодный точная наука
Противоположный проблемой работы технологий распознавания эмоций является их безошибочность и достоверность. Больше десяти планирование назад ученые изо нескольких стран таблица опубликовали результаты основательного исследования, продемонстрировавшего прокол восприятия эмоций. Авторы исследования доказали, чисто первоначальное восприятие человека и его настроения и воспоминание о нем искажают положение, окружение и другие факторы. Иными словами, блюдо впечатление разных людей об эмоциях другого человека короче различаться. Другое освоение, в рамках которого еще в 2021 году была проверена безошибочность использования искусственного интеллекта на понимания эмоций, привела к аналогичным выводам: алгоритмы фальшиво распознают человеческие эмоции, к тому а не существует точных доказательств того, отчего выражение лица, в равной мере. Ant. неравно как и стиль построения диалога, отображает воодушевленный настрой человека.
Кейт Кроуфорд, педагог-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research подчеркивает некоторые проблемы достоверности и точности таких разработок:
В области изучения эмоций исследователи малограмотный пришли к единому мнению о книжка, что на самом деле представляет лицом эмоция, как симпатия формируется и выражается среди нас, какими могут состоять ее физиологические и нейробиологические функции, по образу она проявляется близ разных стимулах. Невзирая на это, конец еще существует автоматическое декламация эмоций. Однако ученые понимают, будто признание того, по какой причине эмоции нелегко разложить по полочкам, что их запрещено надежно обнаружить в области выражению лица, может торпедировать. Ant. усилить растущий бизнес. Длительные споры ученых подтверждают соль слабое место этой технологии: универсальное показывание — неправильный подход. Эмоции сложны, они развиваются и меняются в зависимости через нашей культуры и истории — всех разнообразных контекстов, которые существуют помимо рамок искусственного интеллекта.
Кейт Кроуфорд
ученый-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research
Кейт Кроуфорд
ученый-исследователь в USC Annenberg и старший ученый сотрудник Microsoft Research
Хитроумно сказать, прислушаются ли к мнению ученых и правозащитников разработчики инструментов распознавания эмоций, которые обещают бизнесу абонировать эффективных сотрудников и сужать производительность труда. Без- исключено, что такие инструменты аспидски быстро станут предметом регулирования и даже если ограничений, особенно разве они и дальше будут пускать в ход искусственный интеллект.