Размер шрифта
-
+

Сердце машины. Наше будущее в эру эмоционального искусственного интеллекта - стр. 53

. Совсем недавно компания Google DeepMind использовала техники глубинного обучения для разработки ИИ, играющего в го, под названием AlphaGo. Программа AlphaGo обучалась самостоятельно при помощи базы данных, в которую были занесены тридцать миллионов записанных ходов из игр уровня эксперта. В марте 2016 года AlphaGo выиграл у гроссмейстера по го мирового уровня Ли Седоля четыре партии из пяти. Игра в го считается более сложной для искусственного интеллекта, чем игра в шахматы. Разработчики ИИ не ожидали игры на таком уровне еще по крайней мере в течение десятилетия.

Метод обучения не менее важен, чем используемые алгоритмы. Вот почему компании Affectiva пришлось изменить код приложения FaceSense. Ведь в обучении первоначального приложения участвовало относительно мало исследователей. Как только была завершена новая система, Affectiva запустила пилотный проект, в котором рекламный ролик Супербоула[1] транслировали зрителям, давшим согласие на участие в проекте, а выражение их лиц при просмотре анализировалось через веб-камеру. Таким образом команда эль Калиуби получила результаты, необходимые для переобучения системы, на этот раз – на примерах подлинных реакций реальных людей. Дополнительное изучение рекламы и другого медиаконтента с участием зрителей позволило собрать дополнительные данные о выражениях лиц реальных людей. Это было крайне важно. Система училась распознавать трудноуловимые нюансы выражений лиц. Оттенки были настолько незаметными, что даже хороший актер не смог бы изобразить выражение лица человека, по-настоящему переживающего ту или иную эмоцию. Чем больше было образцов эмоциональных реакций на рекламные ролики, тем умнее становилась система. Вот как объяснила это эль Калиуби в своем основном докладе.

Мы фиксируем эмоции, глядя на лицо. Лицо – один из самых надежных каналов сообщения социальной и эмоциональной информации. Мы используем компьютерное зрение и алгоритмы машинного обучения, которые отслеживают ваше лицо, его черты – глаза, брови – и соотносим их с эмоциональными ориентирными точками. Затем мы накладываем информацию на карту эмоциональных состояний, таких как смущение, интерес, удовольствие. И за последнюю пару лет, начав обрабатывать собранные данные, мы обнаружили, что чем больше данных мы предоставляем, тем точнее становятся систематизаторы эмоций. Когда мы обучали подобные систематизаторы лишь с сотней образцов, их точность не превышала 75 %. Но когда количество позитивных учебных образцов составило 100 000, точность превысила 90 %. Это по-настоящему захватывающе, и мы продолжили пополнять массив данных новой информацией, чтобы достичь большей точности

Страница 53