Стартап Emotient, основанный в Сан-Диего, анонсировал начало работ над технологией, которая позволит очкам Google Glass распознавать эмоции людей. Бюджет первого этапа проекта составляет 6 миллионов долларов. В долгосрочной перспективе речь идёт о создании аналитического кроссплатформенного движка, который позволит распознавать эмоции любому устройству с камерой. API будет базироваться на модели SaaS.
Часть финансирования взял на себя Сет Нейман (Seth Neiman), бывший ранее главным партнёром в венчурном фонде Crosspoint Venture Partners, а сейчас возглавляющий фонд Handbag. Предыдущий инвестор, Intel Capital, также участвует в проекте, на текущий момент вложив уже 8 миллионов с момента основания стартапа в 2012 году.
Emotient утверждает, что средства будут пущены на «общую коммерциализацию» технологии с помощью Emotient API, совместно с продуктами для отраслей вроде ритейла или здравоохранения. В данном случае разработчик будет конкурировать с проектом Affectiva от KPCB/Horizon Ventures, который специализируется на ряде маркетинговой и рекламной индустриях.
В Emotient считают, что их продукт выгодно отличается от Affectiva по способу подачи информации. «Наша технология позволяет сообщать информацию о чувствах и эмоциях в реальном времени, а также точнее работает в непредсказуемых условиях, например, в толпе», говорит Викки Эррера (Vikki Herrera).
Emotient открыл некоторые подробности о своём первом приложении, созданном для Google Glass (glassware). В первую очередь оно предназначено для использования в розничных продажах, чтобы помочь продавцам точнее распознавать реакцию людей на предлагаемые товары и услуги. Особенно это полезно для обучения новичков-продавцов.
«Все успешные бизнесмены знают, что вы „получаете столько, сколько отмеряете“, поэтому способность объективно и точно распознавать реакцию потенциальных клиентов позволяет продавцам эффективно планировать и выстраивать поведение», говорит Кен Дэнмэн (Ken Denman), CEO Emotient. Хотя прямые продажи станут первой сферой применения новой технологии, она не будет доступна для любого пользователя Google Glass. Сам Google собирается придерживаться некоего этикета, чтобы не превратиться в Glasshole (отличная игра слов).
Технология Emotient основана на определении и отслеживании выражения семи основных эмоций: удовольствия, удивления, досады, злости, страха, отвращения и презрения. Для этого отслеживается движение 19 мимических комбинаций, что позволяет также определять более сложные эмоции вроде разочарования и смущения. Google Glass станет первым носимым устройством, использующим продукцию Emotient, хотя она уже была успешно портирована на устройства под управлением Android. Но останавливаться на достигнутом разработчики не собираются, поскольку Intel является не только стратегическим инвестором, но и покупателем. Корпорация собирается внедрить библиотеки Emotient в следующую версию своей RealSense, ранее называвшуюся Perceptual Computing. Это SDK, которое откроет технологию распознавания эмоций для широких кругов разработчиков.
This entry passed through the Full-Text RSS service — if this is your content and you're reading it on someone else's site, please read the FAQ at http://ift.tt/jcXqJW.
Комментариев нет:
Отправить комментарий