Przyszłość Siri może być związana z analizą naszych... mięśni mimicznych
Na początku ubiegłego roku Apple przejęło amerykańską firmę Emotient, która została założona cztery lata temu przez badaczy z Machine Perception Lab z Uniwersytetu Kalifornijskiego. Stworzona przez nią technologia pozwala na analizę ludzkiej mimiki, co może zostać w przyszłości wykorzystane przez Siri.
Za mimikę ludzkiej twarzy odpowiadają 43 mięśnie. Dzięki wykorzystaniu stworzonej przez Emotient technologii oraz kamery smartfona, która pozwala na zarejestrowanie obrazu w 30 klatkach na sekundę, możliwe jest ich szybkie przeanalizowanie. Pozwala to ocenić, w jakim nastroju jest dana osoba lub jak zareagowała na przedstawione jej obrazy, dźwięki, informacje itd.
Badanie mikroekspresji połączone z uczeniem maszynowym pozwoliło na stworzenie systemu, który został wykorzystany w kampaniach reklamowych oraz politycznych. Technologia Emotient umożliwiła zbadanie, jak odbiorcy danego przekazu reagują na niego – nawet jeśli udawali uśmiech, złość czy zażenowanie na swojej twarzy.
Wykorzystywany przez Emotient system FACS (Facial Action Coding System) charakteryzuje się wysoką dokładnością, możliwością analizowania wielu twarzy jednocześnie i podawania wyników w czasie rzeczywistym oraz wsparciem dla Windowsa oraz dystrybucji Linux. Niewykluczone jednak, że z czasem zostanie dostosowany również do systemu iOS. O tym, w jaki sposób będzie to mogło zostać wykorzystane, rozmawiamy w dzisiejszym odcinku podcastu MyApple Daily.
Źródło: Brian Roemmele