一、產品概述
iMotions是一款當下真正意義上的多模態實時采集分析平臺。系統可以組合來自眼動儀(基于屏幕,眼鏡和VR),EDA/GRS,ECG,EEG,面部表情分析和調查的刺激呈現,數據采集和分析。結合EEG生物傳感器,探究潛在的情緒和反應,也可將EEG與其他生物傳感器(眼動追蹤和面部表情分析)結合在一起,可以有效地釋放人類的情緒和生理反應。降低了進行多模式研究的復雜性,從而可以無縫連接各種傳感器。 通過組合這些不同的生理測量,可以更好地了解任何環境下的人類行為,當然實時采集分析對設備品牌組合有一定的要求。
連接、記錄、分析
系統的刺激演示(圖像、視頻、網站、游戲、移動/應用程序和 VR)
集成并同步所有類型的傳感器(眼動跟蹤、面部表情分析、電極活動(又名GSR、EEG、心電圖、EMG)
包括 API 以從其他來源傳輸/導出數據
內置調查工具,向數據集添加調查問卷
數據流的實時可視化
注釋和行為編碼的實時和后標記
按點和單擊構建學習設計
場景和受訪者錄音和重播
使用嵌入式腳本對數據進行可視化,從而完成研究編輯和分析
同步生物傳感器
支持 50 多個常規生物傳感器。
在人類行為研究中,如眼動追蹤、面部表情分析、電皮活動/皮膚反應、EEG、EMG 和心電圖硬件等,為 50 多個生物傳感器提供全面集成和同步支持
API 和實驗室流層,用于額外的傳感器集成
內置調查工具,以減少偏見,用生物信號的非意識心理生理反應對受訪者的陳述答案進行三角測量
當前刺激
在實驗室、現實世界或 VR 中進行研究。
將受訪者暴露在實驗室或虛擬現實設置中的圖像、視頻、網站、游戲、應用程序或軟件中,或將您的學習手機帶入現實世界
場景相機允許在產品設計研究和移動接口(如智能手機和平板電腦)中測試真人物體
保持控制
保持實驗靈活性和控制
在iMotions中分配整個實驗過程,系統的行為分析軟件
按點和單擊構建學習設計
根據需要輕松設置參與者組、隨機化和塊設計
可視化和重播
實時查看數據或重播
在數據收集的瞬間或之后可視化原始和聚合的數據。
從多達三個不同的攝像機中收集響應者和屏幕記錄,與刺激和傳感器同步。
出口原始數據、結果和指標,以在 Excel、SPSS、MatLab 等中處理。
將記錄的數據導出為匯總表或原始數據。
使用完全透明的嵌入式 R 腳本自動分析一系列數據。
二、產品特點
該數據整合采集分析系統具有以下特別優勢:
輕松從多個傳感器收集數據,例如眼動追蹤,面部表情分析,GSR和EEG自動實時同步所有傳感器數據;
所有操作都在一臺PC和一個軟件應用程序中進行;
iMotions使生物技術研究人員能夠研究、采集、分析并可視化數據。該系統包括以下功能并持續更新:
學習設置與設計;
刺激表現;
數據收集;
分析和可視化工具;
三、技術參數
1.核心基礎模塊(必選)
1)研究設計-建立研究設計(對象內和對象間,模塊,隨機等);
2)刺激演示-多媒體功能,包括圖像,視頻,實時網站,調查,手機應用程序,軟件界面,游戲,VR,AR等。支持3個攝像頭采集;
3)數據收集-響應者管理,實時查看,行為指標等;
4)標記和注釋-使用注釋創建實時或后處理標記;
5)數據分析-各種自動化功能和易于使用的工具;
6)數據導出導出原始數據,摘要指標,視頻和靜態刺激的數據可視化等;
7)數據導入-導入外部數據源以進行可視化/同步;
8)面部/環境攝像頭-包括從多達三個不同的攝像頭中記錄受訪者的面部和/或環境的功能;
9)調查-與生物識別研究結合或分開進行的計劃和啟動調查;
10)集成幾乎所有設備并將數據發送到軟件平臺中以實現完全同步;
11)將所有同步事件轉發至軟件平臺;
12)實時可視化所有數據流;
13)TTL觸發器,用于通過其他程序發送積分信號,以實現同步精度;
14)LSL(實驗室流傳輸層)集成選項,用于從任何LSL支持的設備實時接收時間軸信號。將更多設備集成到軟件平臺中;
15)遠程控制:允許外部程序控制軟件平臺;
2.Affectiva 情緒感知模塊(可選)
1)通過網絡攝像頭連接到Affectiva模塊;
2)測量針對基于屏幕或身體刺激的面部表情;
3)導入外部錄制的視頻以進行面部表情的后期處理;
4)基于云處理,可進行快速分析;
5)效價:正面,不好的或中性反應
6)7種基本情緒:喜悅,憤怒,驚奇,恐懼,悲傷,厭惡,輕蔑;
7)承諾:整體表達能力-受訪者保持中立或參與;
8)21種面部表情:注意力,眉毛皺紋,眉毛抬高,眉毛內側抬高,閉眼,鼻子皺紋,上唇提升,唇吸,唇褶,唇部按壓,張開,唇角抑制器,下巴提升,傻笑,微笑;
9)33個面部標志:面部的幾何圖形;
10)眼間距離:兩個外眼角之間的距離,用于估計距屏幕的距離;
11)頭部方向:頭部旋轉為偏向(上/下),俯仰(左/右)和滾動;
12)集成化品質保證工具;
3.EEG 腦電模塊(可選)
可與多種主流便攜式腦電圖(EEG)結合使用
可接入原始信號和自動分析工具;
電池電量,信號強度和阻抗可視化
集成化品質保證工具;
4.ECG心電模塊(可選)
可與ECG傳感器或一系列生物采集傳感器兼容使用。
采集,可視化和導出與心血管活動有關的原始心電圖(ECG)信號;
電池電量和信號強度可視化;
集成化品質保證工具;;
5.眼動追蹤模塊-三選一(可選)
桌面式
移動
VR
借助基于軟件平臺屏幕的眼動跟蹤模塊,您可以使用Tobii,EyeTech,SmartEye,SMI和Gazepoint等硬件提供商提供研究級跟蹤器,在受控實驗室環境中收集和分析數據。
使用熱圖,注視回放以及關注區域(AOI)輸出度量等工具進行分析,例如注視時間和花費的時間;
還提供了自動注視映射技術,該技術將動態環境中的注視轉換為靜態場景,以簡化匯總和分析;
四、應用
1.消費者行為/神經營銷:
可以準確、定量地編碼和描述消費者的行為和情緒反應。
消費者偏好
產品測試
廣告
2. 心理學/教育:
生物傳感器使人類行為在幾乎任何情況下都可測量
神經
心理生理反應
智能學習
3. 醫療
多模式研究與來自多個生物傳感器的同步數據,使整個行業能夠更快、更實際的結果,從醫療人員培訓到患者互動和護理,到產品研發和營銷,到臨床試驗
醫患互動
神經病學研究
神經問題
4. VR和模擬
收集有關人們在VR模擬場景中的行為和反應的數據可以解鎖在可能不切實際、危險甚至不可能執行的情況下的見解
虛擬商店布局
游戲設計
VR環境
5. 可用性測試
的用戶體驗來自似乎真正了解其用戶的產品,UX 和 UI 研究人員通常缺乏在移動、應用中、網站上和游戲中捕捉用戶互動完整狀態的工具。通過多模式可在整個開發階段進行有效率和迭次測試,從而帶來更好的可用性數據和以用戶為中心的設計。
用戶界面
UX,網站,應用程序
人機交互
6.工程/產品
將生物傳感器作為研發策略的一部分,可在整個產品生命周期內實現更快、更實際的結果。在新產品的早期概念階段,可以采用眼動追蹤和面部表情分析等方法,以便對可用性和人體工程學進行初步見解,或在原型設計、產品測試和頭腦風暴階段進行初步見解。研究人類行為甚至可以應用于機器接口、軟件測試、腦-計算機接口或人-機器人交互,以理解或盡量減少人為錯誤。
工程設計
軟件與機器接口
研發
五、應用客戶