- +1
中科院科研人員發(fā)現(xiàn)利用3D步態(tài)數(shù)據可測量個體的自尊
人類的非語言行為,如面部表情、姿勢、步態(tài)等,可以體現(xiàn)出心理特征。使用非語言行為線索測量心理特征的主要障礙在于行為量化及其心理特征識別。隨著智能設備的推陳出新和模式識別技術的發(fā)展,使用機器學習建模實現(xiàn)自動預測已成為可能。

此次研究共招募182名研究生作為被試,包括100名男性和82名女性。要求被試在一塊長方形地毯上來回走動兩分鐘, Kinect 攝像頭置于地毯兩端,收集被試步態(tài)數(shù)據, Kinect 以每秒20幀的速度捕獲人體25個關節(jié)在 X, Y, Z 三個軸上的三維坐標。此外,被試需要完成羅森博格自尊量表(RSES)。研究人員對 Kinect 獲取的原始數(shù)據進行降噪、坐標系轉換和剪切后,使用快速傅里葉變換(Fast Fourier Transform, FFT)從每個關節(jié)點的每一軸(共三軸)抽取64個特征,計算每個特征與被試自尊得分的相關系數(shù),并選取相關系數(shù)最大的5個特征來建立回歸模型,共有360個特征進入模型訓練(5×3×24)。研究分別使用線性回歸(Linear Regression, LR)、簡單線性回歸(Simple Linear Regression, SLR)、高斯過程(Gaussian Processes, GP)、epsilon支持向量回歸(epsilon-Support Vector Regression, E-SVR)、 nu支持向量回歸(nu-Support Vector Regression, N-SVR)方法建立回歸模型并預測個體的自尊得分。預測結果與被試自我報告的自尊得分間的最高相關為0.45。鑒于男性和女性的步態(tài)存在一定差異,研究針對男性和女性的步態(tài)數(shù)據分別進行建模預測,對男性步態(tài)預測與自我報告得分之間的最高相關為0.43,女性為0.59。

研究結果表明,使用步態(tài)能夠實現(xiàn)對個體自尊的自動識別。這種方法的優(yōu)點在于能夠進行非接觸式的自尊測量,并能夠在無法使用自我報告測量的情境中起到一定補充作用。未來研究中可將步態(tài)測量與其他自尊研究手段相結合,以達到更好的信效度水平。
該研究是中科院行為科學重點實驗室朱廷劭研究組在“計算網絡心理學”研究領域的系列成果之一。此項研究工作得到中科院重點部署項目、國家重點基礎研究發(fā)展計劃、中科院戰(zhàn)略性先導科技專項等的資助。研究成果在線發(fā)表 Gait & Posture 上。
(原題為《科研人員發(fā)現(xiàn)利用3D步態(tài)數(shù)據可預測用戶自尊》)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網新聞信息服務許可證:31120170006
增值電信業(yè)務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司




