本稿では人間の非分節な動作提示からロボットが自律的に模倣学習を行う為の新たな手法を提案する.ロボットが人間と関わり合う中で見真似を通じて動作獲得と行う為には,連続的な時系列情報として提示される人間の動作から真似る対象となる動作区間を切り出さなければならない.言い換えるると「何を真似るか」という問題を解かねばならない.提案手法では模倣の対象となる一連の動作を複数の線形ダイナミクスの切り替わりで表現しうるとしてモデル化する.具体的には提示された高次元の動作時系列を特異値分解を用いて低次元化した後に,Switching AR modelに基づいてARモデルがマルコフ遷移により切り替わるダイナミクスとしてモデル化する.これにより各動作の要素がARモデルとして学習されるとともに,どのARモデルによってその時系列が生成されているかが推定され,対象時系列は各ARモデルを表わす隠れ状態の遷移として表わされる事になる.対象時系列は隠れ状態を表わす文字の列として表現されるが,これに対してN-gram統計量に基づき記述量を最小化する辞書生成を通じて単語抽出を行うことにより,人間の特徴的な動作区間を抽出する.実験では等手法の有効性を人間の上半身動作を対象にして検証したところ,人間の非分節な動作系列の中に特徴的動作として埋め込んだ “Hi” “Shrug” の二つの動作を自動的に抽出することができた.また,その抽出性能を人間の抽出能力と比較することで提案手法の有効性検討した.