「ブローカ野における手の動作と談話表象」
私達ニンゲンの耳というのは良く出来ています。
これは例えば話し言葉ということを考えてみましょう。
私達ニンゲンは非常に早いピッチで独特の鳴き声を出します。その速さは驚くべきことに1分間に500~600個の音の切れ目があると言われています。普通の早さでこれくらいなのでおそらく早口な人の言葉というのは1分間に1000個近くなると思うのですが、私達の耳はどうやってこういった1000個近い音の切れ目を理解しているのでしょうか。
今日取り上げる論文は言葉の処理に関わるある脳の部分について過去の研究を元に考察を行ったものです。
結論を述べると私達の脳はものまねすることで相手の言葉を理解しているのではないかという仮説が述べられています。
というのも情報処理的にあんなに多くの音節をコードして言葉に当てはめ理解するというのは脳の機能的に考えても少し難しい。
人が相手の言葉を聞いて理解している時というのは、相手の音を聞いてそのままあたかも自分が口を動かしているようなものまねを無意識のうちに脳内シミュレーターで行っており、それゆえ私達は相手の言っていることを多少早口でも理解できるのではないかということが仮説的に述べられています。
ごくごく端的に述べると私達の脳は相手の声を聞き取るそばから脳内で仮想的に喉や舌を動かしてモノマネしていて、それゆえ相手の言っていることを理解できる、そんな考え方なのかなと思いました。
ポイント
近年の研究からブローカ野や言語内容に十分表せきれない様々な情報処理に関わっていることが報告されている。
サルを対象に行われた実験を元にブロードマンの44野と45野に相同する領域の活動からブローカ野の様々な働きを統合するような解釈を試みる。
また電気生理学的研究を元に談話の知覚を動作の理解というより一般的な枠組みに関連付けて考察を行う。
参考URL :Hand actions and speech representation in Broca's area.
|
補足コメント
この学説は相当古いもののようですが、最新の技術で作られた実物を見て考えるとなんだか説得力があるなあと思います。
外国語にしろ東北訛りにしろこれをよく理解できないのは発話運動プログラムが脳内にない、つまり話す能力がないので聞き取れないということもあるのかなあと思いました。
心の理解にしても発話の理解にしてもベースになるのはモノマネ機能で、このモノマネのコアになるのがブローカ野を中心としたネットワークなのかなあと思いました。