様々な人間関係の中で、相手の本音や感情を読み取れたら便利なのにって思うことありますよね。実は、人工知能(AI)が相手の感情を紐解く手助けをしてくれる日がもう直前に迫っています。
人工知能(AI)による感情認識技術というものが、ここ最近急速に進歩しています。身近な例でいうと、ヒト型ロボット「Pepper(ペッパー)」くんは「感情マップアプリ」と呼ばれるフレームワークを実装しており、周りにいる人達の感情を読み取り、それに応じた会話を行います。
そしてもう1つ。最近ソニーより発売された犬型ロボットの新型「aibo(アイボ)」も、人工知能(AI)により、飼い主の感情を学習し、飼い主が喜ぶような行動を覚えていきます。たくさん話しかけたり遊んだりといった様々な「育成」によって成長し、癒しの存在になっています。
そこで今回は、人工知能(AI)で人間の感情を読み取るまでに必要な技術を、5つのステップに沿ってわかりやすくお伝えします。
感情とは喜び・悲しみ以外にも全2185種類にもおよぶ
まず感情とは何かを見ていきましょう。
フランスの哲学者デカルトは、1649年に刊行した『情念論』で、人間の基本的感情は「驚き・愛・憎み・欲望・喜び・悲しみ」の6つであるとしました。ところが、昨年9月にカルフォルニア大学で機械学習を学んでいるAlan S.Cowenさんが発表した論文によると、人間の基本的感情は27種類で構成されており、その組み合わせで表現される感情は実に2185種類にも及ぶのだとか。人間の感情というものは、実に多種多様なようです。
ステップ1:感情を数値化する
では、実際に人工知能(AI)はどのように感情を定義しているのでしょうか。
前述したペッパー君に搭載されている「感情マップ」という機能では、感情を(1)喜び、(2)怒り、(3)悲しみ、(4)平静という4つのグループに分け、それぞれに黄、赤、青、緑の4つの色をつけています。ちょうど絵の具のパレットをイメージしてもらうと分かりやすいでしょうか。複雑な感情は、この4色を混ぜ合わせることで表現されると定義しています。つまり、人工知能(AI)によって基本的な感情を認識し、各々の感情がどれくらい強く表れているかを数値化出来れば (感情スコアと呼ばれます)、どれだけ複雑な感情であっても分析できるということになります。
それでは、具体的に感情をどのように人工知能(AI)が認識しているかを見ていきましょう。現在、人工知能(AI)の分野では、大きく分けて文章(ことば)、音声、表情そして脈拍などの生体情報から感情を読み取る研究が進んでいます。
ステップ2:文章から感情を読み取る
文章から感情を読み取る試みは比較的古くから行われてきました。
まず、事前準備として、感情・行動表現を数万通り以上もデータとして記憶しておき、単語ごとに「好き」、「嫌い」などの感情スコアをあてはめておきます。その後、対象となる文章を「名詞」「動詞」などの「品詞」にわけて、グループ分けします。ばらばらになった文章の中に事前に記憶しておいた単語があれば抽出し、トータルの感情スコアを計算することで、感情を認識します。
この方法だと、例えば「お上手なこと」といった皮肉が入った文章では間違った感情認識を行ってしまうという欠点があったため、最近では、前後の文章の組み立て方なども考慮するように進化しています。
メールの文章に隠れた感情を認識できるようになると便利ですよね。
ステップ3:音声から感情を読み取る
音声から感情を読み取る手法は、文章による感情を読み取る手法と同様の「言語解析型」と、音声の特徴量を指標とする「音響解析型」に分別されます。
言葉が分からなくても、相手の声のトーンでなんとなく感情は分かるという経験をされた人も多いのではないでしょうか。外国語にも適用なこの音響解析型 が近年の主流で、株式会社スワローインキュベート は、Rough値(声帯の力み、感情のこもり具合)とSoft値(声の柔らかさ、トーン)から、「喜び」「怒り」「平静」を判定します。怒りを瞬時に判定できるので、コールセンターでの事前トラブルを防ぐ役割として期待されているそうです。
映画やドラマなどで、犯人を尋問中に、嘘発見器を使って嘘かどうかを判定しているシーンを見た方もいらっしゃると思いますが、「平静」のレベルを見分けることで嘘か真実かを判定しています。
ステップ4:表情から感情を読み取る
凸版印刷が実用化を進める人工知能(AI)では、1970年代に米国の心理学者が開発した、「FACS(ファクス)」と呼ばれる学術体系を利用し、感情を読み取る試みが行われています。顔の筋肉を34箇所に区分けし、それぞれの筋肉の動きの大きさで表情を定義し、感情と筋肉の連動性を解析します。
ライブハウスやレストランといった多くの人が集まる施設で、このような感情認識技術を観客全員に対して使えば、どれくらい満足しているかといった指標も出すことができます。アンケートを取る手間が省けて一石二鳥になりますし、その他にも様々な使い方が考えられそうです。
ステップ5:生体情報から感情を読み取る
パナソニックは、カメラやサーモカメラの映像から、血流に合わせてごくわずかに変化する肌の色から脈拍を推計し、またその他にも皮膚温度、放熱量や発汗量といった複数の情報をもとに、人工知能(AI)を使って分析し、感情認識に利用するといった取り組みも行っています。単に脈拍だけ、発汗量だけで見ると、「気持ちが高ぶっているのか」、それとも「運動後」なのか区別できませんが、様々な情報を組み合わせることで、感情分析の精度を上げています。
今はスマートフォンについているカメラの性能が向上しているので、いずれはスマホ片手に感情分析ができそうですよね。
まとめ
つまり、人間の感情を読み取るまでに必要な5つのステップをまとめるとこのようになります。
・ステップ1:感情を数値化する
・ステップ2:文章から感情を読み取る
・ステップ3:音声から感情を読み取る
・ステップ4:表情から感情を読み取る
・ステップ5:生体情報から感情を読み取る
人工知能(AI)で人間の感情を読み取るには、このような様々な感情認識技術を組み合わせることで可能になるとわかりました。
途中で気づいた方もいらっしゃると思いますが、ここであげた方法の多くは心理分析の世界では既に使われています。例えば、著名なメンタリストDaiGoさんも、感情を読み取る際に重要なことは、”感情と言葉の結びつきを見ること”とあります。これはステップ2で人工知能(AI)が行っていることと同じです。人工知能(AI)は、メンタリスト等の方々が感情を読み取る際に行っていることを、自動的に行うようにプログラムされたものと考えることができます。
感情を読み取るということは、我々にとっても円滑なコミュニケーションを行うために重要なことであり、より人間味のある人工知能(AI)がこれからも発展していくことでしょう。「笑いかければ相手も笑顔で返してくれる」といったやり取りが、今後いたる所で見られるかもしれませんよね。